本文简要介绍python语言中 torch.utils.tensorboard.writer.SummaryWriter.__init__
的用法。
用法:
__init__(log_dir=None, comment='', purge_step=None, max_queue=10, flush_secs=120, filename_suffix='')
log_dir(string) -保存目录位置。默认是运行/CURRENT_DATETIME_HOSTNAME,每次运行后都会发生变化。使用分层文件夹结构轻松比较运行。例如为每个新实验传入“runs/exp1”、“runs/exp2”等,以便在它们之间进行比较。
comment(string) -注释 log_dir 后缀附加到默认
log_dir
。如果指定了log_dir
,则此参数无效。purge_step(int) -当记录在步骤
log_dir
。 崩溃并在步骤 重新启动时,任何 global_step 大于或等于 的事件都将从 TensorBoard 中清除并隐藏。请注意,崩溃和恢复的实验应该具有相同的max_queue(int) -在 ‘add’ 调用之一强制刷新到磁盘之前,挂起事件和摘要的队列大小。默认为十项。
flush_secs(int) -将挂起的事件和摘要刷新到磁盘的频率(以秒为单位)。默认为每两分钟一次。
filename_suffix(string) -后缀添加到log_dir 目录中的所有事件文件名。有关 tensorboard.summary.writer.event_file_writer.EventFileWriter 中文件名构造的更多详细信息。
创建一个
SummaryWriter
,它将事件和摘要写入事件文件。例子:
from torch.utils.tensorboard import SummaryWriter # create a summary writer with automatically generated folder name. writer = SummaryWriter() # folder location: runs/May04_22-14-54_s-MacBook-Pro.local/ # create a summary writer using the specified folder name. writer = SummaryWriter("my_experiment") # folder location: my_experiment # create a summary writer with comment appended. writer = SummaryWriter(comment="LR_0.1_BATCH_16") # folder location: runs/May04_22-14-54_s-MacBook-Pro.localLR_0.1_BATCH_16/
参数:
相关用法
- Python PyTorch SummaryWriter.add_histogram用法及代码示例
- Python PyTorch SummaryWriter.add_pr_curve用法及代码示例
- Python PyTorch SummaryWriter.add_custom_scalars用法及代码示例
- Python PyTorch SummaryWriter.add_image用法及代码示例
- Python PyTorch SummaryWriter.add_hparams用法及代码示例
- Python PyTorch SummaryWriter.add_images用法及代码示例
- Python PyTorch SummaryWriter.add_scalar用法及代码示例
- Python PyTorch SummaryWriter.add_embedding用法及代码示例
- Python PyTorch SummaryWriter.add_text用法及代码示例
- Python PyTorch SummaryWriter.add_scalars用法及代码示例
- Python PyTorch SummaryWriter.add_mesh用法及代码示例
- Python PyTorch ScaledDotProduct.__init__用法及代码示例
- Python PyTorch Sigmoid用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_parameters用法及代码示例
- Python PyTorch ScriptModule.state_dict用法及代码示例
- Python PyTorch Softmin用法及代码示例
- Python PyTorch Softmax2d用法及代码示例
- Python PyTorch ShardedEmbeddingBag.named_parameters用法及代码示例
- Python PyTorch ScriptModule.register_full_backward_hook用法及代码示例
- Python PyTorch ScriptModule.parameters用法及代码示例
- Python PyTorch ShardedEmbeddingBag.state_dict用法及代码示例
- Python PyTorch Store.num_keys用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.named_modules用法及代码示例
- Python PyTorch ScriptModule.register_forward_hook用法及代码示例
- Python PyTorch ShardedEmbeddingBagCollection.state_dict用法及代码示例
注:本文由纯净天空筛选整理自pytorch.org大神的英文原创作品 torch.utils.tensorboard.writer.SummaryWriter.__init__。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。