以下是基于Pytorch框架班 课程的Swanlab实践指南。
lesson-08:transforms_methods 介绍了Swanlab对预处理图像的记录
lesson-17:create_optimizer 介绍了Swanlab对基础二分类模型的全流程记录
lesson-23:hook_for_grad_cam 介绍了Swanlab对hook函数处理获得图像的记录
lesson-24:L2_regularization 介绍了Swanlab对L2正则化处理模型训练的记录,包含了与Tensorboard的对比
lesson-25:dropout_regularization 介绍了Swanlab对dropout正则化处理模型训练的记录,包含了与Tensorboard的对比
lesson-29:finetune_resnet18 介绍了Swanlab的多实验对比,包括不添加finetune,只添加finetune,添加finetune并冻结卷积层,添加finetune并调小卷积层学习度等四类情况
lesson-32:resnet_inference 介绍了Swanlab对模型推理的记录,包含推理时间和推理效果
lesson-33:unet_portrait_matting 介绍了Swanlab对图像分割模型U-net的加载与训练,包含提取效果图和原图的对比记录
- Pytorch简介及环境配置
- Pytorch基础数据结构——张量
- 张量操作与线性回归
- 计算图与动态图机制
- autograd与逻辑回归
- 数据读取机制DataLoader与Dataset
- 数据预处理transforms模块机制
- 二十二种transforms数据预处理方法
- 学会自定义transforms方法
- nn.Module与网络模型构建步骤
- 模型容器与AlexNet构建
- 网络层中的卷积层
- 网络层中的池化层、全连接层和激活函数层
- 权值初始化
- 损失函数(一)
- Pytorch的14种损失函数
- 优化器optimizer的概念
- torch.optim.SGD
- 学习率调整
- TensorBoard简介与安装
- TensorBoard使用(一)
- TensorBoard使用(二)
- hook函数与CAM
- weight_decay
- dropout
- Batch Normalization
- Layer Normalization、Instance
- Normalization和Group Normalization
- 模型保存与加载
- Finetune
- GPU的使用
- Pytorch中常见报错
- 图像分类一瞥
- 图像分割一瞥
- 目标检测一瞥(上)
- 目标检测一瞥(下)
- 对抗生成网络一瞥
- 循环神经网络一瞥