DeepLearningWithMe 《跟我一起深度学习》 第一部分:前馈神经网络 你告诉我什么是深度学习 这样拟合正弦函数你会吗? Pytorch之Linear与MSELoss 想明白多分类必须得谈逻辑回归 Pytorch之Softmax多分类任务 如何用逻辑回归来完成多分类? Pytorch之简洁实现Softmax多分类 我告诉你什么是深度学习 Pytorch之多层感知机分类任务 l.backward你到底是个什么东西? 你还不会实现反向传播? Softmax+Cross entropy 梯度检验 第二部分:卷积神经网络 看不懂卷积或许只是因为 原来卷积是这么计算的 卷积操作中的填充与池化 卷积池化与LeNet5网络模型 LeNet5的继任者AlexNet模型 VGG一个可使用重复元素的网络 NiN一个即使放到现在也不会过时的网络 厉害了!能把多尺度卷积说得这么高大上 你看这个网络它又宽又长 不得不说的Batch Normalization Batch Normalization分析与实现 第三部分:循环神经网络 你还在手动构造词表?试试torchtext.vocab 快速从零构建成DataLoader 第四部分:模型持久化与迁移运用 第五部分: Transformer网络模型 This post is all you need(①多头注意力机制原理) This post is all you need(②位置编码与编码解码过程) This post is all you need(③网络结构与自注意力实现) This post is all you need(④Transformer的实现过程) This post is all you need(⑤基于Transformer的翻译模型) This post is all you need(⑥基于Transformer的分类模型)