Knowledge Graph 知识图谱 基本技能 Windows利用conda命令管理Python环境 KG 知识图谱基础之RDF,RDFS与OWL 文因互联鲍捷:深度解析知识图谱发展关键阶段及技术脉络 | 公开课笔记 [https://zhuanlan.zhihu.com/p/72981392](【ACL 2019】揭秘认知图谱!从多跳阅读理解问答开始) Deep Learning基础 《Hands-On Machine Learning with Scikit-Learn and TensorFlow》笔记 第十四章——循环神经网络(Recurrent Neural Networks)(第一部分) 袁宵的个人主页 SoftMax分类器、信息熵与交叉熵原理 损失函数(Loss Function) BP算法 一文搞懂反向传播算法 温故知新——前向传播算法和反向传播算法(BP算法)及其推导 一文彻底搞懂BP算法:原理推导+数据演示+项目实战(上篇) 一文彻底搞懂BP算法:原理推导+数据演示+项目实战(下篇) 优化算法 从 SGD 到 Adam —— 深度学习优化算法概览(一) 一个框架看懂优化算法之异同 SGD/AdaGrad/Adam PyTorch PyTorch入门教程 PyTorch 中文手册(pytorch handbook) 零基础构建神经网络:使用PyTorch从零编写前馈神经网络代码 PyTorch中的nn.Conv1d与nn.Conv2d Pytorch常用的交叉熵损失函数CrossEntropyLoss()详解 torch.nn.Linear() 理解 GPU 效率 深度学习PyTorch,TensorFlow中GPU利用率较低,CPU利用率很低,且模型训练速度很慢的问题总结与分析 词向量 nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert Transformers The Illustrated Transformer Natural Language Processing: the age of Transformers Understanding text with BERT The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning) A Visual Guide to Using BERT for the First Time Attention Model(注意力模型) nlp中的Attention注意力机制+Transformer详解 图解Transformer(完整版) 【经典精读】Transformer模型深度解读 基于注意力机制,机器之心带你理解与训练神经机器翻译系统 [NLP]Attention Model(注意力模型)学习总结-讲的非常好 NLP中的注意力模型 Attention model(学习心得) PyTorch-Transformers:最先进的自然语言处理库(附带python代码) Transformers 简介(上) Transformers 简介(下)