训练方法
-
Online Learning: Theory, Algorithms, and Applications 一篇关于在线学习的综述文章,比较全面的介绍了在线学习相关算法。
-
Generalized Out-of-Distribution Detection: A Survey 关于ood的综述文章,很全面的总结了各种特征和语意异常的论文。
模型融合
通用结构
-
对Attention�结构和应用进行了比较系统的介绍。
-
Wide & Deep Learning for Recommender Systems
Google早期的论文,提出了wide & deep模型,结合线性和深度模型的优势,早期使用很普遍的深度学习CTR模型
-
TabNet: Attentive Interpretable Tabular Learning
Google的论文,借鉴了GBDT的思路,通过深度神经网络获得了和XGBoost相当的分类精度,在高维稀疏特征上的表现要远超XGBoost,可用于回归和分类问题。
IR & Ranking
-
Learning Deep Structured Semantic Models for Web Search using Clickthrough Data
微软的深度学习相似模型。论文中采用的网络结构比较简单,实现成本比较低。word hashing方法有一定新意,比较适合文本类相似问题。
-
Practical Lessons from Prediction Clicks on Ads at Facebook
Facebook关于GBDT+LR算法论文。
DL
-
Reducing the Dimensionality of Data with Neural Networks
介绍了自动编码器,使用限制性玻尔兹曼机逐层优化参数,第一次将神经网络做深,揭开了深度学习的序幕。
-
The Neural Autoregressive Distribution Estimator
借鉴了RBM**的数据分布估计模型,降低了计算复杂度,应用范围和RBM一样,可以作为其他深度网络的组件模型。
Recommendation
-
Deep Learning based Recommender System: A Survey and New Perspectives
深度学习在推荐中应用的综述论文,介绍了大部分推荐领域中深度学习的前沿成果。
-
腾讯发表的论文,提出了component level和item level的两层关注模型,并且能够利用用户的context信息进行协同过滤的深度网络。
-
A Contextual-Bandit Approach to Personalized News Article Recommendation
A contextual bandit algorithm. 解决了 Exploitation & Exploration 问题,同时做了用户和产品特征的交叉。
-
DRN: A Deep Reinforcement Learning Framework for News Recommendation
深度强化学习和推荐系统的一个结合,提供了一个利用强化学习来做推荐的完整思路和方法。
-
Real-time Attention Based Look-alike Model for Recommender System 腾讯用于资讯推荐的深度学习look alike算法
-
Adversarial Personalized Ranking for Recommendation 在个性化推荐的ranking过程中应用样本对抗
-
Deep Matrix Factorization Models for Recommender Systems 深度矩阵分解模型,通过深度学习的方法进行U-I稀疏矩阵分解
广告算法
-
Audience Expansion for Online Social Network Advertising
广告中的Look alike算法
NLP
-
Google提出的基于attention的NMT模型,提出了multi-head attention方法。这篇论文也是现下比较流行的transformer方法的鼻祖。
-
Convolutional Sequence to Sequence Learning
Facebook提出的基于CNN的NMT。
-
Learning to Rank Short Text Pairs with Convolutional Deep Neural Networks
-
QANET: COMBINING LOCAL CONVOLUTION WITH GLOBAL SELF-ATTENTION FOR READING COMPREHENSION
Google和CMU联合提出的阅读理解算法,使用CNN和self attention。训练速度超快并且效果很好。
-
Character-level Convolutional Networks for Text
LeCun团队的字符级别卷积网络
-
Very Deep Convolutional Networks for Text Classification
LeCun团队的另外一篇文本分类论文,采用了29层网络,分类效果有一定提升。
-
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Google刷新SQUAD排行榜的论文,基于transformer对词进行预测,在很多NLP任务中都取得了突破性的效果。
-
AntNet: Deep Answer Understanding Network forNatural Reverse QA
逆向QA算法,机器人提问,人类回答,机器人尝试对答案进行理解,并抽取人类意图,适合用在电商导购场景。
图像
-
The One Hundred Layers Tiramisu- Fully Convolutional DenseNets for Semantic Segmentation
介绍了FC DenseNet,一种可用于图像语义分割的网络。
-
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
MobileNet,一种网络参数较少,适合在移动端或者嵌入式设备上推理的深度卷积网络
-
SSD: Single Shot MultiBox Detector
SSD目标检测算法。
-
You Only Look Once: Unified, Real-Time Object Detection
YOLO第一版的论文,提出了一种快速目标检测方法
-
YOLO9000: Better, Faster, Stronger
YOLO V2的论文,在第一版基础上,借鉴Fast-RCNN和SSD进行了优化
-
SIMPLE ONLINE AND REALTIME TRACKING.pdf 目标追踪算法SORT
-
CurricularFace: Adaptive Curriculum Learning Loss for Deep Face Recognition 腾讯提出的人脸识别算法Loss,对难的分类样本进行了提权
-
ArcFace: Additive Angular Margin Loss for Deep Face Recognition State of art的人脸检测模型,主要改进在Loss部分
-
AirFace:Lightweight and Efficient Model for Face Recognition 中科大的Li-Arcface,据称对小的backbone模型能够解决训练过程难以收敛的问题
-
Multiscale Vision Transformers
Facebook 2021年论文,通过Transformer运用在图像上,提升识别准确率。
-
SlowFast Networks for Video Recognition
Facebook的开源项目SlowFast的论文,做视频动作识别效果惊艳
-
MicroNet: Towards Image Recognition with Extremely Low FLOPs
微软提的一个比MobileNet更轻量的网络,加入分组卷积减少计算量
-
Mobile-Former: Bridging MobileNet and Transformer
微软另一篇论文,对MobileNet和Transformer进行了桥接,可能能用在多模态算法上
图算法
-
The Neo4j Graph Algorithms User Guide v3.5
Neo4j的图算法介绍文档,比较基础,适合入门。
-
DeepWalk: Online Learning of Social Representations
DeepWalk,在random walk基础上通过word2ec对图节点进行embedding的方法,图嵌入的walk方向的鼻祖
-
Don’t Walk, Skip! Online Learning of Multi-scale Network Embeddings
在DeepWalk的基础上,采用skip的方式对不同距离的邻居进行采样,生成节点的多距离embedding,然后将其进行stacking。本论文介绍的方法比较适合社交网络节点的分类问题。
-
SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
GCN,通过CNN进行节点的表示学习,GCN比较大的优势是能对节点的属性进行传播,除了结构信息外还能融合节点的属性
-
FASTGCN: FAST LEARNING WITH GRAPH CONVOLUTIONAL NETWORKS VIA IMPORTANCE SAMPLING
FASTGCN,基于GCN的半监督图节点分类模型,训练速度比GCN更快
迁移学习
-
Boosting for Transfer Learning
简单易行的迁移学习,通过调整样本权重让目标域相似的样本权重不断增大来完成迁移,容易实现,但需要少量目标域样本;
-
Learning Transferable Features with Deep Adaptation Networks
不需要目标域样本,定义源域和目标域的距离,加入网络的损失中,将源域适配到目标域中;
-
Unsupervised Domain Adaptation by Backpropagation
不需要目标域样本,通过负反馈不断模糊目标域与源域,从而达到迁移;
-
Transfer Learning via Learning to Transfer
一种新的迁移学习框架,利用以前迁移学习经验,自动确定什么迁移是最好的、如何迁移;
多轮对话
-
Conversing by Reading: Contentful Neural Conversation with On-demand Machine Reading
在生成对话同时,加入阅读理解部分。
-
AliMe KBQA: Question Answering over Structured Knowledge for E-commerce Customer Service
阿里小蜜算法,基于知识图谱回答问题。
GCN
-
SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
原始的GCN算法
风控
-
Gradient Boosting Survival Tree with Applications in Credit Scoring
360金融发表的文章,借助生存分析的方法进行了预测目标函数的优化,用于预测用户在第几期还款时会逾期,效果对比简单的逾期预测有明显提升,并且能够对风险进行量化
-
通过比较样本生命期作为loss训练的深度神经网络,用于风控的rank order效果明显
时序数据
-
Facebook的时序数据预测库,支持节假日,事件时点的标注,周、月内周期性趋势可视化等
-
RobustPeriod: Time-Frequency Mining for Robust Multiple Periodicities Detection 阿里巴巴的时序数据挖掘算法
强化学习
-
Hierarchical Deep Reinforcement Learning: Integrating Temporal Abstraction and Intrinsic Motivation
-
阿里总结的各种强化学习的应用场景及其算法,干货比较多。
-
Reinforcement Learning to Optimize Long-term User Engagement in Recommender Systems
京东的个性化推荐中应用的强化学习模型
-
Human-level control through deep reinforcement learning
DQN的论文,提出了经验回放(experience replay)和随机采样的方法,在Atari游戏中取得了超越人类的表现
-
Deep Reinforcement Learning with Double Q-learning
Double DQN的论文。
-
Dueling Network Architectures for Deep Reinforcement Learning
Dueling DQN,分别预估值函数(Value Function)和优势函数(Advantage Function),从而对短期优势更快学习收敛
Active Learning
-
Deep Bayesian active learning with image data
评估了几种基于贝叶斯方法的uncertainty度量在深度神经网络下的效果,结合了dropout的应用,开源代码:https://github.com/Riashat/Active-Learning-Bayesian-Convolutional-Neural-Networks/tree/master/ConvNets/FINAL_Averaged_Experiments/Final_Experiments_Run
-
Semi-Supervised Bayesian Active Learning for Text Classification
半监督学习的文本分类算法,用VAE作为无监督部分,最大熵和BALD(预测结果和模型后验的KL距离)作为uncertainty的度量,用TextCNN作为分类模型
-
对比了几种不同模型在BALD下的NLP性能,源码: https://github.com/asiddhant/Active-NLP
联邦学习
语音识别
-
Multi-Task Learning for Text-dependent Speaker Verification
j-vector,基于多任务学习,通过DNN网络进行speaker的判定和短语内容的判定,然后提取最后一个hidden layer的输出作为语音的embedding