-
CNN 使用CNN(卷积神经网络)对文本进行分类;
-
Bi-LSTM 使用bi-lstm(双向长短时记忆神经网络)对文本进行分类,获得文本时间序列,取最后位置的时间步作为分类向量;
-
HAN 该模块使用GRU对句子和篇章进行编码,然后使用Attention(注意力)机制融合两者的向量,对文本进行分类。
-
BERT 使用预训练模型BERT,在下游的分类任务进行微调。
- 使用bi-lstm对句子和文档进行建模,获得句子和文档向量,在最后的分类层进行融合。
- 图卷积网络的一种实现。
- 使用seq2seq完成文章标题自动生成任务。
- 针对文本相似度任务进行建模。