/seq2seq_learner

使用一个例子对seq2seq的所有模型进行编写,从encoder到decoder, +attention,+transformer,+bert,对各种模型使用tensorflow实现,并进行效果比对。

Primary LanguagePython

seq2seq_learner

使用一个例子对seq2seq的所有模型进行编写,从encoder到decoder, +attention,+transformer,+bert,对各种模型使用tensorflow实现,并进行效果比对。

任务描述

网络小说是一种流行的文学体裁,但是目前网络小说作者的文化素质偏低,但是有些作者仍然希望让自己看起来好像很有文化的样子,其中典型的表现有给每一章的小说的标题都是7个字。最近看一部小说,每一章的标题看的尴尬癌都犯了,还不如没有标题。因此为了救治自己的尴尬癌,使用seq2seq的方法根据小说每章的内容生成标题,希望不会很尴尬。

数据描述

训练数据主要是从目前网络小说中筛选出排名较高的1000篇小说,将每一章的内容作为输入,将每一章的标题作为输出。