程序 | 版本 |
---|---|
python | 3.68 |
tensorflow | 1.13.1 |
Keras | 2.2.4 |
windows10 | |
jupyter |
- LSTM
- seq2seq
- attention 实验表明加入attention机制后训练速度快,收敛快,效果更好。
青云语料库10万组对话,在google colaboratory训练。
- 数据预处理
get_data
- 模型训练
chatbot_train
(此为挂载到google colab版本,本地跑对路径等需略加修改) - 模型预测
chatbot_inference_Attention
- 运行
chatbot_inference_Attention
- 加载
models/W--184-0.5949-.h5
- 训练文件chat_bot中,最后三块代码前两个是挂载谷歌云盘用的,最后一个是获取那些loss方便画图,不知道为什么回调函数里的tensorbord不好使,故出此下策;
- 预测文件里倒数第二块代码只有文字输入没界面,最后一块代码是界面,根据需求两块跑其一即刻;
- 代码中有很多中间输出,希望对你理解代码提供了些许帮助;
- models里面有一个我训练好的模型,正常运行应该是没有问题的,你也可以自己训练
- 本人能力有限,并未找到量化对话效果的指标,因此loss只能大致反映训练进度。
- 未完待续。