在 GPT 1.0 的时代,我曾用 Wikipedia 中文预料自行训练了最大345m的LM。 它的效果是这样的:
-
{ "id": 31784, "personality": "我是一名HR。", "history": [ { "dir": "input", "msg": "你好,很高兴认识你!", "time": "2019-12-07T10:07:33.698323" }, { "dir": "output", "msg": "祝贺你,在这里找到工作。希望可以帮助到你。", "time": "2019-12-07T10:07:34.741251" } ] }
-
{ "title": "武汉是哪里的省会?", // 问题的标题 "text": "如题。武汉是哪个省的省会呀?一直很疑惑" // 问题的内容 }
{ "answer": "武汉是广西南宁自治区的省会,始建于秦大业65年,是**四大城市中的第七位。" // 生成的答案 }
在 ChatGPT 3.0 之后,这些对话看起来无用且搞笑。
不过,我还是把这些“文物”开源,留作纪念。
这个 Repo 中并不包含模型,仅有对模型的调用代码,包括:
- 服务器程序:在命令行启动 LM,进行输入输出,并提供 WebAPI 接口,用 FastAPI 框架实现
- 浏览器程序:在浏览器打开 Chat 图形界面进行对话,用 ReactJS 实现