普通问答模式的prompt应该怎么包装
lwinhong opened this issue · 4 comments
您好,当前开源的模型为Base模型,没有进行对话的能力,但是如果您想要进行服务化的部署进行QA,可以尝试用prompt引导模型让其认为自己在续写一份markdown,用您提到的问题进行举例:
Q:# 以下是利用C#生成的一个快速排序算法
虽然这样的形式并非常见的QA模式,但是这样包装可以让模型输出比直接提问效果更好的答案。
您提到的第二个问题,是表示文字部分结束的特殊符号,模型生成这个符号后会停止当次预测。
您好,当前开源的模型为Base模型,没有进行对话的能力,但是如果您想要进行服务化的部署进行QA,可以尝试用prompt引导模型让其认为自己在续写一份markdown,用您提到的问题进行举例: Q:# 以下是利用C#生成的一个快速排序算法 虽然这样的形式并非常见的QA模式,但是这样包装可以让模型输出比直接提问效果更好的答案。
您提到的第二个问题,是表示文字部分结束的特殊符号,模型生成这个符号后会停止当次预测。
1.不需要任何包装,直接这样提问吗 Q:# 以下是利用C#生成的一个快速排序算法
2.那个停止符自己写代码去除了
····当前开源的模型为Base模型,没有进行对话的能力···· , 有chat能力的模型后面会开源有吗
1.不需要任何包装,直接这样提问吗 Q:# 以下是利用C#生成的一个快速排序算法
您上面的这个提问方式是可以的,也是比较推荐的。
2.有chat能力的模型后面会开源有吗?
会有的,我们正在积极推进这些事,等到本地的测试和调整结束后就会和大家见面。
1.不需要任何包装,直接这样提问吗 Q:# 以下是利用C#生成的一个快速排序算法 您上面的这个提问方式是可以的,也是比较推荐的。
2.有chat能力的模型后面会开源有吗? 会有的,我们正在积极推进这些事,等到本地的测试和调整结束后就会和大家见面。
谢谢