NLPScott/bert-Chinese-classification-task

BERT怎么做QA 类型那种任务的

chenbaicheng opened this issue · 1 comments

查了很久都没有发现怎么做QA的例子呢 谢谢

建议用lstm的encoder-decoder就可以实现,加上attention,如果对生成的句子要求质量高的话,外加self-attention,self-attention可以参考tranformer架构里面的相应代码,效果基本达到预期,最重要的是训练语料的清洗,以上为个人实践经验,希望对你有用