关于机器阅读理解有关的文章
SQuAD(Stanford Question Answering Dataset.) 这种MRC是和cloze-style rc的数据集是不同的,那种数据集的答案顶多是single word/phrase~
就是MRC利用了external knowledge~之前的工作仅仅使用知识图谱比如ConceptNet作为external knowledge,然后extract triples。
1.之前的方法就是ConceptNet+extract triples来做任务。但是这些方法并不能capture好对应其的structural information@知识图谱~
2.我们就是创建了一个Structural Knowledge Graph-aware Network(SKG) model, 针对MC context创建sub-graphs
MHRC: Multi-hop Reading Comprehension task~
1.MHRC model has to distinguish the relevant facts from the irrelevant ones~
这里就是三个edge 的graph@针对graph,比如same/window/coref~(指代消解)
1.先前的关于文本匹配的工作虽然探索了local pattern,但是并没有利用到word之间的关系~
1.改进coarse-grained data套路的一种方法
1.90%的questions in SQuAD都可以使用1 sentence in a document来回答~
2.In this work, we instead focus on multi-evidence QA,回答问题需要聚合evidence from 多个文档~
在Multi-evidence QA模型中,我们的Coarse-grain Fine-grain Coattention Network@粗粒度的推理以及细粒度的推理
这里的层次注意力的意思就是coattention+self-attention~
Finegrained 就是单纯从每个文档和query都进行交互encoding,然后finegrain module就是对于mention进行self-attention,然后query对这些Mention进行coattn@CFC。