查看原文
其他

(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(六)

ShuYini AINLPer 2023-07-10

喜欢我们,点击上方AINLPer,关注一下,极品干货即刻送达!


注意休息,各位晚安~~

引言

    本次整理的论文还是主要偏向于机器阅读理解的问答(MRC-QA),其中主要涉及到双向注意流(BIDAF)网络、Gated Attention模型、AS Reader模型、问答句子识别、双向注意机制和层次表示学习的关系图神经网络、类人问答系统建立等。(四篇含源码)

    

    微信下载论文不方便,你可以直接回复:QA006 进行打包下载。

    最后,资料整理不易,帮作者点个吧,谢谢~~

QA往期文章整理(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(一)
(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(二)(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(三)(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(四)(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(五)

正文开始



1First Blood

1、TILE: Bidirectional Attention Flow for Machine Comprehension Author: Minjoon Seo • Aniruddha Kembhavi • Ali Farhadi • Hannaneh Hajishirzi

Paper: https://arxiv.org/pdf/1611.01603v6.pdf

Code: https://github.com/allenai/bi-att-flow

论文简述:机器理解(Machine comprehension, MC)主要用于回答关于给定上下文段落的查询,它需要对上下文和查询之间的复杂交互进行建模。最近,注意力机制已经成功地扩展到MC。通常,这些方法将注意力集中在上下文的一小部分,并以固定大小的向量、时间上的耦合注意力和/或通常形成单向注意力来进行归纳。本文介绍了双向注意流(BIDAF)网络,这是一个多阶段的分层过程,代表了不同粒度级别的上下文,并使用双向注意流机制来获得一个不需要早期摘要的查询感知上下文表示。

2、TILE: Gated-Attention Readers for Text Comprehension

Author: Bhuwan Dhingra • Hanxiao Liu • Zhilin Yang • William W. Cohen • Ruslan Salakhutdinov

Paper: https://arxiv.org/pdf/1606.01549v3.pdf

Code: https://github.com/bdhingra/ga-reader

论文简述:本文研究了文档的封闭性问答。本文模型Gated Attention (GA)阅读器,集成了一个多跳架构和一个新的注意机制,该机制基于查询嵌入和递归神经网络文档阅读器中间状态之间的乘法交互。这使阅读器能够在文档中构建特定于查询的令牌表示,以便准确地选择答案。

3、TILE: Text Understanding with the Attention Sum Reader Network

Author: Rudolf Kadlec • Martin Schmid • Ondrej Bajgar • Jan Kleindienst

Paper: https://arxiv.org/pdf/1603.01547v2.pdf

Code: https://github.com/rkadlec/asreader

论文简述: 本文提出了一个新的、简单的模型,它使用注意力直接从上下文中选择答案,而不是使用文档中单词的混合表示来计算答案。这使得该模型特别适合回答问题,其中答案是来自文档的一个单词。

4、TILE: Deep Learning for Answer Sentence Selection

Author: Lei Yu • Karl Moritz Hermann • Phil Blunsom • Stephen Pulman

Paper: https://arxiv.org/pdf/1412.1632v1.pdf

Code: https://github.com/brmson/dataset-sts

论文简述: 选择答案句的任务是识别包含给定问题答案的句子。本文提出了一种新的分布式表示方法来解决这一问题,并通过语义编码来学习问题与答案的匹配。这与之前在这项任务上的工作形成对比,后者通常依赖于具有大量手工编制的语法和语义特征以及各种外部资源的分类器。本文的方法不需要任何特征工程,也不涉及专业的语言数据,使得这个模型很容易适用于广泛的领域和语言。

5、TILE: Relational Graph Representation Learning for Open-Domain Question Answering

Author: Salvatore Vivona • Kaveh Hassani

Paper: https://arxiv.org/pdf/1910.08249v1.pdf

Code:  None

论文简述: 本文介绍了一种具有双向注意机制和层次表示学习的关系图神经网络用于开放域问题的求解。本文模型可以通过联合学习和更新查询、知识图和文档表示来学习上下文表示。实验表明,该模型在WebQuestionsSP基准测试中达到了最新的水平。

6、TILE: Natural Language Generation at Scale: A Case Study for Open Domain Question Answering

Author: Aless Cervone • ra • Ch Khatri • ra • Rahul Goel • Behnam Hedayatnia  

Paper: https://www.aclweb.org/anthology/W19-8657.pdf

Code:  None

论文简述: 本文通过一个编码器-解码器框架,并使用真实用户和开放域QA会话代理之间交互的大型数据集来建模NLG。首先,研究了增加时隙类型数量对生成质量的影响,并使用逐渐增大的本体(多达369个时隙类型)对QA数据的不同分区进行了实验。其次,在开放域QA和面向任务的dialog之间进行了多任务学习实验,并在一个流行的NLG数据集上对本文模型进行了基准测试。此外,我们还尝试使用会话上下文作为附加输入来提高响应生成质量。实验证明了在更大本体的开放领域QA中学习统计NLG模型的可行性。

7、TILE: Conversational AI : Open Domain Question Answering and Commonsense Reasoning

Author: Kinjal Basu

Paper: https://arxiv.org/pdf/1909.08258v1.pdf

Code:  None

论文简述: 本文研究重点是建立一个能合理回答问题的类人问答系统。本文方法的显著特点是,它将使用自动的常识推理来真正“理解”对话,允许它像人一样交谈。人类在交谈中常常会做出许多假设。我们用常识推断出没有明确说明的事实。在问答系统中加入常识性知识只会使其更加健壮。


8、TILE: FriendsQA: Open-Domain Question Answering on TV Show Transcripts

Author: Zhengzhe Yang • Jinho D. Choi

Paper: https://www.aclweb.org/anthology/W19-5923.pdf

Code:  None

论文简述: 本文介绍了一个具有挑战性的问题回答数据集FriendsQA,该数据集包含1222个对话和10610个开放域问题,用于解决机器对日常会话的理解。每个对话都有多个说话者参与,每个对话都用关于对话上下文的几种类型的问题进行注释,并且答案在对话中以一定的跨度进行注释。为了保证良好的注释质量,进行了一系列众包任务,使得注释器间的一致性达到了81.82%。


2往期回顾

学术圈

  收藏!「自然语言处理(NLP)」AINLPer 大 盘 点 !!   收藏!「自然语言处理(NLP)」全球学术界”巨佬“信息大盘点(一)!

长按识别下方二维码,关注我们吧(づ ̄3 ̄)❤~

资料整理实属不易,点个【在看】再走吧~~



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存