查看原文
其他

(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(一)

ShuYini AINLPer 2023-07-10

喜欢我们,点击上方AINLPer,关注一下,极品干货即刻送达!


3月2日全面复工日子,我也该复工了,哈哈~~

引言

    下面是作者整理的关于Question Answering(QA)相关的论文文章,下面这10篇文章都是在顶会ICLR发表的文章,能找到源码的作者也直接贴出来了,如果你对Question Answering(QA)感兴趣或者也在找一些相关的文章,希望能够帮助你~~

    微信下载论文不方便,你可以直接回复:QA001进行打包下载。

    最后,帮作者点个吧,谢谢~~


正文开始



1First Blood

TILE: Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model

Author: Wenhan Xiong, Jingfei Du, William Yang Wang, Veselin Stoyanov

Paper:https://openreview.net/pdf?id=BJlzm64tDH

Code:  None

论文简述:提出了一个简单而有效的弱监督预训练方法,该方法明确地迫使模型包含关于真实世界实体的知识。用我们的新方法训练的模型在实际任务上产生了显著的改进。

TILE: Differentiable Reasoning over a Virtual Knowledge Base

Author: Bhuwan Dhingra, Manzil Zaheer, Vidhisha Balachandran, Graham Neubig, Ruslan Salakhutdinov, William W. Cohen

Paper:https://openreview.net/pdf?id=SJxstlHFPH

Code: http://www.cs.cmu.edu/~bdhingra/pages/drkit.html

论文简述:本文使用一个语料库作为虚拟知识库来回答复杂的多跳转问题。本文主要描述了一个神经模块DrKIT,它像KB一样遍历文本数据,并遵循在语料库中提到的实体之间的关系路径。

TILE: Generative Question Answering: Learning to Answer the Whole Question

Author: Mike Lewis, Angela Fan

Paper:https://openreview.net/pdf?id=Bkx0RjA9tX

Code: None

论文简述: 本文介绍了问题和答案的联合分布的生成模型,这些模型被训练来解释整个问题,而不仅仅是回答它。我们的问题回答(QA)模型是通过学习先验而不是答案来实现的,并且通过条件语言模型生成给定答案的问题——允许在逐字生成问题时进行可伸缩和可解释的多跳推理。

TILE: FlowQA: Grasping Flow in History for Conversational Machine Comprehension

Author: Hsin-Yuan Huang, Eunsol Choi, Wen-tau Yih.

Paper:https://openreview.net/pdf?id=ByftGnR9KX

Code: None

论文简述:会话机器理解需要对会话历史有深刻的理解。为了使传统的单轮模型能够全面地对历史进行编码,本文引入了Flow机制,通过交替的并行处理结构,可以将在回答前面问题的过程中生成的中间表示然后合并到一起。与将之前的问题/答案作为输入串联起来的浅层方法相比,Flow更深入地集成了会话历史的潜在语义。

TILE: Coarse-grain Fine-grain Coattention Network for Multi-evidence Question Answering

Author:Victor Zhong, Caiming Xiong, Nitish Shirish Keskar, Richard Socher

Paper: https://openreview.net/pdf?id=Syl7OsRqY7

Code: None

论文简述: 端到端神经模型在回答问题方面取得了重大进展,但最近的研究表明,这些模型隐含地假设答案和证据在一个文档中紧密地出现。在这项工作中,我们提出了粗粒度细粒度协同注意网络(CFC),这是一种新的问题回答模型,它结合了来自多个文档的证据信息。

TILE: Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent

Author:Zhilin Yang, Saizheng Zhang, Jack Urbanek, Will Feng, Alexander Miller, Arthur Szlam, Douwe Kiela, Jason Weston.

Paper:https://openreview.net/pdf?id=SJ-C6JbRW

Code: None

论文简述: 人类是在环境中交互式地学习语言的。本文提出了一个交互式学习过程,称为Mechanical Turker Descent (MTD),训练代理人执行自然语言命令植根于幻想文本冒险游戏。

TILE: DCN+: Mixed Objective And Deep Residual Coattention for Question Answering.

Author:Caiming Xiong, Victor Zhong, Richard Socher.

Paper:https://openreview.net/pdf?id=H1meywxRW

Code: None

论文简述: 传统的问答模型使用交叉熵损失进行优化,这种方法寻求精确的答案,但代价是惩罚有时同样精确的邻近答案。为此本文提出了一种交叉熵损失与自惩罚策略学习相结合的混合解决方法,利用词重叠产生的激励来解决评价指标与优化目标之间的偏差。

TILE: FusionNet: Fusing via Fully-aware Attention with Application to Machine Comprehension.

Author:Hsin-Yuan Huang, Chenguang Zhu, Yelong Shen, Weizhu Chen.

Paper:https://openreview.net/pdf?id=BJIgi_eCZ

Code: None

论文简述: 本文介绍了一种新的神经结构FusionNet,它从三个方面扩展了现有的自注意力方法。首先,提出了一个新的“词史”概念,将注意力信息从最低的词级嵌入到最高的语义级表征中。其次,它确定了一个自注意力评分函数,该函数更好地利用了“词史”概念。第三,提出了一种全意识的多层次注意力机制,可以在一个文本(如一个问题)中捕获完整的信息,并在其对应的文本(如上下文或文章)中逐层加以利用。

TILE: Ask the Right Questions: Active Question Reformulation with Reinforcement Learning

Author: Christian Buck, Jannis Bulian, Massimiliano Ciaramita, Wojciech Gajewski, Andrea Gesmundo, Neil Houlsby, Wei Wang.

Paper:https://openreview.net/pdf?id=S1CChZ-CZ

Code: None

论文简述: 本文将问答(QA)作为一种强化学习任务,称之为主动问答。这里提出一个介于用户和黑箱QA系统之间的代理,并学会重新组织问题以获得最佳答案。代理通过对最初问题的自然语言重新表达来探测系统,并收集返回的证据来获得最佳答案。

TILE: Query-Reduction Networks for Question Answering.

Author: Minjoon Seo, Sewon Min, Ali Farhadi, Hannaneh Hajishirzi.

Paper: https://arxiv.org/pdf/1606.04582.pdf

Code: None

论文简述:本文介绍了一组可微图转换,并使用它们来构建一个具有图内部状态的模型,该模型可以从文本中提取结构化数据并可以使用它来回答查询。



2往期回顾

学术圈

  收藏!「自然语言处理(NLP)」AINLPer 大 盘 点 !!   收藏!「自然语言处理(NLP)」全球学术界”巨佬“信息大盘点(一)!

论文阅读

「自然语言处理(NLP)」自然语言生成(NLG)论文速递(1)
 「自然语言处理(NLP)」神经机器翻译(NMT)论文整理(一)
  AAAI 2020「自然语言处理(NLP)论文」影响文本简化因素分析?

长按识别下方二维码,关注我们吧(づ ̄3 ̄)❤~

资料整理实属不易,点个【在看】再走吧~~



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存