论文参考文献

首页 » 常识 » 预防 » 一周论文文本摘要机器之心Pro
TUhjnbcbe - 2025/6/30 17:22:00
北京哪治疗白癜风好 http://pf.39.net/bdfyy/bjzkbdfyy/

-11-05机器之心

文本摘要是自然语言处理的一大经典任务,研究的历史比较长。随着目前互联网生产出的文本数据越来越多,文本信息过载问题越来越严重,对各类文本进行一个“降维”处理显得非常必要,文本摘要便是其中一个重要的手段。传统的文本摘要方法,不管是句子级别、单文档还是多文档摘要,都严重依赖特征工程,随着深度学习的流行尤其是seq2seq+attention模型在机器翻译领域中的突破,文本摘要任务也迎来了一种全新的思路。本期PaperWeekly将会分享4篇在这方面做得非常出色的paper:

1、ANeuralAttentionModelforAbstractiveSentenceSummarization,、AbstractiveTextSummarizationusingSequence-to-sequenceRNNsandBeyond,3、NeuralSummarizationbyExtractingSentencesandWords,4、AttSum:JointLearningofFocusingandSummarizationwithNeuralAttention,

1、ANeuralAttentionModelforAbstractiveSentenceSummarization

作者

Rush,A.M.,Chopra,S.,Weston,J.

单位

FacebookAIResearch/HarvardSEAS

关键词

NeuralAttention,AbstractiveSentenceSummarization

文章来源

EMNLP

问题

这篇来自Facebook的paper的主题是基于attentionbasedNN的生成式句子摘要/压缩。

模型

该工作使用提出了一种encoder-decoder框架下的句子摘要模型。

作者在文章中介绍了三种不同的encoding方法,分别为:

Bag-of-WordsEncoder。词袋模型即将输入句子中词的词向量进行平均。CNNencoderAttention-BasedEncoder。该encoder使用CNN对已生成的最近c(c为窗口大小)个词进行编码,再用编码出来的context向量对输入句子做attention,从而实现对输入的加权平均。

模型中的decoder为修改过的NNLM,具体地:

式中y_c为已生成的词中大小为c的窗口,与encoder中的Attention-BasedEncoder同义。

与目前主流的基于seq2seq的模型不同,该模型中encoder并未采用流行的RNN。

数据

该文章使用了EnglishGigaword作为语料,选择新闻中的首句作为输入,新闻标题作为输出,以此构建平行语料。具体的数据构建方法参见文章。此外,该文章还使用了DUC作为测试集。

简评

在调研范围内,该文章是使用attention机制进行摘要的第一篇。且作者提出了利用Gigaword构建大量平行句对的方法,使得利用神经网络训练成为可能,之后多篇工作都使用了该方法构建训练数据。

2、AbstractiveTextSummarizationusingSequence-to-sequenceRNNsandBeyond

作者

Nallapati,Ramesh,etal.

单位

IBMWatson

关键词

seq2seq,Summarization

文章来源

InCoNLL

问题

该工作主要研究了基于seq2seq模型的生成式文本摘要。该文章不仅包括了句子压缩方面的工作,还给出了一个新的文档到多句子的数据集。

模型

该文章使用了常用的seq2seq作为基本模型,并在其基础上添加了很多feature:

LargeVocabularyTrick。参见SébastienJean,KyunghyunCho,RolandMemisevic,andYoshuaBengio..Onusingverylargetargetvocabularyforneuralmachinetranslation.CoRR,abs/..添加feature。例如POStag,TF、IDF,NERtag等。这些feature会被embed之后与输入句子的词向量拼接起来作为encoder的输入。pointing/copy机制。使用一个gate来判断是否要从输入句子中拷贝词或者使用decoder生成词。参见ACL的两篇相关paper。HierarchicalAttention。这是用于文章摘要中多句子的attention,思路借鉴了JiweiLi的一篇autoencoder的工作。大致思路为使用句子级别的weight对句子中的词进行re-scale。

数据

EnglishGigawordDUC提出了CNN/DailyMailCorpus

简评

该工作为在第一篇文章基础上的改进工作,做了大量的实验,非常扎实。文章提出的feature-richencoder对其他工作也有参考意义,即将传统方法中的特征显式地作为神经网络的输入,提高了效果。

3、NeuralSummarizationbyExtractingSentencesandWords

作者

Cheng,Jianpeng,andMirellaLapata.

单位

UniversityofEdinburgh

关键词

ExtractiveSummarization,NeuralAttention

文章来源

ACL

问题

使用神经网络进行抽取式摘要,分别为句子抽取和单词抽取。

模型

句子抽取

由于该工作为文档的摘要,故其使用了两层encoder,分别为:

词级别的encoder,基于CNN。即对句子做卷积再做maxpooling从而获得句子的表示。句子级别的encoder,基于RNN。将句子的表示作为输入,即获得文档的表示。

由于是抽取式摘要,其使用了一个RNNdecoder,但其作用并非生成,而是用作sequencelabeling,对输入的句子判断是否进行抽取,类似于pointernetwork。

词的抽取

对于词的抽取,该模型同样适用了hierarchicalattention。与句子抽取不同,词的抽取更类似于生成,只是将输入文档的单词作为decoder的词表。

数据

从DailyMailnews中根据其highlight构建抽取式摘要数据集。

简评

该工作的特别之处在于对attention机制的使用。该paper之前的许多工作中的attention机制都与Bahdanau的工作相同,即用attention对某些向量求weightedsum。而该工作则直接使用attention的分数进行对文档中句子进行选择,实际上与pointernetworks意思相近。

4、AttSum:JointLearningofFocusingandSummarizationwithNeuralAttention

作者

Cao,Ziqiang,etal.

单位

TheHongKongPolytechnicUniversity,PekingUniversity,MicrosoftResearch

关键词

Query-focusedSummarization

文章来源

COLING

问题

Query-focused多文档抽取式摘要

模型

由于该任务为针对某个query抽取出可以回答该query的摘要,模型使用了attention机制对句子进行加权,加权的依据为文档句子对query的相关性(基于attention),从而对句子ranking,进而抽取出摘要。具体地:

使用CNN对句子进行encoding利用query,对句子表示进行weightedsumpooling。使用cosinesimilarity对句子排序。

数据

DUC2005query-focusedsummarizationbenchmarkdatasets

简评

该文章的亮点之处在于使用attention机制对文档中句子进行weighted-sumpooling,以此完成query-focused的句子表示和ranking。

总结

本次主要介绍了四篇文本摘要的工作,前两篇为生成式(abstractive)摘要,后两篇为抽取式(extractive)摘要。对于生成式摘要,目前主要是基于encoder-decoder模式的生成,但这种方法受限于语料的获得,而Rush等提出了利用EnglishGigaword(即新闻数据)构建平行句对语料库的方法。IBM在Facebook工作启发下,直接使用了seq2seqwithattention模型进行摘要的生成,获得了更好的效果。对于抽取式摘要,神经网络模型的作用多用来学习句子表示进而用于后续的句子ranking。

1
查看完整版本: 一周论文文本摘要机器之心Pro