华盛顿

注册

 

发新话题 回复该主题

ACL2018华盛顿大学学习使用协同判别 [复制链接]

1#

这是读芯术解读的第篇论文

ACLLongPapers

学习使用协同判别器进行写作

LearningtoWritewithCooperativeDiscriminators

华盛顿大学

UniversityofWashington

本文是华盛顿大学发表于ACL的工作,本文提出了一个统一的学习框架,通过采用一个判别器组合来解决RNN生成长格式文本时重复、自相矛盾的问题,该组合可以指导一个基本的RNN生成器得出更加全局、一致化的生成结果。人类评价表明,我们模型生成的文本比基线模型更好,大大提高了文本生成的整体连贯性、风格性和信息量。

引言

基于递归神经网络(RNN)的语言模型在许多语言任务中都取得了长足的进步。然而,当用于长格式文本生成时,RNN常常会导致退化文本,这种退化文本是重复、自相矛盾的,并且过于通用的,如下图所示。

我们提出了一个统一的学习框架,通过组成一个判别器组,每个判别器专门研究不同的交流原则,可以应对长文本生成的几个挑战。从RNN语言模型开始,我们的框架学习通过训练多个能够共同解决基本RNN生成器局限性的判别模型,来构造更强大的生成器,然后学习如何对这些判别器进行加权以形成最终的解码目标。这些“协同”的判别器与基本语言模型相辅相成,形成一个更强、更全局的解码目标。

我们的判别器的设计灵感来自Grice关于数量、质量、关系和方式的Grice格言。判别器通过选择训练数据来学习编码这些质量,该模型包括部分模型的生成结果。系统然后学习平衡这些判别器,首先将它们均匀地加权,然后通过比较系统给它自己生成的延续和参考延续的分数来不断更新它的权重。

实验结果表明我们的学习框架在将一般的RNN语言模型转换为更强大的生成模型方面是高效的。人类评价证实,由我们的模型生成的语言在两个不同的领域都显示出较优的结果,并且显著地提高了生成文本的整体连贯性、风格和信息内容。自动评估表明,与基线相比,我们的系统既不那么重复,也更加多样化。

模型

我们提出了一个通用的学习框架,用于给定固定上下文x生成条件语言y。

其中每一个sk是一个打分公式。提出的目标将RNN语言模型概率Plm和由经过判别训练的通信模型产生的一组附加得分sk(x,y)相结合,该通信模型用学习混合系数λk加权。当分数sk是日志概率时,这相当于专家产品(PoE)模型。

使用波束搜索进行生成,在每个时间步骤i对不完整的候选生成y1:i进行评分。然而,为了允许在远程上下文中有更高的表达能力,我们不需要区分模型分数来对y的元素进行刻画,这解决了RNN的一个关键限制。更具体地说,我们使用一个估计得分

,它可以针对y=y1:n的任何前缀来计算,以便在波束搜索期间对目标进行近似匹配,例如,

。为了确保训练方法尽可能地匹配这个近似值,训练计分器以区分相同长度(从预先挖掘的前缀长度集合中选择)的预固定,而不是完整的延续。在每个时间步长重新估计前缀得分,而不是通过波束搜索累积。

基本语言模型:RNN语言模型将上下文x和延续y视为单个序列s:

协作通信模型:我们引入一组判别器,每个判别器可以编码RNN通常无法捕获的正确写作的一个方面。每个模型都经过训练以区分好和坏的生成;我们改变模型参数和训练示例,以指导每个模型

分享 转发
TOP
发新话题 回复该主题