炼数成金 门户 商业智能 自然语言处理 查看内容

BERT大魔王为何在商业环境下碰壁?

2020-6-28 11:58| 发布者: 炼数成金_小数| 查看: 31291| 评论: 0|原作者: Oren Pereg |来自: NewBeeNLP

摘要: 大型基于Transformer的神经网络,例如BERT,GPT和XLNET,最近在许多NLP任务中取得了最新的成果。这些模型的成功基于通用任务(例如语言建模)和特定下游任务之间的迁移学习, 这些模型在有标记数据的静态评估集上表 ...
写在前面
大型基于Transformer的神经网络,例如BERT,GPT和XLNET,最近在许多NLP任务中取得了的成果。这些模型的成功基于通用任务(例如语言建模)和特定下游任务之间的迁移学习, 这些模型在有标记数据的静态评估集上表现出色。但是,在商业环境中部署这些模型通常会产生较差的结果。这是因为商业环境通常是动态的,并且在推理数据和训练数据之间包含连续的领域变化,例如新主题,新词汇或新写作风格等。

处理类似这些动态环境的传统方法是执行连续的重新训练和验证,需要不断地手动数据标记,这不仅费时昂贵且是不切实际的。在数据稀缺的商业环境中实现更好的鲁棒性和适应性的一种有前景的方法是在微调阶段将与领域无关的知识嵌入到预训练的模型中。

预训练模型在低资源环境中表现出色
实际上,许多商业需求都在多种领域上执行相同的任务。例如,考虑对相机(domain A)和笔记本电脑(domain B)两种不同产品的情感分析。在这种情况下,用于不同domain的现有标记数据量通常很小,并且获取额外的标记数据既昂贵又不切实际。

与从头训练模型相比,预训练模型的主要优势是它们通过使用相对少量的标记数据来适应特定任务的能力(如下图)。在实际的multi-domain环境中,此优势起着重要作用。

但是,是什么使得微调预训练模型的增强功能在低数据环境中起作用呢?我想部分原因在于,在大规模的预训练步骤中,网络会学习语法等结构性语言特征。由于语法是通用特性,因此它既与任务无关,又与领域无关。这种通用的“知识”有助于弥合不同任务和领域之间的鸿沟,并且可以通过微调步骤来提高数据效率。

最近的一篇论文“ What Does BERT Look At?[1] ”阐明了BERT在预训练期间学到的东西。通过对BERT的self-attention机制的分析,很明显BERT可以学习大量的语言知识。例如,一些BERT的attention head关注动词的直接宾语,名词的确定词(例如定冠词),甚至是相关的提及(请参见下图)。值得注意的是,以无 监督的方式训练并且没有任何标记数据的模型能够学习语言的通用方面。

预训练模型能解决动态商业环境的挑战吗?
在一些动态的商业环境中,根本不可能生成任何标记数据。让我们来考虑一个经常添加或更改新领域的环境。在这种情况下,不断标记新的训练数据将是无效且永无止境的任务, 这些情况需要无监督的领域自适应(domain adaption)系统,该系统使用来自一个领域(source domain)的现有标记数据进行训练,然后对来自另一个领域(target domain)的未标记数据进行推断。

我们观察到,在只有少量目标域标记数据的情况下(下图),经过预训练的模型表现比较出色,但是对于根本没有来自目标域的标记数据的情况呢?预训练的模型在这些环境中如何表现?迄今为止,使用预训练的模型仅仅比从头开始训练模型有着微小改进(请参见条形图)。使用标记的目标域数据对BERT进行微调(绿色条)与仅对源域数据进行微调BERT或从头训练RNN(蓝色和橙色条)之间存在很大差距,这表明预训练的学习信息预训练期间的模型比从头开始的训练产生了一些增强,但是当无法从目标域中获得标记数据时,这不足以在整个域中进行扩展。或者说得更直白些:仅使用源域数据对预训练模型进行微调仍远远不能解决无监督域自适应问题。

橙色条表示使用源域数据(笔记本电脑评论)从头训练RNN,并使用目标域数据(餐厅评论)进行推理;
蓝色条表示使用源域数据进行的BERT微调;
绿色条表示使用目标域数据对BERT进行微调

缩小差距的一步:嵌入结构性信息
那么,为了缩小域内和完全跨域环境之间的鸿沟,该怎么做?在Yann LeCun和Christopher Manning之间的公开讨论中,『Deep Learning, Structure and Innate Priors』[2],Manning认为,与缺乏结构信息的系统相比,提供结构信息使我们能够设计出可以从更少的数据中以更高的抽象水平学习更多信息的系统。NLP社区广泛支持此观点。

实际上,在这个工作中,Linguistically-Informed Self-Attention for Semantic Role Labeling[3],表明使用结构信息(即句法信息)可以改进泛化模型。这种改进的泛化增强了域内模型的鲁棒性,对于跨域更是如此。例如,在介绍LISA(Linguistically-Informed Self-Attention)模型的最著名著作之一中,作者表明,嵌入句法依存关系解析信息可以显着提高跨域中SRL任务的准确性。作者将语法信息直接嵌入到Transformer网络的关注头中,并从头开始进行训练。

另一项研究,Attending to Entities for Better Text Understanding[4],表明在cloze test中,那些在自注意力中将dependency relations和coreference chains用作嵌入辅助监督的模型优于参数较大的GPT-2模型。

这些的进展使我们在数据稀缺的商业环境中实现更好的鲁棒性和可伸缩性又迈出了一步,但是NLP社区仍然需要解决开放的问题和挑战。应该使用哪种类型的外部信息?如何将这些信息嵌入预训练的模型中?

结论
基于大型Transformer的预训练模型最近在许多NLP任务中均取得了SOTA结果。这些模型经过一般语言建模任务的训练,可以学习该语言的一些基本结构特征,从而使它们在各个领域之间的通用性更好。当给定少量标记的目标域数据时,它们在跨域设置中表现出色。但是,处理动态跨域任务(其中没有标记的目标域数据)的挑战仍然存在。在微调阶段将外部独立于领域的知识(即句法信息)嵌入到预训练的模型中有望获得成功。

本文翻译自KDnugger
https://www.kdnuggets.com/2020/03/bert-fails-commercial-environments.html

声明:文章收集于网络,版权归原作者所有,为传播信息而发,如有侵权,请联系小编删除,谢谢!

欢迎加入本站公开兴趣群
商业智能与数据分析群
兴趣范围包括:各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754

鲜花

握手

雷人

路过

鸡蛋

相关阅读

最新评论

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

 

GMT+8, 2020-10-24 04:51 , Processed in 0.216695 second(s), 24 queries .