炼数成金 商业智能自然语言处理
订阅

自然语言处理

元学习与自然语言处理
元学习与自然语言处理
元学习 (meta learning),又被称作“学会学习” (learning to learn),是近期深度学习研究界的一大关注热点,旨在帮助新任务在缺乏训练样本的情况下快速学习 (rapid learning)、快速适应 (fast adaption)。前,随着 ...
自然语言理解(NLU)难在哪儿?
自然语言理解(NLU)难在哪儿?
导读:在微博和知乎上关注自然语言处理(NLP)技术的朋友,应该都对#NLP太难了#、#自然语言理解太难了#两个话题标签不陌生,其下汇集了各种不仅难煞计算机、甚至让人也发懵的费解句子或歧义引起的笑话。然而,这些例 ...
如何在NLP中有效利用Deep Transformer?
如何在NLP中有效利用Deep Transformer?
使用神经网络的方法解决自然语言处理的相关任务时,制约模型性能因素主要包括模型的表现力和用于进行模型训练的数据。然而在大数据时代背景下,对于很多自然语言处理的任务,我们已经能够获取到大量的高质量数据,结 ...
初学者如何学习NLP?这里有一些最棒的项目推荐
初学者如何学习NLP?这里有一些最棒的项目推荐
RoBERTa 是 Facebook 开发的一个 NLP 模型。它建立在谷歌著名的 BERT 的基础上,因此在 RoBERTa 中使用了奇怪的大写字母,并通过实现稍微不同的训练方法改进了 BERT 的性能。预先训练好的 RoBERTa 通过 PyTorch Hub ...
一文看尽2019年NLP前沿突破
一文看尽2019年NLP前沿突破
2019年,自然语言处理(NLP)都取得了哪些突破?提到NLP,BERT可以说是家喻户晓。在情感分析、问答、句子相似度等多个 NLP 任务上都取得了优异的成绩。而且,无论是在类似于Kaggle这样的竞赛,或者媒体报道中,也总能 ...
华为联合中科大提出知识图谱结合预训练模型新方法,节省20%计算成本
华为联合中科大提出知识图谱结合预训练模型新方法,节省20%计算成本
预训练的语言模型通过一种自我监督的学习方法在大规模文本语料库中学习上下文的单词表征,借助这种方法对下游任务进行微调,就可以获得最佳(SOTA)性能。这一方法逐渐成为自然语言处理研究的新范式。近年来,知识信 ...
复旦大学:利用场景图针对图像序列进行故事生成
复旦大学:利用场景图针对图像序列进行故事生成
对于大多数人,观察一组图像然后写一个语义通顺的故事是很简单的事情。尽管近年来深度神经网络的研究取得了令人鼓舞的成果,但对于机器来说,这仍然是一件困难的事情。近年来,视觉叙事(visual storytelling)越来越 ...
AI基础:一文看懂BERT
AI基础:一文看懂BERT
2018年可谓是自然语言处理(NLP)的元年,在我们如何以最能捕捉潜在语义关系的方式 来辅助计算机对的句子概念性的理解 这方面取得了极大的发展进步。此外, NLP领域的一些开源社区已经发布了很多强大的组件,我们可 ...
NLP 迎来了黄金时代
NLP 迎来了黄金时代
NLP(自然语言处理,Natural Language Processing) 是利用计算机对人类的语言文字进行处理。由于语言文字是人类交流沟通的最基本方式,因此 NLP 也是最典型的 AI 领域之一,被誉为“人工智能皇冠上的明珠”。几百年来 ...
帮BERT瘦身!我们替你总结了BERT模型压缩的所有方法
帮BERT瘦身!我们替你总结了BERT模型压缩的所有方法
2018年10月,Google AI团队推出了Bert,可以说Bert一出生就自带光环。在斯坦福大学机器阅读理解水平测试SQuAD1.1中,Bert在全部两个衡量指标上,全面超越人类表现。并且在另外11种不同NLP测试中均创造了历史以来最好 ...
命名实体识别新SOTA:改进Transformer模型
命名实体识别新SOTA:改进Transformer模型
命名实体识别, 简称NER,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等,以及时间、数量、货币、比例数值等文字,通常被看做是序列标注任务,现有主流的方法是使用神经网络来做,包括 ...
用腻了 CRF,试试 LAN 吧?
用腻了 CRF,试试 LAN 吧?
统计自然语言处理中,条件随机场(Conditional Random Field)在词性标注,命名实体识别,中文分词等序列标注任务上都取得了惊人的效果。然而在深度学习时代,很多情况下 BiLSTM-CRF 并没有比不对输出序列进行建模的 ...
参数量110亿,附赠750GB数据集,Google提NLP预训练模型T5
参数量110亿,附赠750GB数据集,Google提NLP预训练模型T5
T5 库里主要是用于用文本到文本的 Transformer 来重现探索迁移学习极限实验的代码。此存储库中的大部分代码用于加载、预处理、混合和评估数据集。它还提供了一种方法来微调发布的预训练模型。T5 提供了有用的模块来 ...
NLP工程师都在看的:从入门到精通谷歌BERT技术
NLP工程师都在看的:从入门到精通谷歌BERT技术
为了确保大家可以循序渐进地理解BERT是怎样一项技术,它又是如何在命名实体识别(Named Entity Recognition,NER)任务中被应用的(它可以应用在很多NLP任务中,这里只是以实体识别为背景举例),我们需要先了解一些 ...
从语言模型到Seq2Seq:Transformer如戏,全靠Mask
从语言模型到Seq2Seq:Transformer如戏,全靠Mask
自 Attention is All You Need 以后,基于纯 Attention 的 Transformer 类模型逐渐变得流行起来,而 BERT 的出现则将这股潮流推向了一个新的高度。而后,各种基于大规模预训练的 Transformer 模型的工作不断出现,有 ...

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

即将开课

社区热帖

     

    GMT+8, 2020-2-23 05:30 , Processed in 0.082532 second(s), 16 queries .