炼数成金 商业智能自然语言处理
订阅

自然语言处理

复旦大学:利用场景图针对图像序列进行故事生成
复旦大学:利用场景图针对图像序列进行故事生成
对于大多数人,观察一组图像然后写一个语义通顺的故事是很简单的事情。尽管近年来深度神经网络的研究取得了令人鼓舞的成果,但对于机器来说,这仍然是一件困难的事情。近年来,视觉叙事(visual storytelling)越来越 ...
AI基础:一文看懂BERT
AI基础:一文看懂BERT
2018年可谓是自然语言处理(NLP)的元年,在我们如何以最能捕捉潜在语义关系的方式 来辅助计算机对的句子概念性的理解 这方面取得了极大的发展进步。此外, NLP领域的一些开源社区已经发布了很多强大的组件,我们可 ...
NLP 迎来了黄金时代
NLP 迎来了黄金时代
NLP(自然语言处理,Natural Language Processing) 是利用计算机对人类的语言文字进行处理。由于语言文字是人类交流沟通的最基本方式,因此 NLP 也是最典型的 AI 领域之一,被誉为“人工智能皇冠上的明珠”。几百年来 ...
帮BERT瘦身!我们替你总结了BERT模型压缩的所有方法
帮BERT瘦身!我们替你总结了BERT模型压缩的所有方法
2018年10月,Google AI团队推出了Bert,可以说Bert一出生就自带光环。在斯坦福大学机器阅读理解水平测试SQuAD1.1中,Bert在全部两个衡量指标上,全面超越人类表现。并且在另外11种不同NLP测试中均创造了历史以来最好 ...
命名实体识别新SOTA:改进Transformer模型
命名实体识别新SOTA:改进Transformer模型
命名实体识别, 简称NER,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等,以及时间、数量、货币、比例数值等文字,通常被看做是序列标注任务,现有主流的方法是使用神经网络来做,包括 ...
用腻了 CRF,试试 LAN 吧?
用腻了 CRF,试试 LAN 吧?
统计自然语言处理中,条件随机场(Conditional Random Field)在词性标注,命名实体识别,中文分词等序列标注任务上都取得了惊人的效果。然而在深度学习时代,很多情况下 BiLSTM-CRF 并没有比不对输出序列进行建模的 ...
参数量110亿,附赠750GB数据集,Google提NLP预训练模型T5
参数量110亿,附赠750GB数据集,Google提NLP预训练模型T5
T5 库里主要是用于用文本到文本的 Transformer 来重现探索迁移学习极限实验的代码。此存储库中的大部分代码用于加载、预处理、混合和评估数据集。它还提供了一种方法来微调发布的预训练模型。T5 提供了有用的模块来 ...
NLP工程师都在看的:从入门到精通谷歌BERT技术
NLP工程师都在看的:从入门到精通谷歌BERT技术
为了确保大家可以循序渐进地理解BERT是怎样一项技术,它又是如何在命名实体识别(Named Entity Recognition,NER)任务中被应用的(它可以应用在很多NLP任务中,这里只是以实体识别为背景举例),我们需要先了解一些 ...
从语言模型到Seq2Seq:Transformer如戏,全靠Mask
从语言模型到Seq2Seq:Transformer如戏,全靠Mask
自 Attention is All You Need 以后,基于纯 Attention 的 Transformer 类模型逐渐变得流行起来,而 BERT 的出现则将这股潮流推向了一个新的高度。而后,各种基于大规模预训练的 Transformer 模型的工作不断出现,有 ...
乐府:基于GPT的中国古诗词生成系统
乐府:基于GPT的中国古诗词生成系统
古人云:熟读唐诗三百首,不会写诗也会吟。华为诺亚方舟实验室最近的研究表明,古人诚不我欺也。中国古诗词意境深远、格律优美、朗朗上口,是中国文化中璀璨的明珠。但由于形式和内容上的严格要求,普通人很难掌握写 ...
AI 冒充老板声音骗走 24.3 万美元
AI 冒充老板声音骗走 24.3 万美元
制作逼真的深度造假(deep fake)视频可能需要做大量的工作,但使用AI,用虚假语音实施欺诈来得更容易更快捷,在这起显然成功的CEO欺诈案之后可能数量会增加。据《华尔街日报》报道,犯罪分子使用基于AI的软件,冒充 ...
NLP这两年:15个预训练模型对比分析与剖析
NLP这两年:15个预训练模型对比分析与剖析
在BERT出现之后的这大半年的时间里,模型预训练的方法又被Google、Facebook、微软、百度、OpenAI等极少数几个玩得起游戏的核心玩家反复迭代了若干版,一次次的刷新我们这些吃瓜群众的案板上的瓜。有没有感觉出瓜速度 ...
BERT不是“银弹”,它做不到什么?
BERT不是“银弹”,它做不到什么?
基于语言目标建模的预训练的 NLP 模型最近非常流行,甚至已经成为特定任务微调的先驱。预训练模型如 BERT(Devlin et al,2019)和 ELMo(Peters et al,2018a),在各项任务中表现出最佳性能,表明这些预训练的模型 ...
后 BERT 时代的那些 NLP 预训练模型
后 BERT 时代的那些 NLP 预训练模型
我们可以看到进入 2019 年之后,无监督的 Contextual Word Embedding 成为 NLP 领域最热门的研究方向,没过多久就会有新的模型出来刷榜。这一方面说明了在海量的未标注的文本里包含了大量有用的语义知识,因此我们希 ...
自然语言处理:从基础到 RNN 和 LSTM
自然语言处理:从基础到 RNN 和 LSTM
机器学习领域一个最令人着迷的任务,就是训练机器理解人类交流能力的进步。在机器学习领域,这一分支被称为自然语言处理(Natural Language Processing)。本文尝试解释自然语言处理的基础知识,以及随着深度学习和神 ...

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

社区热帖

     

    GMT+8, 2020-10-28 02:44 , Processed in 0.063281 second(s), 16 queries .