炼数成金 商业智能自然语言处理
订阅

自然语言处理

BERT在小米NLP业务中的实战探索
BERT在小米NLP业务中的实战探索
近年来,预训练模型在自然语言处理领域大放异彩,其中最重要的工作之一就是 Google 于 2018 年发布的 BERT 预训练模型 。自被发布以来,BERT 预训练模型就在多项自然语言理解任务上取得了优异的效果,并开启了预训 ...
LDA主题模型 | 原理详解与代码实战
LDA主题模型 | 原理详解与代码实战
在机器学习领域,关于LDA有两种含义,一是「线性判别分析(Linear Discriminant Analysis)」,是一种经典的降维学习方法;一是本文要讲的「隐含狄利克雷分布(Latent Dirichlet Allocation)」,是一种概率主题模型 ...
剑桥量子自然语言处理实验记录
剑桥量子自然语言处理实验记录
剑桥量子计算执行世界上第一个量子自然语言处理实验:剑桥量子计算公司(CQC)宣布,他们已使用自然语言的“本机量子”结构,通过将语法语句翻译成量子电路,然后在量子计算机上实现所得程序,并实际执行问题解答, ...
NLP的12种后BERT预训练方法
NLP的12种后BERT预训练方法
使用NLP的工具来识别短语和实体,包括3种层级的Masking:基本、phrase和entity。依次对基于基本级别、短语级别、实体级别分别进行mask训练。对于对话数据,还训练了Dialogue LM。使用Q和R标记query和response。
NLP,吹爆与落地
NLP,吹爆与落地
机器翻译。可以用独立的方式提供服务,比如提供在线实时多语种的翻译功能。比如翻译专用的硬件产品。对话系统。智能客服,对话机器人(用软的方式呈现能力),智能音箱类(用硬的方式呈现能力)。但是,你真的需要一 ...
Manning大神牵头,斯坦福开源Python版NLP库Stanza:涵盖66种语言
Manning大神牵头,斯坦福开源Python版NLP库Stanza:涵盖66种语言
对于斯坦福 NLP 库,我们一定不会陌生,但是这一库主要基于 Java。近日,Christopher Manning 所在的斯坦福 NLP 组开源了 Python 版的工具包——Stanza,让 Python 生态系统又增添了一员 NLP 大将。我们都知道斯坦福 ...
关于自然语言处理系列-文本摘要提取进阶
关于自然语言处理系列-文本摘要提取进阶
关于自然语言处理重要的一个部分是文本摘要,文本摘要的提取涉及到分词、断句、文本权重问题;分词前文已述,断句通过正则表达式完成;文本权重又包括句子的tfidf权重、文本相似度权重和句子的位置权重;关于权重又 ...
关于自然语言处理系列-基于gensim的简易聊天机器人
关于自然语言处理系列-基于gensim的简易聊天机器人
下载了一个微信聊天的语料库,大概11万条记录,采用问答方式,中间以“|”分割,用gensim做了个简单的检索聊天机器人,目前基本可用。还有个地方需要进一步优化,1万语料生成的模型库通过自动应答效率还可以,11万语 ...
2019 NLP大全:论文、博客、教程、工程进展全梳理
2019 NLP大全:论文、博客、教程、工程进展全梳理
在整个2019年,NLP领域都沉淀了哪些东西?有没有什么是你错过的?如果觉得自己梳理太费时,不妨看一下本文作者整理的结果。2019 年对自然语言处理(NLP)来说是令人印象深刻的一年。本文将着重讲述一些 2019 年我在 ...
元学习与自然语言处理
元学习与自然语言处理
元学习 (meta learning),又被称作“学会学习” (learning to learn),是近期深度学习研究界的一大关注热点,旨在帮助新任务在缺乏训练样本的情况下快速学习 (rapid learning)、快速适应 (fast adaption)。前,随着 ...
自然语言理解(NLU)难在哪儿?
自然语言理解(NLU)难在哪儿?
导读:在微博和知乎上关注自然语言处理(NLP)技术的朋友,应该都对#NLP太难了#、#自然语言理解太难了#两个话题标签不陌生,其下汇集了各种不仅难煞计算机、甚至让人也发懵的费解句子或歧义引起的笑话。然而,这些例 ...
如何在NLP中有效利用Deep Transformer?
如何在NLP中有效利用Deep Transformer?
使用神经网络的方法解决自然语言处理的相关任务时,制约模型性能因素主要包括模型的表现力和用于进行模型训练的数据。然而在大数据时代背景下,对于很多自然语言处理的任务,我们已经能够获取到大量的高质量数据,结 ...
初学者如何学习NLP?这里有一些最棒的项目推荐
初学者如何学习NLP?这里有一些最棒的项目推荐
RoBERTa 是 Facebook 开发的一个 NLP 模型。它建立在谷歌著名的 BERT 的基础上,因此在 RoBERTa 中使用了奇怪的大写字母,并通过实现稍微不同的训练方法改进了 BERT 的性能。预先训练好的 RoBERTa 通过 PyTorch Hub ...
一文看尽2019年NLP前沿突破
一文看尽2019年NLP前沿突破
2019年,自然语言处理(NLP)都取得了哪些突破?提到NLP,BERT可以说是家喻户晓。在情感分析、问答、句子相似度等多个 NLP 任务上都取得了优异的成绩。而且,无论是在类似于Kaggle这样的竞赛,或者媒体报道中,也总能 ...
华为联合中科大提出知识图谱结合预训练模型新方法,节省20%计算成本
华为联合中科大提出知识图谱结合预训练模型新方法,节省20%计算成本
预训练的语言模型通过一种自我监督的学习方法在大规模文本语料库中学习上下文的单词表征,借助这种方法对下游任务进行微调,就可以获得最佳(SOTA)性能。这一方法逐渐成为自然语言处理研究的新范式。近年来,知识信 ...

热门频道

  • 大数据
  • 商业智能
  • 量化投资
  • 科学探索
  • 创业

社区热帖

     

    GMT+8, 2020-10-28 01:17 , Processed in 0.131369 second(s), 16 queries .