受访者 | 杨植麟,循环智能联合创始人

记者 | 徐威龙,编辑 | 郭芮

出品 | CSDN(ID:CSDNnews)

「AI技术生态论」人物访谈栏目是CSDN发起的百万人学AI倡议下的重要组成部分。通过对AI生态顶级大咖、创业者、行业KOL的访谈,反映其对于行业的思考、未来趋势的判断、技术的实践,以及成长的经历。2020年,CSDN将对1000+人物进行访谈,形成系列,从而勾勒出AI生态最具影响力人物图谱及AI产业全景图!

本文为该系列访谈的第12期,通过和循环智能联合创始人杨植麟的访谈,本文详细解读了XLNet模型等自然语言技术以及对话数据的应用场景等内容。

百万人学AI你也有份!参与文章评论,评论区留言入选,可获得价值299元的「2020 AI开发者万人大会」在线直播门票一张。

近年来,由于面向大规模用户的音频、视频、图像等业务急剧增长,全球数据量呈现出爆发式的增长,“数据石油”也为无数的科技公司提供了“覆手为云”的发展契机。数据预测,到2020年全球的数据量将到达40ZB,车联网、智能制造、智慧能源、无线医疗、无线家庭娱乐、无人机等新型应用都将创造出新的数据维度。技术换代下,伴随着数据海啸而来的“淘金热”也居高不下。

事实证明,数据带来的机会是极为庞大的,但目前人们还未能彻底挖掘出数据资产的全部价值。在过去,对话数据的“含金量”就一直被严重忽视了。

随着自然语言处理技术的不断发展,时下的对话数据价值正在逐渐被唤醒,不同领域的最佳行业实践和实际效果都在逐步提升——而那些富有远见的企业,已经开始重视对话数据的价值了,但是他们之中的很多人仍缺乏利用这些数据产生业务价值的最佳实践。循环智能则正是基于此出发点,填补了这一技术空缺。

基于原创的XLNet模型、Transformer-XL模型等自然语言处理底层技术,循环智能打造了领先的AI技术矩阵。“我们做的事情主要就是:从销售过程产生的对话数据中,包括跟企业的IM聊天、微信聊天、电话销售沟通,进行文本的洞察,实现决策层面的赋能,最终提升销售的转化率。”针对不同行业的具体需求,实现不同的对话数据应用场景落地。在本文中,CSDN有幸采访到了循环智能联合创始人杨植麟,其将从对话数据的应用场景出发,为我们全面解析XLNet模型原理、核心技术、当前NLP的发展以及AI人才成长路径等内容。

在深度学习和自然语言处理领域,杨植麟颇有建树。作为第一作者,其与卡内基梅隆大学、Google Brain团队联合推出NLP领域热门的国际前沿预训练XLNet模型,在20个标准任务上超过了曾经保持最优性能记录的Google BERT模型,并在18个标准任务上取得历史最好结果,更被称为“BERT之后的重要进展”。

杨植麟与两位导师Ruslan Salakhutdinov(苹果 AI 研究负责人,右)、William Cohen(谷歌 Principal Scientist ,左)合影

在北京智源人工智能研究院公布的2019年度“智源青年科学家” 名单中,他还是最年轻的、也是唯一的“90 后”。

分析对话语义,挖掘数据价值

发挥数据价值已成为大多企业的共识,在这其中,很多企业出于提升服务水平和效率、保存企业数据资产的原因,存储了大量销售与客户、客服与客户沟通的录音、文本记录。如何从对话数据中找到对企业有用的信息、挖掘出客户所表达内容中隐含的潜在产品需求——则是循环智能的技术初衷所在。

他表示,目前具体有四个场景:第一,使用对话数据,做高意向销售线索的挖掘、排序和打分,给每一个线索做解决方案匹配和产品推荐;第二,从对话数据中抽取客户画像,帮助企业构造画像体系。企业借助画像体系可以设计针对性的运营活动;第三,从对话数据中自动挖掘销售的有效话术,这些有效话术可以为销售新人做实时辅助,告诉新人更高效地与客户沟通;第四,监测话术的执行情况,这个过程通常被称为执行力监督或质检。

“同时,我们通过分析对话的语义跟最终结果——是否成单之间的关系,预测哪些对话有更高的成单意向,从而让这四个场景形成闭环。”在实际案例上,杨植麟分享了一个比较Top的寿险公司应用,“我们的线索评分上线之后,大概通话时长提升了100%,转化率提升了到原来的270%。”

循环智能的产品架构图

技术层剖析:XLNet 优于 BERT!

“在技术实现层面,我们所做的事情和实现的场景,跟传统的对话机器人、聊天机器人或者机器人客服,都有着极大的差别。”

杨植麟表示,机器人主要做的事情是通过一套模板做简单的匹配,匹配之后用规则去生成接下来要说什么。从技术上说,目前机器人公司基本上没有使用新一代技术,而循环智能所做的业务场景则是帮企业做产品与客户的匹配、销售线索推荐,这些场景直接影响企业的业绩,因此企业对准确率非常敏感,必须使用最新一代的、更高准确率的技术才可以。“我们用了自己原创的XLNet算法去做很大的模型,用很多的数据去学习,使得标注的效率、对文本长序列的处理都取得了很大提升,可以来支撑我们的上层业务。”此外,还能更好地结合上下文语义,从沟通对话数据中实时提取语义标签,来做合规质检、客户画像和反馈的自动挖掘、销售和客服的执行力监督。

在杨植麟看来,相比BERT,XLNet模型有其明显的优越性。原理上,两者都是属于预训练的方法。但从更具体的角度来说,XLNet其实是融合了两种不同的预训练方法:自回归和自编码两种。“BERT可以看成是一种自编码的方法,XLNet则会克服BERT的一些缺点”,主要是两个:XLNet不用引入特殊的Mask符号,所以会减轻在预训练和微调(Fine-tuning)时候数据分布不一致的情况;此外,XLNet可以对不同词之间的关联性进行建模,而BERT假设所有要预测词之间都是独立的。XLNet通过一些比较巧妙的、形式上的变化,使得它不需要有这个假设。“所以XLNet是一个更通用的模型,去掉了比较严格的假设,可以对自然语言里面的上下文关系进行更好地建模。”

XLNet原理图

在具体的产品和解决方案背后,循环智能同样面临着两方面的技术难点。一方面,他们需要将自己提出来的模型用到业务场景里面,另一方面是要针对具体场景里的一些挑战,针对性地提出技术解决办法。具体来说,“第一块主要是用了我们提出的Transformer-XL、XLNet等一系列通用NLP模型,以及一些主动学习(Active Learning)的算法,作为底层去支撑上层的应用。第二块就是针对这些具体的场景,它相对来说会有一些比较难的地方。”

难点1:线索评分会涉及到怎么去融合多种不同模态的数据。比如除了对话数据,有时候还会有行为数据、业务数据,需要将不同模态的数据融合到同一个框架。

难点2:怎么对很长的对话结构的文本进行建模。用预训练好的模型通常效果不好,因为它一无法有效地对对话结构进行建模,二没办法对很长的文本序列进行建模,所以要对模型进行改进,我们现在可以处理长度几千个词的文本。

难点3:规模化生产没有办法非常依赖标注数据,所以需要提升标注的效率。通过小样本学习的思路,上了一套新的系统,现在只用10%的标注量,就可以达到跟以前一样的效果,这对规模化复制业务有非常大的帮助。

这其中,技术瓶颈是不可避免的。

“做实验的时候,你每一个新的想法不一定都能Work。” 杨植麟认为更重要的是在应对瓶颈的时候,把心态变得更好。“很多时候,你不是需要追求做实验一直不失败,而是要用更快的速度去迭代,用更快的速度取得结果。”

NLP 辉煌时代已至

最近几年,语音识别、计算机视觉、语言理解等技术的“崛起”使得沉寂了半个多世纪的人工智能再次火爆起来。事实也证明,人工智能不仅仅是需求驱动,而且是内生驱动。

杨植麟认为,算法和算力其实是一个螺旋螺旋式上升的过程。“人工智能的驱动方式是算力和算法螺旋型上升、相辅相成。一开始算力非常小,科学家只能去研究最好的算法。但是等到算力大的时候,很多算法就没用了。很多论文都有这种问题:在算力小的情况下跑了一下效果不错,但是算力大的时候,一点用都没有。”“本质上,在算法和算力互相迭代的过程中,最新一代的算法解决了大数据和大模型这两个问题,比如说做NLP的话,那大模型就是Transformer,大数据就是通过预训练来解决的。”

也正是大模型+大数据的“繁荣”,直接造就了当下NLP的辉煌时代。

他表示最近几年NLP领域有两大突破:第一个突破是从模型的角度看,从简单的模型演进到了基于Transformer的大模型。Transformer的好处是随着参数的变多,效果不断变好,而且具有非常强的长距离建模的能力。Transformer模型这两个优点,使得现在可以做到很多以前做不了的事情。第二个比较大的进步是思维范式上的转变,诞生了基于预训练的方式,可以有效地利用没有标注的数据。“简单来说,Transformer是模型角度的突破,预训练方法是思维范式上的突破,前者解决的是如何训练一个大模型的问题,后者解决的是如何解决NLP没有大数据的问题。”

对于那些想要扎根AI领域的开发者来说,杨植麟表示把握当下的时代契机十分重要。“想学习AI开发技术,我觉得可以分两条路径:第一条路径是自上向下的、系统性的学习。比如看一本比较系统性的教科书,或者网上的课程,帮助你对整个领域的知识脉络有一些系统性的了解;第二条路径是自底向上、需求驱动的做法。就是说,你先遇到现实中的一个问题, 然后从这个问题出发,通过各种网上的搜索工具去调研相关的文献。”而最最重要的是,“一定要去写代码!”,或者去跑一些真正的代码,而不仅仅停留在看的层面——实践很重要。

从“人机单独作战”到“人机耦合”,AI 终将赋能沟通

“在人工智能领域,我最欣赏‘神经网络之父’Geofrey Hinton,因为他是最早的奠基人,重要性不言而喻。”也是他,驱使杨植麟多年来在自然语言处理领域持续深耕下去,此外,“我觉得语言本身比较有意思,语言是人类知识和认知的载体,如果机器能够理解语言,然后在理解语言的基础上进行推理,去做出一些决策,其实是一种很高级的智能的表现,这也是人工智能领域比较重要的话题。另一方面则跟时机有关,因为我四五年前开始做研究的时候,计算机视觉CV或者语音识别这两块已经取得突破了,很多效果已经做得比较好了。但NLP仍缺少一些突破,我觉得这个领域会有更多有挑战性的问题需要去解决。”

而Google、Facebook等顶尖公司的工作经历,也为他后来的成功创业打下了基础。“在这两家公司有两个最直接的收获:其一就是做了一些研究成果出来,现在我们也在实际落地运用,包括Active Learning(主动学习)的思想、预训练模型,都可以直接用上;第二个收获,更偏的方法论。就是说,遇到一个问题的时候学着将大的问题拆成小的问题,然后逐个击破。我觉得其实创业跟研究有很多方法论上共通的地方。 ”

但在AI真正去赋能沟通的坦荡前路上,还有一些亟待突破的技术难点。他表示主要有三个方面:

第一,从“人机单独作战”到“人机耦合”。现在市面上做对话机器人的公司最多,它们做的事情其实是“人机单独作战”。比如在销售场景下,把销售线索先让机器人去跟进,然后其中比较好的再让人去跟;在客服场景下也是一样,先用机器人去接一些简单的问题,难的再交给人工客服去接。这其实是一个割裂的状态,机器人和人做的是独立的任务,没有实现协同。“我们希望让人和机器更好地耦合,比如在销售过程中,机器给业务员提供辅助,协助人做决策,或者机器给人推荐方案,由人去执行方案。我觉得“人机耦合”最终会成为销售场景比较好的形态,而不仅仅是人和机器分别作战。”

第二,从比较浅层的客户触达到深度的决策输出。还是对话机器人的例子,他们做事情主要是用自动外呼机器人给客户传递一些简单信息,或者是问一些简单问题收集一个问卷,或者做个提醒功能。这些其实是比较浅层的触达,就是说机器人只负责传递信息,而且是较为浅显的信息。“我们做的事情是让机器学习或者NLP算法深度参与到最重要的销售决策过程,包括应该去跟进哪些人、给他推什么东西、如何与客户做沟通等。”

第三,要让机器能有自学习的能力。“当我们做到人机耦合、机器可以跟人一起工作,那机器就需要能根据人的行为或者人的决策产生的结果,去自动更新和升级算法模型,形成闭环,帮助销售能力一直演进下去, 而非停留在静态模型。”

【END】

更多精彩推荐

拿下 Gartner 容器产品第一,阿里云打赢云原生关键一战!

腾讯面试官这样问我二叉树,我刚好都会 | 原力计划

☞斩获GitHub 2000+ Star,阿里云开源的 Alink 机器学习平台如何跑赢双11数据“博弈”?| AI 技术生态论

☞微软为一人收购一公司?破解索尼程序、写黑客小说,看他彪悍的程序人生!

机器学习项目模板:ML项目的6个基本步骤

☞IBM、微软、苹果、谷歌、三星……这些区块链中的科技巨头原来已经做了这么多事!

资深程序员总结:分析Linux进程的6个方法,我全都告诉你

今日福利:评论区留言入选,可获得价值299元的「2020 AI开发者万人大会」在线直播门票一张。快来动动手指,写下你想说的话吧。

点击阅读原文,精彩继续!

你点的每个“在看”,我都认真当成了喜欢

循环智能杨植麟:“人机耦合”将是对话语义应用的新趋势!相关推荐

  1. 循环智能杨植麟:“人机耦合”将是对话语义应用的新趋势

    2020-04-12 11:19:51 受访者 | 杨植麟,循环智能联合创始人 记者 | 徐威龙,编辑 | 郭芮 出品 | CSDN(ID:CSDNnews) 「AI技术生态论」人物访谈栏目是CSDN ...

  2. 【2020年高被引学者】 杨植麟 北京睿科伦智能科技有限公司

    [2020年高被引学者]杨植麟,北京睿科伦智能科技有限公司研究员,循环智能(Recurrent AI)联合创始人.本科毕业于清华大学计算机系,博士毕业于卡内基梅隆大学计算机学院.研究兴趣包括深度学习和 ...

  3. XLNet 发明者杨植麟:从学习的角度看NLP现状与未来(附PPT下载)

    近年来,基于Transformer的一系列大规模预训练模型不断推进NLP领域前沿,也持续冲击着大众和研究者关于NLP任务的认知.GPT-3在多项任务上取得的泛用能力似乎使人们看到了实现通用人工智能的曙 ...

  4. 杨植麟:28 岁青年科学家,开挂人生的方法论

    智源导读:杨植麟,循环智能创始人.智源青年科学家.如今仅28岁的他,曾于2011年至2015年在清华计算机系就读,本科期间师从唐杰教授:随后去往CMU读博,师从苹果AI研究负责人Ruslan Sala ...

  5. 【报名】杨植麟 :从学习的角度看NLP的现状与未来

    活动议程 日期:11月26日(周四) 时间 主题 19:00-19:05 主持人介绍 张家俊,中国科学院自动化研究所研究员,智源青年科学家 19:05-20:20 <从学习的角度看NLP的现状与 ...

  6. 智源青年科学家杨植麟:为什么预处理模型XLNet比BERT、RoBERTa更加优越

    在2020年2月11日下午的"智源论坛Live | 青年科学家线上报告会"中,智源青年科学家.Recurrent AI联合创始人杨植麟做了题为<Latest Advances ...

  7. XLNet模型第一作者杨植麟:NLP落地的四个技术阶段

    作者 | Recurrent.ai 来源 | RecurrentAI(ID:gh_0382adb3c10e) 近日,Recurrent.ai 联合创始人.XLNet 模型第一作者杨植麟,受邀在 CSD ...

  8. 读杨植麟智源采访有感

    永远相信好的东西还没做出来.论文读得不算少,读到自己感觉这也有人做了,那也有人做了,自己的工作一点也没啥亮点,是读入了迷区了. 快速迭代.大多数人的大多数Idea都不work,要快速迭代,不断试错,最 ...

  9. 智能运维探索 | 2022年值得关注的三个AIOps新趋势

    本文源自于公众号--布博士(擎创科技资深产品专家) 前言: 近年来,人工智能技术的研究和行业应用急剧上升.虽然看起来人工智能技术似乎只是一种来自电影中的幻想,但是人工智能技术已经在我们生活的各个方面得 ...

最新文章

  1. python相似图片聚类分类
  2. 非root用户编译安装源码包
  3. 谈一个优秀的美工需要掌握哪些技能
  4. VSS不需要验证自动登录的问题
  5. 基于c语言单片机秒表课程设计,基于c语言单片机秒表课程设计要点.doc
  6. python分箱分类代码_Python实现变量分箱及应用
  7. java编程二十_Java语言程序设计(二十)编程练习
  8. 实战经验:Oracle Lost Write Detection机制导致Select产生大量Redo
  9. 2、Qt Project之鼠标事件监控
  10. oracle启用amm,oracle AMM、ASMM区别以及相关用法
  11. pm2.5测试软件,测pm2.5的软件准吗
  12. 苹果Mac智能照片编辑软件:​​​​Movavi Picverse
  13. LINUX上ZIP的使用
  14. 关于RadASM使用编译资源脚本功能无法找到指定头文件的解决方案
  15. 《凤凰项目:一个IT运维的传奇故事》的读后感
  16. linux共用home分区,安装UOS和Deepin双系统并且共用/home分区的测试报告
  17. mysql tddl_TDDL思考总结
  18. 平面设计是一种创造性的艺术形式
  19. vue中SEO(搜索引擎优化)
  20. 伦敦大学国王学院计算机学院官网,伦敦大学国王学院 King’s College London

热门文章

  1. 各种乐器与人声的频率特性说明
  2. python网络编程学习笔记(6):Web客户端访问
  3. [NVIDIA] Ubuntu 卸载 cuda
  4. 利用MPI解决N体问题
  5. Pytorch初学实战(一):基于的CNN的Fashion MNIST图像分类
  6. python大学随机点名名_python用tkinter实现一个简易能进行随机点名的界面
  7. 【金融】【随机森林】使用随机森林对期货数据(涨跌)进行回归
  8. 在矩池云上复现 PaddleGAN 照片转油画风格教程
  9. vscode多开远程链接矩池云服务器
  10. 矩池云上出现Could not find conda environment