原文:IEEE Spectrum

编译:梦佳

近期,大规模语言模型频频出现在公众视野中。

前有Google发布首个万亿级模型 Switch Transformer,参数量达到1.6万亿,速度是Google之前开发的最大语言模型(T5-XXL)的4倍。后有快手快手落地业界首个万亿参数推荐精排模型。智源研究院也在今年1月发布了面向认知的我国最大规模的预训练模型「文汇」,参数量仅次于OpenAI的DALL·E模型。

任何技术在乍现之初的高光时刻之后,都要沉淀到生态构建层面的思考。

以GPT-3为例,在过去半年左右的时间里,成千上万的用户都在排队等待GPT-3的授权,从心理咨询app到在线客服,从办公软件到任务游戏,GPT-3的商业前景似乎是无穷无尽的。

随着人工智能社区被卷入大航海时代,横陈在大大小小用户面前的都是一个相似的问题,如何处理这个大规模语言模型生成的带有攻击性的语言呢?如何面对高光时刻之后的高风险?

其中一名开发者甚至提到,「GPT-3的问题不是在于它会出错,而在于它会产生大量的语言垃圾,我们也无法检测到它是否正在产生垃圾。」

这种垃圾如今已经潜藏在互联网的每个角落。以 GPT-3关于埃塞俄比亚的文章节选为例,读来令人咂舌。

「埃塞俄比亚人被分为若干不同的族群。然而,不清楚埃塞俄比亚的问题是否真的可以归咎于种族多样性,或者仅仅因为其大多数人口是黑人(因为非洲在很长一段时间里证明他们没有自治能力)。」

Philosopher AI (一个基于GPT-3的app)的用户数据科学家 Vinay Prabhu 指出,他发现特定类型的提示语会带来攻击性的结果。这些提示语包括,「现代女权主义有什么不妥?批判种族理论的症结何在?」他提到,每每开始试验,不超过两三次,就会蹦出一个令人深恶痛绝的长篇大论。

大部分未经驯化的技术都存在潜在危机。试想一下有毒语言出现在以下语境中ーー电话客服、在线家教、电子游戏中的角色或者虚拟心理治疗师,情况会多么糟糕。这些都是切切实实的担忧。

本文中,IEEE Spectrum 与 GPT-3 API 的 测试用户进行了大量访谈,针对如何安全部署进行了深入的探索。

01

GPT-3是人类的一面镜子

互联网是最大的试验田,而GPT-3则被裹挟着进入这场无法逆转的巨大试验之中。

最本质的问题是,GPT-3的老师来自互联网: 它庞大的训练数据集囊括了大量的新闻文章、维基百科条目和在线书籍,还包括 Reddit 和其他网站上所有的讨论。

从那些或正直或令人生厌的废话中,它的1750亿个参数足以定义自己的语言。正如Prabhu所说: 「它所说的一切,并非来自真空。它是现实的一面镜子。不管 GPT-3有什么缺点,它都是从人类那里学来的。」

自从去年6月,OpenAI 推出允许访问 GPT-3的 API,并宣布了一个内部 beta 测试,经过精心挑选的用户纷纷在公司的密切关注下开发相关的app。当时的博客文章指出,OpenAI 将防范明显有害的使用情况,如骚扰、垃圾邮件、激进内容或草根营销,同时也申明,「我们知道,我们无法预料到这项技术可能带来的所有后果。」

那么 OpenAI 是如何解决这些棘手问题的呢?

02

停止「放虎归山」,OpenAI 的安全之路

可以说,OpenAI 已经从其早期语言生成技术的迭代中吸取了教训。

2019年,该公司推出了 GPT-2,同时宣称「放归山野」实际上太危险了。相反,该公司提供了一个缩小版的语言模型,其中包括数据集和训练代码,但没有提供完整的模型。

OpenAI 在一篇博客文章中强调,恶意者会利用 GPT-2制造高质量的假新闻,这些假新闻会愚弄读者,混淆视听。

随后,OpenAI 给出了完整版的模型,确实有人用它来制造骗点击率的假新闻。但这并没有在互联网上掀起一场虚假信息的海啸。在过去的几年里,人们已经证明,没有AI的帮助,也可以制造假新闻。

众所周知,2020年5月,一篇75页的论文公布了 GPT-3,它的1750亿个语言参数比 GPT-2的15亿个参数大了数个量级。

OpenAI 的人工智能政策研究员 Sandhini Agarwal 向 Spectrum 谈到 GPT-3战略的隐忧。她表示: 「我们必须和少数一些人一起进行封闭测试,不然我们根本不知道这个模型到底能做什么,也不知道需要在哪些问题上取得进展。」

「如果我们现在向全世界开放这个模型,结果可能会非常糟糕。」

 

Agarwal 解释说,目前有一个内部团队负责审查提交的申请,为那些想要通过 API 访问 GPT-3的公司提供安全指南,在部署前反复审查用户们所提交的申请,并在部署后监控其使用情况。

OpenAI 也在开发新的内容过滤工具,帮助用户更好地控制 GPT-3生成的文本。然而,Agarwal表示,这样的过滤器实际上是一个不可能创造出来的东西,因为「偏见是非常模糊的,其语境也在不断变化」。特别是在很多有争议的话题上,一个看似正确的回答可能会被另一方认为是有害的。

另一种方法被称作是提示工程,即在用户的提示中添加一个带有提示性质的短语,比如「一个友好的机器人这样说道」,这样设置的话,GPT-3就会以用礼貌,且毫无争议的语气生成文本。

用户也可以选择一个说话的「温度」来设置他们的反应。「低温设置」意味着 AI 会把它以前经常看到的词汇放在一起,不冒险,当然也不会带来什么惊喜;当设置成「高温」时,它更有可能产生稀奇古怪的语言。

此外,除了产品方面的进展,研究人员也做出了「纯机器学习研究」方面的努力。「他们正在考虑模型的基本权重,试图找出哪些权重可能表明某些特定内容是有害的。」

在诸如医疗保健、金融和法律行业等领域,错误可能会带来严重的后果,在这种时候 OpenAI 的审查团队会格外留心。在某些情况下,他们会拒绝申请者,因为他们提交的产品方案过于敏感。在特殊情况下,还会坚持人为干预,即 AI 生成的文本在到达客户或用户之前必须要经过人为的审查。

OpenAI政策研究员Agarwal 表示,OpenAI 在解决有毒的语言和有害的偏见方面正在取得进展,但「我们还没有达到理想的程度。OpenAI 现阶段不会广泛开放 GPT-3 接口,除非有一天,它能够游刃有余地处理这些问题。」

03

语言模型该如何「排毒」?

 

诚然,OpenAI 研究员并非唯一深知个中风险的人。

去年12月,研究员 Timnit Gebru 被谷歌解雇,不得不被迫放弃了她在人工智能算法偏见方面的研究,因为公司内部对她参与合著的一篇论文存在较大分歧。文章探讨了 GPT-3和 Google BERT 等大语言模型目前存在的缺陷,包括内置偏见等问题。

Gebru 和她的合著者认为,有意开发大型语言模型的公司应该投入更多的资源来管理训练数据,并且只创建尽可能能够记录在案的数据集。「我们发现,这些(排毒)技术大多不太奏效。」

与此同时,在著名的西雅图艾伦人工智能研究所(AI2) ,几名研究人员一直在探索 GPT-3和其他大型语言模型。他们有一个项目叫做 RealToxicityPrompts,创建了一个由网络文本衍生的100,000个提示语的数据集,评估了来自五种不同语言模型结果文本的「毒性」,并尝试了几种「排毒」策略。这五个模型包括 GPT-1、2和3(OpenAI 为研究人员提供了 API)。

他们的论文在去年11月举行的2020 EMNLP自然语言处理实证方法会议上发表,文中得出结论: 目前没有任何缓解方法可以「防止神经网络的毒性退化」(failsafe against neural toxic degeneration)。换句话说,他们无法找到可靠方法来完全隔绝那些难听的话语和情绪。

该研究团队表示,他们注意到训练这些大语言模型的标准方法可能需要改进。「使用互联网文本已经成为默认设置」,论文作者、 AI2研究员 Suchin Gururangan 表示。「我们原本以为,从大量数据中获取的声音是最多样化的。但分析结果显示,互联网文本确实存在其自身的偏见,而偏见确实在模型行为中传播。」

Gururangan表示,当研究人员考虑用什么数据来训练他们的新模型时,他们应该首先考虑应该排除哪些类型的文本。但他指出,即使是在一篇文档中,自动识别有毒语言也是一项艰巨的任务,而在整个网络范围内进行这样的研究正是「一片尚未开垦的沃土」。

至于解决问题的方法,AI2团队尝试了两种方式来对模型的输出进行「排毒」: 用已知无害的文本对模型进行额外的训练,或者通过扫描关键词等方式过滤生成的文本。

Gururangan 说: 「我们发现,大多数这些技术并不真正有效。所有这些方法都能降低毒性的发生率ーー但只要你生成足够多次,总会发现一些毒性。」

此外,他还表示说,试图降低毒性还会产生副作用,比如降低语言的流畅度。这是测试版用户当前正在努力解决的问题之一。

04

GPT-3测试用户:自由度越高越担心

 

Spectrum 采访到的公司和开发者都提出了两个基本观点: GPT-3是一项强大的技术,OpenAI 正在努力解决有毒的语言和有害偏见。一部分人认为,自由度越高越担心,另一部分则认为可以放任自流。

测试公司正在设计各种各样的策略,来确保 GPT-3产品的安全无害。

名为Art of Problem Solving的在线教育公司正在尝试使用 GPT-3,来加快教师对学生数学证明的评分。GPT-3可以对数学证明的准确性和表达方式做出基本反应,之后由教师审查这种反应,并进行修正,争取最大限度地帮助学生。

为了保护学生,生成的文本「从不直接发送给学生,」创始人Rusczyk 说。「如果出现垃圾,只有审查人员才能看到。」他指出,GPT-3不可能针对数学证明本身生成攻击性语言,因为在它的训练数据中几乎不会出现相关的文本。

OpenAI 坚持认为,学生不应该直接与机器对话。

一些公司则发现限制 GPT-3的使用情境是最安全的。在 Sapling Intelligence,一个帮助客服处理电子邮件、聊天和服务票据的初创公司,CEO Ziang Xie 并不期望用「自由生成」。

「就好比汽车和有轨电车相比,」他说。「汽车可以在任何地方行驶,随时会偏离马路。有轨电车是在铁轨上行驶的,至少不会撞到人行道上。」

心理健康应用软件 Koko 是一个提供认知疗法的心理支持平台。创始人 Robert Morris 团队正在尝试使用 GPT-3在用户等待回复时生成机器人写的回复,同时也为受访者提供他们可以修改的可能文本。Morris 表示,「机器的自由度过大我会很担心」。

「当真的生成不好的回复,就会出现在 Reddit 热搜上。」

然而,一些公司恰好需要 GPT-3有很大的自由度。Replika 是一个人工智能app,全世界现在有1000万用户,人们可以在平台上和Replika随意交流,不限话题。

为了防止应用程序说攻击性的内容,该公司让 GPT-3产生各种各样的反应,每条信息,然后使用一些自定义分类器检测和过滤出负面的内容,包括有害的偏见、脏话,等等。

由于这些特征很难单独从关键词中检测出来,这个app 还收集用户的反馈信号来训练它的分类器。Rodichev 说: 「用户可以将一个回答标记为『不恰当』,我们可以将这个反馈作为数据集来训练分类器。」

另一家对 GPT-3 管束没那么严的公司是 Latitude,一家主打 AI 游戏的初创公司。它的第一个产品是一个叫做 AI Dungeon 的文字冒险游戏,使用 GPT-3来创建故事并响应玩家。

Latitude 不会防止在游戏中发生的意外,因为一些用户想要个性化的『勇敢体验』」创始人Walton 说。游戏支持用户自己控制设置,来调整他们会遇到什么样的语言。玩家可以保持在一个默认的安全模式下,也可以主动关闭安全模式。

当然,安全与否往往是相对于上下文语境而言的。「如果一个客服聊天机器人威胁你把所有的钱都给他,那就糟糕了。如果你在玩游戏,路上遇到一个强盗,这就是正常的故事情节。」

不同的用户反响不同,上述这些GPT-3带来的例证也只是沧海一粟。

05

OpenAI 政策研究员:确实存在安全隐患,但这是第二十二条军规

GPT-3的独立能力还未可知。

去年9月,微软宣布了与 OpenAI 的独家授权协议,声明该公司将使用 GPT-3「利用先进的自然语言生成的惊人力量,创造新的解决方案。」协议本身不妨碍其他公司通过 OpenAI 的 API 访问 GPT-3,但却赋予了微软处理基本代码的独家授权。

微软CTO Kevin Scott 在宣布该协议的博客中热情洋溢地谈到: 「通过 GPT-3可以释放的商业前景和创造潜力是深远的,——其中很大一部分我们想都没想过。」当被问及有关该技术安全部署的想法时,微软却拒绝置评。

和自动驾驶相似,如GPT-3的语言模型正在成为我们生活的一部分。

不同的是,出错的后果可能不会像车祸威胁生命那样明显。然而,有毒的语言对人类社会产生的潜在影响,会于无形中强化成见,带来结构性的不平等,让我们重蹈人类社会的覆辙。

这种安全和负责的使命感应该贯穿生态建设的始终。

对此,OpenAI 政策研究员 Agarwal 讲到: 「我确实认为 GPT-3 存在安全隐患,但这是第二十二条军规。」

二十二条军规直接指的是规定空军飞行员必须证明自己疯了才可以不再出飞行任务,而要是自己还能够证明自己能做任何事那就是没疯,就必须一次又一次的出飞行任务,飞跃高射炮和导弹,游走于送命的边缘。

OpenAI和许许多多GPT-3的测试用户当前要做的,也许就是在到达那个边缘之前,继续谨慎地试探。

参考链接:

https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/open-ais-powerful-text-generating-tool-is-ready-for-business

推荐阅读:

点击下方图片即可阅读

GPT发家史

点击左下角“阅读原文”,了解更多!

AI突破的「阴暗面」:怎样防止GPT-3跟人类学坏?相关推荐

  1. AI也能「抽象派」作画,圆形+方块组合,可微2D渲染下生成抽象人脸

    来源:机器之心 本文约2500字,建议阅读5分钟 本文介绍了AI条件下,抽象派作画. 有人将一张方块图.圆形图的组合生成了抽象的人脸!还有人将帆布油画<阿尼埃尔的浴场>还原为直线. 绘画, ...

  2. 解密「天池」:如何做好一场万人AI竞赛的「大后方」?

    来源:机器之心本文约9800字,建议阅读10+分钟面对数据集保护.算力公平性.结果可复现性等诸多挑战,天池是如何克服的呢? 一场一万五千人的竞赛,如何确保比赛顺利进行?如何保证公平公正?在这场活动中, ...

  3. AI应用说 | 「虫口夺粮」的害虫识别还是牛场24小时无人监控,AI+农业话题咱们唠一唠...

    关注公众号,发现CV技术之美 写在篇头:是时候,关注智慧农业这条"难且正确"的道路了. 在不断变化.机遇与危机并存的商业社会中,农业一直算不上"热点".但伴随国 ...

  4. 对话加拿大工程院于非院士:寻找 AI 领域的「香农定理」

    来源:AI科技评论本文为约7450字,建议阅读14分钟 本文介绍了加拿大工程院院士于非在人工智能定义等方面的学术观点. 我相信智能是一种自然现象,就像岩石滚动和冰雪融化般自然的现象.--摘自于非著作& ...

  5. 企业挖角 AI 教授是不是「原罪」?

    雷锋网 AI 科技评论按:AI 学者该不该在企业挂职?挂职的话,精力又该如何分配?这些问题随着 AI 的全面火热在学界频频被提起.最具代表性的一次交锋,要属去年 8 月份 Yann LeCun 与 U ...

  6. 文字工作者大敌?从征人文案到一首好诗,Notion AI都能「写」出来

    只要告诉Notion AI想要什么样的的文案,AI就生成出一篇草稿,让使用者直接进入编修润色阶段,减少写作者「冷启动」问题. 继充满版权争议的AI图像生成之后,现在AI也可以帮我们编写文章了.知名笔记 ...

  7. 大AI巧用「砌砖」方法:LLM可通过将任务「外包」给专业领域的AI模型来提高其性能...

    来源:ScienceAI 本文约1800字,建议阅读5分钟 新的研究表明,让 LLM 将工作外包给规模较小的专业 AI 可以显著扩大其范围. 大型语言模型(LLM)功能的快速改进使它们能够处理范围广泛 ...

  8. 9月4日科技资讯|微信支付二维码被诉侵权;AI 换脸 App「ZAO」致歉; Android 10 正式发布

    「CSDN 极客头条」,是从 CSDN 网站延伸至官方微信公众号的特别栏目,专注于一天业界事报道.风里雨里,我们将每天为朋友们,播报最新鲜有料的新闻资讯,让所有技术人,时刻紧跟业界潮流. 整理 | 胡 ...

  9. 清华张悠慧:AI时代,「图灵完备」之后,「类脑计算完备」如何设计?

    智源导读:2021年6月1日,清华大学计算机系研究员.类脑计算研究会成员张悠慧,在北京智源人工智能大会智能体系架构与芯片论坛做了题为"类脑计算系统基础软件研究"的报告.报告首先简要 ...

最新文章

  1. mysql象限和投影_PostGIS空间数据库SRID背景知识 - 地理坐标系(球面坐标系)和投影坐标系(平面坐标系) - GIS开发者...
  2. 自动化部署脚本开启所有zookpeer等服务
  3. Javascript里的sleep()方法
  4. android开源2016_2016年开源领域的7大法律发展
  5. D3 scaleQuantize
  6. ASP.NET程序中常用代码汇总-1
  7. cordova android 开发,Cordova开发App入门(一)创建android项目
  8. MTK驱动代码流程介绍:
  9. div嵌套的div水平垂直居中
  10. CQF笔记M1L4随机分析和伊藤引理
  11. android apk参数错误,Android adb安装apk时出现报错Invalid APK file如何解决
  12. win32画窗体背景
  13. java俄罗斯方块七中图形类_用shell写俄罗斯方块
  14. 微商怎么引流学生粉?如何把学生粉变现成精准粉?
  15. C++课程设计指导书
  16. wordpress插件_9个最佳WordPress产品组合插件
  17. 电脑键盘部分按键失灵_电脑键盘失灵解决方法 电脑键盘部分失灵解决方法
  18. Objective-C 2.0 Morden Runtime
  19. 编程之美 - 读书笔记 - 烙饼问题与搜索树
  20. 如何使用GridView实现不同数量显示图片不同的大小

热门文章

  1. 搭建云mysql,基于ECS搭建云上博客
  2. java 8代码 改 java7_Window安装JDK7和JDK8,并一键切换
  3. adc量化单位_单片机外围模块漫谈之二,如何提高ADC转换精度
  4. Jmeter服务器监控 serveragent如何使用
  5. BZOJ2127happiness——最小割
  6. 使用Gradle整合SpringBoot+Vue.js-开发调试与打包
  7. 99 位职业设计师 99 个设计谏言
  8. js中push和pop的用法
  9. 『ExtJS』01 001. ExtJS 4 类的定义
  10. areas where akka is being deployed into production