本文转自开源中国

这几天轰动硅谷的 GPT-3 是什么来头?

相信不太了解 AI 的朋友这几天也或多或少看到了一些关于 GPT-3 的重磅消息,甚至有媒体称其为 “继比特币之后又一个轰动全球的现象级新技术”。

请注意,现在站在你面前的是:互联网原子弹,人工智能界的卡丽熙,算力吞噬者,黄仁勋的新 KPI ,下岗工人制造机,幼年期的天网 —— 最先进的 AI 语言模型 GPT-3。

1750 亿参数组成的训练模型

言归正传,OpenAI 的研究人员在上个月发表了一篇论文,描述了 GPT-3 的开发,正式发布了这个由 1750 亿个参数组成的 AI 语言模型。

在 NLP 领域中,通常采用 ELMo 算法的思想,即通过在大量的语料上预训练语言模型,然后再将预训练好的模型迁移到具体的下游NLP任务,从而提高模型的能力。GPT 模型是 OpenAI 在 2018 年提出的一种新的 ELMo 算法模型,该模型在预训练模型的基础上,只需要做一些微调即可直接迁移到各种 NLP 任务中,因此具有很强的业务迁移能力。

GPT 模型主要包含两个阶段。第一个阶段,先利用大量未标注的语料预训练一个语言模型,接着,在第二个阶段对预训练好的语言模型进行微改,将其迁移到各种有监督的 NLP 任务,并对参数进行 fine-tuning。

简而言之,在算法固定的情况下,预训练模型使用的训练材料越多,则训练好的模型任务完成准确率也就越高。

那么 1750 亿是什么概念?曾有人开玩笑说,“要想提高 AI 的准确率,让它把所有的测试数据都记下来不就行了?” 没想到如今真有人奔着这个目标去做了……

在 GPT-3 之前,最大的 AI 语言模型是微软在今年 2 月推出的 Turing NLG,当时拥有 170 亿参数的 Turing NLG 已经标榜是第二名 Megatron-LM 的两倍。没错,仅短短 5 个月的时间,GPT-3 就将头号玩家的参数提高了 10 倍!Nivdia 的黄老板看了看年初刚画的产品算力曲线,发现事情并不简单。

OpenAI 曾于 2019 年初发布 GPT-2,这一基于 Transformer 的大型语言模型共包含 15 亿参数、在一个 800 万网页数据集上训练而成,这在当时就已经引起了不小的轰动。整个 2019 年,GPT-2 都是 NLP 界最耀眼的明星之一,与 BERT、Transformer XL、XLNet 等大型自然语言处理模型轮番在各大自然语言处理任务排行榜上刷新最佳纪录。而 GPT-2 得益于其稳定、优异的性能在业界独领风骚。

而 GPT-3 的参数量足足是 GPT-2 的 116 倍,实现了对整个 2019 年的所有大型自然语言处理模型的降维打击。

算力杀手

GPT-3 的论文长达 72 页,作者多达 31 人。来自 OpenAI、约翰霍普金斯大学的 Dario Amodei 等研究人员证明了在 GPT-3 中,对于所有任务,模型无需进行任何梯度更新或微调,而仅通过与模型的文本交互指定任务和少量示例即可获得很好的效果。

GPT-3 在许多 NLP 数据集上均具有出色的性能,包括翻译、问答和文本填空任务,这还包括一些需要即时推理或领域适应的任务,例如给一句话中的单词替换成同义词,或执行 3 位数的数学运算。

当然,GPT-3 也可以生成新闻报道,普通人很难将其生成的新闻报道与人类写的区分开来。是不是细思极恐?

通常来说,自然语言处理任务的范围从生成新闻报道到语言翻译,再到回答标准化的测试问题。那么训练这个庞然大物需要消耗多少资源呢?

OpenAI 方面表示: “我们在 cuDNN 加速的 PyTorch 深度学习框架上训练所有AI模型。每个模型的精确架构参数都是基于 GPU 的模型布局中的计算效率和负载平衡来选择的。所有模型都在微软提供的高带宽集群中的 NVIDIA V100 GPU 上进行训练。”

根据微软早前公布的信息,我们发现微软给 OpenAI 提供的这台超级计算机是一个统一的系统,该系统拥有超过 285000 个 CPU 核心,10000 个 GPU 和每秒 400G 的网络,是一台排名全球前 5 的超级计算机。

GPT-3 就是在微软这霸道的 “无限算力” 加持下诞生的,据悉其训练成本约为 1200 万美元。

有什么用?

既然训练 GPT-3 需要如此苛刻的超级环境,民间的什么 2080 Ti、线程撕裂者等家用级设备自然都是弟弟,那么我们普通用户要怎么来用这个玩意儿呢?

目前,OpenAI 开放了少量 GPT-3 的 API 测试资格,商业公司、研究学者和个人开发者都可以申请,获得资格的用户可以通过远程调用的方式体验 GPT-3 的强大。当然,这个资格并不容易拿到……

在国外,“ 拿到 GPT-3 测试资格 ” 已经成为了一个“炫富”的新梗……

当然也有早期成功抢到测试资格的用户。因为 GPT-3 是一个史无前例的庞大语言模型,所以几乎所有可以用文字表达的工作它都能胜任,你可以指导它回答问题、写文章、写诗歌、甚至写代码。

首先来看最基本的语言表达功能,下面是网友用 GPT-3 开发的自动回复邮件工具,只需要输入几个简要的回复关键词,GPT-3 就能自动生成一篇文笔流畅的回复邮件:

更深入一些,下面这位名叫 yash 的网友用 GPT-3 开发了一个 Python 驱动的财务报表,它可以将日常语言转换成 Python 代码来创建资产负载表:输入“我今天投入了两万美元”、“后三个月的房租预付了 900 美元”这样的自然语言,程序就能自动修改资产负债表上相应的项目数值。

网友 Faraar Nishtar 调用 GPT-3 写了一个小工具,能直接输入自然文字生成他想要的 SQL 查询代码:

网友 Sharif Shameem 开发出了一个新产品 Debuild。这是一个调用了 GPT-3 API 的网页 app 快速生成器,在输入框里用自然语言进行描述,它就可以快速输出你想要的用户界面,比如输入“生成一个像西瓜一样的按钮”:

对于产品经理或前端设计师,只需要在设计软件 Figma 中加入 GPT-3 插件,就可以打字生成你想要的前端效果:

也有开发者给 GPT-3 做了图灵测试,结果发现它的回答很有意思:

“如果在十年前用同样的问题做测试,我会认为答题者一定是人。现在,我们不能再以为 AI 回答不了常识性的问题了。”

古人云,“熟读唐诗三百首,不会作诗也会吟。” 从人类历史到软件代码,庞大的 GPT-3 模型囊括了互联网中很大一部分用文字记录下来的人类文明,这些记录造就了其强大的文字任务处理能力。

AI 语言模型参数量级近年来呈指数倍发展,随着在摩尔定律下人类设备算力的提升,在未来的某一天,或许真的将会出现一个无限接近熟读人类历史所有文明记录的超级模型,届时是否会诞生出一个真正的人工智能呢?

最后引用神经网络之父、图灵奖获得者 Geoffrey Hinton 早前对 GPT-3 的一番评论:

“鉴于 GPT-3 在未来的惊人前景,可以得出结论:生命、宇宙和万物的答案,就只是 4.398 万亿个参数而已。”

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

“万物就只是5万亿个参数”,AI模型GPT-3让人怀疑人生相关推荐

  1. 《AI系统周刊》第5期:Cerebras发布可运行120万亿参数AI模型的CS-2芯片

    No.05 智源社区 AI系统组 A I 系  统 研究 观点 资源 活动 关于周刊 AI系统是当前人工智能领域极具现实意义与前瞻性的研究热点之一,为了帮助研究与工程人员了解这一领域的进展和资讯,我们 ...

  2. 全球第二家 亚马逊“喜提”万亿美金市值 AI或是最大功臣

    亚马逊创始人杰夫·贝佐斯(Jeff Bezos) 来源:网易智能 摘要:9月5日消息,美国当地时间周二,全球电商巨头亚马逊(Amazon)股价一度触及史上最高点,促使亚马逊市值短暂达到1万亿美元. 不 ...

  3. 如何基于MindSpore实现万亿级参数模型算法?

    摘要:近来,增大模型规模成为了提升模型性能的主要手段.特别是NLP领域的自监督预训练语言模型,规模越来越大,从GPT3的1750亿参数,到Switch Transformer的16000亿参数,又是一 ...

  4. 微软开源深度学习优化库 DeepSpeed,可训练 1000 亿参数的模型

    人工智能的最新趋势是,更大的自然语言模型可以提供更好的准确性,但是由于成本.时间和代码集成的障碍,较大的模型难以训练.微软日前开源了一个深度学习优化库 DeepSpeed,通过提高规模.速度.可用性并 ...

  5. 512张GPU炼出10万亿参数巨模型!5个月后达摩院模型再升级,今年双十一已经用上了...

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 博雯 发自 凹非寺 量子位 报道 | 公众号 QbitAI 超大规模 ...

  6. 《预训练周刊》第28期:M6-10T:高效多万亿参数预训练的共享去链接范式、大模型自然语言处理的最新进展综述...

    No.28 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 本期周刊,我们选择了11篇预训练相关的论文,涉及模型训练.图像编码.气候文本.对比学习.文本生成评估.小样本学习.决策推理 ...

  7. 模型越大,真的越香吗?千亿参数之后是万亿,万亿之后呢?

    ‍ ‍ 智源导读:自2018年谷歌提出BERT模型以来,以BERT.GPT等为代表的模型越来越往「大」这一方向发展,短短3年时间,模型参数已经从最初3亿,扩张到万亿规模.与此同时,以T5.GPT-3等 ...

  8. 专访唐杰:万亿参数大模型只是一个开始

    机器之心原创 作者:闻菲 智源悟道团队不仅会在「大」这条路上走下去,还将对构建「神经-符号结合模型」进行更深入和底层的探索. 图灵写于 1950 年的论述<计算机器与智能>被誉为人工智能的 ...

  9. 1.75万亿参数,刚刚智源发布了全球最大预训练模型“悟道2.0”

    中国的AI内行顶级盛会--2021北京智源大会又来了. 每年的智源大会参会阵容都非常豪华,今年也不例外,包括Yoshua Bengio.David Patterson两位图灵奖得主在内的200多位学者 ...

最新文章

  1. SpringBoot mybatis 输出SQL语句到控制台
  2. 归并排序(转载http://www.cnblogs.com/jillzhang/archive/2007/09/16/894936.html)
  3. WebForm实现增删改查
  4. iOS - UITableViewCell Custom Selection Style Color
  5. ATL服务器:用 Visual C++创建的高性能的Web应用程序和XML Web 服务
  6. 浅谈如何防范电池事故
  7. System.InvalidOperationException:“未在本地计算机上注册“Microsoft.ACE.OLEDB.12.0”提供程序
  8. Linux 系统上出现^H
  9. 对CloseHandle用法的理解
  10. gateway动态路由_微服务与网关技术(SIA-GateWay)
  11. 中兴3G模块 MU301
  12. 全面Severless化只需7天!看南瓜电影的云上极速升级
  13. 教程——sumolympics
  14. 应用商店应用计算机,应用市场电脑版
  15. 斗战神单机版正在连接服务器,斗战神单机版完整
  16. ABBYY15Mac最新版OCR文字识别软件
  17. hexo+github/gitee
  18. 真正的高手,都懂得构建自己的知识体系
  19. Windows程式开发设计指南(十五)与装置无关的点阵图
  20. splay的一些操作

热门文章

  1. 机器学习 | 数据从哪里找?手把手教你构建数据集
  2. 闽江夜话:聆听清华之声,畅聊数字中国的未来
  3. 数据蒋堂 | 倍增分段技术
  4. 一句话总结英国新规:不欢迎AI专业的中国留学生、学者与研究员
  5. 华人首位!清华学子尤洋 荣升新加坡国立大学“校长青年教授”
  6. 最新!QS发布2021亚洲大学排行榜!清华第二,浙大、复旦力压北大
  7. NeurIPS 2020论文接收大排行!谷歌169篇第一、斯坦福第二、清华国内第一
  8. SAP医药医疗行业解决方案
  9. SAP PM 初级系列9 - 定义功能位置的安装
  10. SAP PM 后台配置TCODE