就说程序员的手速有多快吧,首个开源ChatGPT项目已经出现了!

基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF),华人小哥Phillip Wang复刻了一个ChatGPT出来。

项目GitHub星已经超过1.7k了,而且还在一路飙升ing。

不过一反常态的是,网友们看到“开源ChatGPT”却没有火速开冲,反倒齐刷刷在发问:

这……有人能run?

开源了但没完全开?

项目的核心内容,是在PaLM架构上实现基于人类反馈的强化学习。

其中,PaLM(Pathways Language Model)是谷歌在今年4月发布的5400亿参数全能大模型,基于Pathways系统训练,BERT之父Jacob Devlin为主要贡献者之一。

PaLM可以完成写代码、聊天、语言理解等任务,并且在大多数任务上实现了SOTA少样本学习性能。

另一个核心点是RLHF“从人类反馈中强化学习”。

OpenAI提出InstructGPT时就用到了这一方法,它能让AI的回答更加符合情景要求,降低“有害性”。

具体分三步:

第一步,找一些人写下示范答案,来微调GPT-3模型,训练监督模型baseline。

第二步,收集某个问题的几组不同输出数据,由人类对几组答案进行排序,在此数据集上训练奖励模型。

第三步,使用RM作为奖励函数,近端策略优化(PPO)算法微调GPT-3策略,以强化学习方法最大化奖励。

ChatGPT使用的GPT-3.5,其中text-davinci-002就是在code-davinci-002的基础上,采用了InstructGPT训练方法改进得到。

正是基于如上两方面核心内容,作者实现了ChatGPT的复刻。

大致步骤有3步:

首先来训练一下PaLM,就和其他自回归Transformer一样。

第二……

等等,训练PaLM???这确定不是在开玩笑?

现在明白为啥大家都觉得这个开源项目完全不能run了……

打个不恰当的比方,这就像如果想吃熊肉,那先自己去打头熊来。

项目中只有PaLM架构和代码,没有预先训练好的权重。

所以完成第一步,大概效果就是……

话虽如此,但还是继续接着往下看看……

第二步,就要训练基于RLHF的奖励模型了。作者使用的是一种轻量级训练大语言模型方法LoRA,这种方法是开源的。

然后,再把之前训练好的模型和奖励模型用强化学习进行微调。

经过这三步后,就能得到一个开源版的ChatGPT了。

这中间面临的问题包括巨大的计算量、超大模型和难收集的文本……所以有人也不免发问:

有没有一种可能,它也没啥用?

不过有网友觉得这本质上还是一件好事啦。

AI的一个关键区别就是,每有一个重大突破,很快就会出现一个开源版本。

实际上,开源项目作者小哥Philip Wang一直都热衷于复刻各种明星项目,过去还尝试过Dall·E 2、AlphaFold 2等。

以及LAION也发起了一个类似项目Open Assistant,他们将通过“众筹脑力”的方式,共同开发一个开源的聊天AI。

Stable Diffusion用的开放数据集,就是这一组织做的。

感兴趣的童鞋不妨去试试看~

PaLM-rlhf-pytorch主页:
https://github.com/lucidrains/PaLM-rlhf-pytorch

Open Assistant主页:
https://github.com/LAION-AI/Open-Assistant

参考链接:
[1]https://twitter.com/rasbt/status/1608133663937495041
[2]https://twitter.com/omarsar0/status/1608143718460055552

首个“开源ChatGPT”来了:基于谷歌5400亿参数大模型,华人小哥出品,网友吐槽:这谁能跑?相关推荐

  1. 【AI周报】谷歌、Meta如何给大模型瘦身?;Meta开放1750亿参数大模型,媲美GPT-3

    01 行业大事件 谷歌.Meta如何给大模型瘦身?谷歌工程师亲述部署秘籍(免费书) 这是一本正在写作的新书,目前前四章已经放出了草稿. 过去几年,GPT-3 等几个大模型展示了大数据.大算力的力量,它 ...

  2. 商汤首付56亿!上海建成亚洲最大AI“发电厂”,万亿参数大模型训练无压力

    梦晨 萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 刚刚,商汤又多了一项"亚洲第一". 就在上海临港,商汤自建的人工智能计算中心(AIDC)交付使用,一举成为亚洲最大的AI ...

  3. 2天训练出15亿参数大模型,国产开源项目力克英伟达Megatron-LM,来自LAMB作者团队...

    鱼羊 明敏 发自 凹非寺 量子位 | 公众号 QbitAI 当今AI之势,影响纵深发展的矛盾是什么? 一方面,大模型风头正劲,效果惊艳,人人都想试试.但另一方面,硬件基础上动不动就是上万张GPU的大规 ...

  4. 重磅!Meta AI开源OPT-175B:1750亿参数大模型

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 本文转载自:机器之心 |  编辑:陈萍 OPT-175B,使人工智能更加开放和可复制. Meta AI 在昨 ...

  5. 清华大学OpenBMB正式开源部署至OpenI启智社区:让大模型飞入千家万户

    近年来,随着预训练语言模型技术引发人工智能领域性能革命,大规模预训练模型技术的成熟标志着"大模型时代"的到来.然而在大模型的具体应用与落地中,却存在着"训练难.微调难.应 ...

  6. 开源高性能 RISC-V 处理器“香山”国际亮相;Apache Log4j 远程代码执行漏洞;DeepMind 拥有 2800 亿参数的模型 | 开源日报

    整理 | 宋彤彤 责编 | 郑丽媛 开源吞噬世界的趋势下,借助开源软件,基于开源协议,任何人都可以得到项目的源代码,加以学习.修改,甚至是重新分发.关注「开源日报」,一文速览国内外今日的开源大事件吧! ...

  7. 够快,首个“开源ChatGPT项目“来了!网友吐槽:这谁能跑

    文|明敏 源|量子位 就说程序员的手速有多快吧,首个开源ChatGPT项目已经出现了! 基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF),华人小哥Phillip Wang ...

  8. 《预训练周刊》第8期:首个千亿中文大模型「盘古」问世、谷歌等提出视频音频文本转换器VATT...

    No.08 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 超大规模预训练模型是当前人工智能领域研究的热点,为了帮助研究与工程人员了解这一领域的进展和资讯,智源社区整理了第8期< ...

  9. 智源研究院:开源开放让AI快速发展,要建设大模型时代的Linux | 中国AIGC产业峰会...

    萧箫 整理自 AIGC峰会 量子位 | 公众号 QbitAI ChatGPT引爆了大模型,也彻底将大模型相关的AI产业生态带到了新的阶段-- 大模型的"涌现能力",让AI真正展现出 ...

最新文章

  1. C++类的静态成员详细讲解
  2. 另一种思考:为什么不选JPA、MyBatis,而选择JDBCTemplate?
  3. nodejs基础学习-文件读取
  4. 得到按钮句柄后如何点集_RepPoint:可形变卷积生成的目标轮廓点集
  5. metaWeblog 相关的参数
  6. 实现Servlet虚拟路径的映射
  7. cisco路由器基本实验之六 CHAP and RIP (Boson NetSim)
  8. MSI Afterburner 官网链接指南
  9. 做数据分析不得不看的书有哪些?
  10. WidsMob ImageConvert for Mac(图片格式转换器)
  11. ps盖印图层在哪里_PS盖印图层快捷键
  12. SAP官方培训课程级别和PA认证介绍
  13. 第一天 游戏策划学习
  14. 【备品备件需求】--入库记录查询增加仓库字段
  15. python精通能赚钱吗_月入3千到月入10万,精通数据分析的人到底有多赚?
  16. Excel技能之实用技巧,高手私藏
  17. 教你如何把一张图片做成一段视频
  18. 点融CTO孔令欣:技术不是最重要的领导力
  19. Linux如何记录运行的Bash命令?
  20. 《MySQL数据库应用技术》

热门文章

  1. C++ ——一文读懂:关键字override
  2. wp10手机不能连接微软服务器,微软更新WP10系统 力证他们没有放弃
  3. DL入门(3):循环神经网络(RNN)
  4. 2021年中式烹调师(中级)考试及中式烹调师(中级)试题及解析
  5. Container峰会议题公开,顶级技术+生产级实践一网打尽
  6. cv2.imwrite()不能成功保存图片
  7. “无法播放视频。很抱歉,无法播放此视频” 错误提示的两个原因
  8. 基于垃圾短信与垃圾邮件的检测以及iphone中siri所使用的IKAnalyzer中文分词技术
  9. python修改电脑密码_python修改远程计算机密码
  10. 笔记本电脑外接显示屏检测不到,黑屏问题。