仅代表个人看法,不喜勿喷。

The limits of my language means the limits of my world. (Ludwig Wittgenstein)

我的语言的极限意味着我的世界的极限。——维特根斯坦

大语言模型解决的不仅是处理文本相关问题,它带来的是人对世界的理解,或者说让机器可以直接理解人的意图,而不再需要翻译成指邻、代码,而语言本身又隐含了人对世界的理解。从这个角度看,自然语言模型引领AI时代的进步也就不足为奇了。

十年前说这个,可能觉得很科幻吧;三年前,当看到GPT-3生成的驴唇不对马嘴的文章和回答,也只当是个炒作的噱头,一笑了之;最近两个月发布的AI进展真称得上是日新月异了,在这一刻,当ChatGPT仅两个月就月活过亿,那只能说,你可以不变,但阻止不了世界改变。

过分拟合人的想法是对真实世界的扭曲

图片来自 GPT-4 论文[1],对比了预训练模型和使用强化学习调优后模型预测的分布。可以看到,没调前(左图)和真实分布基本是一致的:世界是什么样,模型就学成了什么样;学习调优反而不一致了。强化学习的目标是让AI的回答更符合人的提问意图,以及去除毒性(数据中的偏见、攻击性)。
数据也是人生成的,也有鸡汤,也有漫骂,所以…… 当有一天,我们看到世界的全貌,会怎么样?

你想要的答案到底是什么

探讨来自谷歌2022年初探讨聊天机器人的论文LaMDA[2],论文从三方面评估聊天机器人的回答质量:

  • sensibleness:文本是否合理,跟历史对话是否有冲突(靠谱)
    瞎编乱造,前后矛盾肯定是不行的,回答最好还能有理有据。
  • Specificity:对于提问是否有针对性,避免笼统回复(有用)
    比如你问AI,这电影怎么样?它回答“不错”,这就等于没说,你需要告诉好在哪。
  • Interestingness:文本是否能引起人的注意或者好奇,是否是超出期待的巧妙回复(有趣)
    最好还能带来启发,满足情绪上的一些需求。
    (三者权重不同)
    从某个角度上讲,这也是我们对人的期许,逐层渐进。是不是觉得有点像:找男朋友的筛选标准?

多闻和推理需要不同的训练途径

实验来自DeepMind(发明AlphaGo的公司)在2021年12月发布的一篇论文:Gopher[3]
任何学术科目,连同一般知识,通过改进模型规模都能提升其效果,但规模对逻辑推理、常识和数学任务的好处较少。
最近一两年,出现的一些针对逻辑推理的训练方法,比如 CoT:Chain-of-Thought思想链,主要指模型的多步推理能力,以解决更为复杂的问题。

Google的PaLM论文[4]里,有很多推理示例,比如下面这个推理示例:

用户输入:迈克尔在法国那个非常有名的博物馆里看它最著名的画作。然而,创作这幅画的艺术家恰恰让迈克尔想起了他小时候最喜欢的卡通人物。卡通人物平时手里拿的东西是哪个国家的?

模型输出:卢浮宫最著名的画作是蒙娜丽莎。制作蒙娜丽莎的艺术家是达芬奇。 Leonardo da Vinci 也是卡通忍者神龟中主角的名字。列奥纳多·达·芬奇来自意大利。列奥纳多·达·芬奇平时手里拿着的东西是武士刀。武士刀的原产国是日本。答案是“日本”。

读万卷书

来自DeepMind在2022年3月发布的论文Chinchillla[5],它针对训练数据量,模型参数量,以及数据训练量进行实验,得出一些结论:

  • 更长的训练时间,更多token,能提升模型效果
    学习更多的知识和更多训练更为重要
  • 大模型的参数量和性能之间存在幂律分布
    学到一定程度之后,进步就越来越慢了
  • 训练时token越多,模型效果越好
    作者认为模型的大小与训练token量应等比增加。
    从这个角度出发,作者将模型从280B参数降到了70G,用更多token训练模型,模型效果没有下降,反而还有些提升。
    从人的角度看,不需要太过纠结于拟合当前的知识和存储量,更重要的是扩展知识面,另外应该多“思考”。

行万里路

众所周知,GPT-3.5没有相关论文,而GPT-4的论文[1]主要介绍了模型效果,而没有具体实验的技术和模型细节。
从实验来看在MMLU测试中,之前模型通过种种优化,一般都在70分左右,最好也只有75分,而GPT-4达到了86.4分,其中强化学习功不可没。

GPT-3.5说它的结构与InstructGPT(2022-03)[6]一致,而InstructGPT主要的进步就是:RLHF(基于人类反馈的强化学习),它与之前的有监督学习和无监督学习不同的是通过模拟环境下试错,拥有了更长远的“眼光”。
当然,这个阶段的AI也不可能一家独大,最近发布的基于Meta的LLaMA[7]模型优化的经济型模型 ColossalChat[8] 也使用了 RLHF(基于人类反馈的强化学习)已经开源并且开放了几乎是即下即用的github下载,听说前两天发布的 Dolly[9] 单机模型效果也很好。

知识的互通性

当机器听得懂人话,不再用程序员翻译,更进一步还能听得懂声音,看得懂图片,视频,智力题…… 输出也不限于文字回答,还可能是图片,代码,拆解的方案,推理的步骤。从LLM(大语言模型)到MLLMs(多模态大语言模型)的概念提出之后,又扩展了LLM的用途。所有可说,不可说,无法用语言描述的规律……
23年3月发布了很多ChatGPT周边的应用,比如微软的Visual ChatGPT[10],自身没有训练大模型,只调用现有的图像处理和自然语言模型就实现了很好的带图像的聊天功能,微软的Kosmos-1[11] 结合图像和语言的大模型在智力题,直接识图方面能力也很强。

关于版权

很多训练数据和评测都是公开的,而训练大模型时一般多数数据来自互联网,因此其产出的回答版权归谁,还真不好说。巨头可以不公开模型结构,训练细节,这都是公司的产权,可以不对外开放,但是从互联网上学到的知识训练出的模型,生成的答案,这个版权就不好说了,不止是语言模型,大多数生成模型可能都会遇到这个问题。

一些想法

如果说前两次工业革命解放了人的体力,那么信息和AI就可能解放人的脑力,生产力的变化也会引起社会形态的变化。有点迷茫,忽然想到《双城记》:

这是最好的时代,这是最坏的时代,这是智慧的年代,这是愚蠢的年代;这是信仰的时期,这是怀疑的时期;这是光明的季节,这是黑暗的季节;这是希望之春,这是失望之冬;人们面前应有尽有,人们面前一无所有;人们正踏上天堂之路,人们正走向地狱之门。

参考引用

1 GPT-4 Technical Report
2 LaMDA: Language Models for Dialog Applications
3 Scaling Language Models: Methods, Analysis & Insights from Training Gopher
4 PaLM: Scaling Language Modeling with Pathways
5 Training Compute-Optimal Large Language Models
6 Training language models to follow instructions with human feedback
7 LLaMA: Open and Efficient Foundation Language Models
8 ColossalChat github
9 Dolly download addr
10 Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models
11 Language Is Not All You Need: Aligning Perception with Language Models

大语言模型带来的一些启发相关推荐

  1. 探索大语言模型垂直化训练技术和应用-陈运文

    内容来源:ChatGPT 及大模型专题研讨会 分享嘉宾:达观数据董事长兼CEO 陈运文博士 分享主题:<探索大语言模型垂直化训练技术和应用> 转载自CSDN稿件 本文整理自 3月11日 & ...

  2. AI:大力出奇迹?Bigger is better?AI下一代浪潮?—人工智能的大语言模型(LLMs)的简介、发展以及未来趋势

    AI:大力出奇迹?Bigger is better?AI下一代浪潮?-人工智能的大语言模型(LLMs)的简介.发展以及未来趋势 目录 人工智能的大语言模型(LLMs)-AI下一代浪潮?Bigger i ...

  3. 【PaLM2】PaLM2 大语言模型与 Bard 使用体验

    欢迎关注[youcans的学习笔记]原创作品,火热更新中 [Google I/O 2023]PaLM2 大语言模型与 Bard 使用体验 1. PaLM2 大型语言模型 1.1 谷歌发布 PaLM2 ...

  4. 大语言模型将如何影响软件开发?

    当人人具备编写代码的能力之后,这将会给软件生产和分配带来哪些结构性的变化? 原文链接:https://www.geoffreylitt.com/2023/03/25/llm-end-user-prog ...

  5. 谷歌FLAN-T5作者亲讲:5400亿参数,1800个任务,如何实现大语言模型“自我改进”...

    2021年,谷歌的研究者们提出了FLAN大模型,其基于Instruction Tuning的方式,极大地提升了大语言模型的理解能力.同时,各种Prompting方法的涌现预示着针对大模型的下游微调将成 ...

  6. NLP领域大语言模型汇总

    目录 1.OpenAI ChatGPT GPT4 2.清华大语言模型 GLM-130B 千亿基座模型 3.Meta-LLaMA LLaMA 4.百度 文心一言 5.Google PaLM API Pa ...

  7. 张俊林:由ChatGPT反思大语言模型(LLM)的技术精要(2)

    原文:张俊林:由ChatGPT反思大语言模型(LLM)的技术精要(2) 02 学习者:从无尽数据到海量知识 从目前研究结果看,Transformer是足够强大的特征抽取器,尚不需要做特别的改进.那么通 ...

  8. ChatGPT 类大语言模型为什么会带来“神奇”的涌现能力?

    作者 | 张俊林    责编 | 王子彧 出品 | CSDN(ID:CSDNnews) 如今,大语言模型已经彻底改变了自然语言处理 (NLP)的研发现状.众所周知,增加语言模型的规模能够为一系列下游 ...

  9. 优酷回应非会员收看3000秒广告;亚马逊推出Titan大语言模型;Android 14首个Beta版本释出 | 极客头条

    「极客头条」-- 技术人员的新闻圈! CSDN 的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧. 整理 | 苏宓 出品 | CSDN(ID:CSDNnews) ...

最新文章

  1. 50万奖金+京东数科offer,JDD-2018全球总决赛冠军诞生
  2. log4j.properties配置详解与实例
  3. 设计模式-依赖倒置-Dependency Inversion Principle
  4. LOOPS HDU - 3853(概率dp,期望)
  5. 板框导入_板框结构导入有问题?这几个问题最常见,附解决方法!
  6. Beyond Compare 出现“这个许可证密钥已被撤销”的解决办法(不会删除记录)
  7. AIX系统root用户密码忘记
  8. selenium+unittest自动化测试(二)---浏览器控制及元素定位的方法
  9. 【译】Vue 的小奇技(第七篇):在 vue-multiselect 基础上创建 ImageSelect 组件
  10. 16kb等于多少b_面试官:MySQL索引为何选择B+树?
  11. C++RAII惯用法:C++资源管理的利器
  12. java面试题框架篇
  13. win10多合一原版系统_如何制作Win10多合一系统安装盘
  14. 解决Kaggle新用户注册无法弹出验证提示的问题
  15. 《C语言及程序设计》实践参考——定期存款利息计算器
  16. Sqoop 是什么?Sqoop 有什么特点?
  17. HP路由器和交换机日志分析
  18. Win7IE浏览器登录ASP.NET Web站点闪退
  19. c语言怎样将程序转化为软件,怎么才能将C程序转化为arduino程序
  20. 免费开源HC小区物业管理系统

热门文章

  1. Redis(四)(主从复制-搭建环境测试,哨兵模式-测试,缓存穿透,缓存击穿,缓存雪崩)
  2. AUTOSAR成长之路
  3. sql中什么时候用内连接查询,什么时候用外连接查询
  4. 数据结构猜字谜游戏(Java语言编写)
  5. [内功修神]MySQL高级
  6. 现在的时代不是互联网时代的延续,因为其底层逻辑已经改变
  7. html单元格颜色填充颜色,PPT表格中的单元格怎么填充颜色
  8. 零基础学 Go 语言(41):Go 读文件的七种方法
  9. 利用JS响应式修改vue实现页面的input赋值
  10. vue 使用 AIlabel 标注组件