OpenAI CEO 在美国国会首秀:回应对 AI 的一切质疑,主动要求接受监管!
整理 | 屠敏
出品 | CSDN(ID:CSDNnews)
从最初只有十来个人的小团队,到如今的 300 人;从起步拿到 10 亿美元启动资金,到创造了估值约为 300 亿美元的 AI 独角兽“神话”,OpenAI 用 GPT 系列、Whisper、DALL-E 2 不仅打开了 AIGC 的新大门,也让自己在 AI 领域站稳了脚步。
然而,正所谓树大招风,因为在 AI 法律法规、规范标准还不完善的情况下,技术先行引发了很多部门以及竞争者的关注。
5 月 16 日,OpenAI CEO Sam Altman、IBM 首席隐私与信任官 Christina Montgomery、纽约大学名誉教授 Gary Marcus 三人在美国参议院就各自公司与机构制造的人工智能技术存在的潜在危险进行作证,唇枪舌战。
好在与以往科技大佬站在听证会上“腥风血雨”的场景不同,Sam Altman 等人参加的这一场听证会竟意外地“和谐”,甚至 Sam Altman 反向敦促立法者早日对 AI 实现监管,为 OpenAI 的 GPT-4 等先进人工智能系统的组织实施许可要求和其他法规。
此外,Sam Altman 在准备的证词中也进一步解释了外界对于 OpenAI、AI 大模型的部分争议与潜在担忧,回应有关 AI 研发与立场的疑问。
表明立场:关于 OpenAI 公司独立性
OpenAI 是一个完全独立的公司,AGI 技术专利由非营利组织管理。
其实自 OpenAI 爆火以来,其一直处于风口浪尖,甚至此前马斯克曾直言怒批,「OpenAI 闭源且逐利由微软实际掌控」。
针对这一质疑,马斯克在证词中再次声明,创建于 2015 年的 OpenAl,旨在确保人工智能(AGl)惠及全人类。
Sam Altman 表示,OpenAl 内部有一个不同寻常的结构,以确保它始终专注于这一长期使命:
首先,OpenAI 结构中的主要实体是其非营利组织,它是一个 501(C)(3) 公益组织。
第二,OpenAI 的营利性业务受到利润上限的限制,并在一个由非营利组织完全控制的子公司之下。
第三,因为董事会是为非营利组织服务的,所以每个董事必须履行他们的受托责任,以促进其使命——安全 AGI 能够普惠众人。虽然营利性子公司被允许赚取和分配利润,但它必须服从这一使命,非营利组织的主要受益者是人类,而不是开放性投资者。
第四,董事会保持大多数人的独立性。独立董事不持有 OpenAl 的股权。
第五,投资者和员工的利润是由具有约束力的法律承诺所限定的。非营利组织为人类的利益保留所有的剩余价值。
Sam Altman 称,这种结构使 OpenAI 能够优先考虑安全和有益的 AI 开发,同时帮助其获得必要的资本来开发越来越强大的 AI 模型。
例如,在今年 1 月份,微软宣布对 OpenAl 进行多年、数十亿美元的投资,这是继 2019 年和 2021 年的投资之后的又一次投资。这项投资为 OpenAl 提供了必要的资本和先进的超级计算基础设施,以开发、测试和改进他们的技术。
微软是 OpenAl 的一个重要投资者,OpenAI 重视他们与自家公司的价值观和长期愿景的独特结合,包括微软对建立值得信赖和安全的 AI 系统和产品的共同承诺。
同时。OpenAl 仍然是一个完全独立的公司,由 OpenAl 非营利组织管理。微软在董事会中没有席位,也不控制 OpenAl。此外。AGl 的技术专利明确地保留给非营利组织来管理。
报告进展:未来 6 个月没有训练 GPT-5 的计划
在证词中,Sam Altman 说道,“从根本上说,目前这一代的语言模型是大规模的统计预测机器--当模型得到一个人的请求时,它试图预测一个可能的反应。这些模型的操作类似于现代智能手机、电子邮件或文字处理软件的自动完成功能,但规模更大、更复杂。利用这一技术的变种,Al 工具也能够学习图像和文本描述之间的统计关系,然后根据自然语言输入生成新的图像。”
截至目前,OpenAI 已经发布了 GPT-2、GPT-3、ChatGPT、GPT-4、DALL-E 等多款产品。
与此同时,Sam Altman 在听证会上再次保证:未来六个月,OpenAI 没有训练 GPT-5 的计划。
只因为,先要暂缓进度,自愿改进可能存在的问题。
坦言问题:AI 技术“可能会出错”
那么究竟存在什么问题?
根据 Sam Altman 的说法,在发布每个新版本的模型之前,OpenAl 都会进行广泛的测试,让外部专家参与反馈,利用人类反馈强化学习(RLHF)等技术改进模型的行为,并通过安全和检测系统检测。
以最新发布的 GPT-4 为例,OpenAI 在评估、测试和改进该系统环节累计花费了 6 个月的时间,最后才对外公开。
其中,OpenAI 走的每一步,都制定了缓解措施。譬如对用于训练模型的数据进行调整,即所谓的预训练阶段。在预训练阶段之后,OpenAI 塑造 GPT-4 行为的主要方法是让人们对模型的反应提供反馈,以帮助模型以更安全和更有用的方式作出反应。另外,模型也会尝试拒绝有害的请求,并在面对敏感请求时作出更适当的反应。当被要求生成不允许的内容(如官方的使用政策所定义的)时,GPT-4 有 99% 以上的时间拒绝这样做。
不过,Sam Altman 也坦言,「我们努力在部署前了解和预防风险。然而,我们无法预测技术的每一次都是有益使用、或潜在滥用。这在很大程度上是因为这些系统仍然是由人指挥的。」
拒绝一刀切:暂停 AI 开发不现实
事实上,人为 AI 模型带来了极大的不确定性。
因为这些潜在的问题,就在今年 3 月,非营利性的 "生命的未来研究所 "(Future of Life Institute)发出一封公开信,强烈呼吁:暂停训练比 GPT-4 更强大的系统,期限为六个月,理由是这些模型对社会和人类存在潜在风险。
该公开信指出,如果这种暂停不能迅速实施,政府应该介入并制定暂停令。
其中图灵奖得主 Yoshua Bengio、伯克利计算机科学教授 Stuart Russell、特斯拉 CEO 埃隆·马斯克等数千名 AI 专家公开支持了这一封信。
在这场听证会上,Altman 表示,迭代发布更好,因为 "去秘密建立一个超级强大的人工智能系统,然后把它一下子扔到世界上,我认为不会有好结果。"
"我们战略的很大一部分是在这些系统相对较弱和极不完善的时候,想办法让人们对它们有经验......并弄清楚我们需要做什么来使它更安全和更好," Altman 说道。
对此,参议院司法小组委员会主席 Richard Blumenthal 要求道,"应该要求人工智能公司测试他们的系统,披露已知的风险,并允许独立研究人员进入。"
他说:"在有些地方,人工智能的风险是如此之大,以至于我们应该施加限制,甚至禁止它们的使用,特别是当涉及到为营利而进行的商业侵犯隐私以及影响人们生活的决定时。"
给出建议:由政府出面,建立新监管机构
当然,要说 Sam Altman 这一次能够在美国国会上应对自如,不仅仅是因为其「社牛」的社交风格,更是因为他做好了充足的准备。
“我们认为政府的监管干预对于减轻日益强大的模型的风险至关重要,”Altman 率先分享了他的想法。
其次,在点名要与政府机构合作之后,Sam Altman 迅速给出了三个合作方向:
首先,至关重要的是,AI 公司--特别是那些致力于最强大的模型的公司--要遵守一套适当的安全要求,包括在发布和公布评估结果之前进行内部和外部测试。为了确保这一点,美国政府应该考虑对开发和发布超过关键能力门槛的 AI 模型进行许可或注册要求,以及对完全遵守这些要求的公司进行奖励。
第二,AI 是一个复杂和快速发展的领域。AI 公司必须满足的安全要求必须有一个足够灵活的管理制度,以适应新的技术发展。美国政府应考虑促进多利益相关方的合作,广泛纳入专家和组织的意见,以制定和定期更新适当的安全标准、评估要求、披露做法以及需要许可或注册的 AI 系统的外部验证机制。
第三,OpenAI 并不是在独自开发这项技术。政策制定者必须考虑如何在全球范围内实施许可条例,并确保在 AI 安全方面的国际合作,包括审查潜在的政府间监督机制和标准制定。
最后,Altman 表示,“现在是从事 Al 技术工作的一个重要时期。六个月前,没有人听说过 ChatGPT。现在,ChatGPT 是一个家喻户晓的名字,人们正从它那里获得重要的好处。我们也明白,人们理所当然地对 Al 技术感到焦虑。我们非常认真地对待这项技术的风险,并将在未来继续这样做。我们相信,政府和行业能够共同管理风险,以便我们都能享受巨大的潜力。”
Altman 的立场无疑也表明,AI 大模型不能由某个企业、组织来主导,而是要有合规的标准加以束缚,当然,这也是国内外 AI 发展都需要的。
参考:
https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf
https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/
推荐阅读:
▶百度云首次实现季度盈利;OpenAI 或将发布新的开源语言模型;苹果已注册 xrOS 系统商标|极客头条
▶“一晃 20 年,原来我所做的一切都是技术债务,你也一样……”
▶当 AI 冲击自动化编程,谁将成为受益者?
OpenAI CEO 在美国国会首秀:回应对 AI 的一切质疑,主动要求接受监管!相关推荐
- 互联网晚报 | 小黄车ofo创始人戴威赴美创业;格力员工称孟羽童考勤异常率超80%;OpenAI CEO在美国国会作证...
小黄车ofo创始人戴威赴美创业:注册用户免费喝咖啡 小黄车ofo创始人戴威再次开始创业,这次选在了美国.知情人士透露,自新冠 疫情以来,戴威一直在中国和美国之间穿梭,先是在西雅图开了一家充电宝租赁创业 ...
- OpenAI CEO认为LLM接近规模极限,AI技术路在何方?
最近,OpenAI联合创始人兼CEO Sam Altman在麻省理工学院"想象力行动"活动上谈到了大语言模型(LLM)的发展趋势和安全问题.OpenAI的CEO Sam Altma ...
- OpenAI CEO亮相“AI春晚”,与张宏江隔空问答:10年内会有超强AI
<AI未来指北>栏目由腾讯新闻推出,邀约全球业内专家.创业者.投资人,探讨AI领域的技术发展.商业模式.应用场景.及治理挑战. 文 / 腾讯科技 苏扬 .郝博阳 凭借ChatGPT走红的O ...
- 谷歌前CEO:美国科技优势面临最危险时刻
文章来源:VOA,2021-03-28 ,不代表本平台立场 图片来源:GETTY IMAGES.知乎.网络等 编辑:阿丽西娅 中国在人工智能(AI)发展的多项指标上直逼美国优势,有些领域甚至已经实现超 ...
- 马斯克爆料Twitter裁了八成员工;OpenAI CEO:GPT-5根本不存在;小鹏被曝年终奖打0.5折 | AI一周资讯
来源: AI前线 微信号:ai-front 整理 | 凌敏 微软宣布开源 Deep Speed Chat:消息称软银旗下 Arm 启动赴美 IPO:国家网信办出台生成式 AI 管理办法:前理想 AI ...
- AI一分钟 | 美国国会传唤扎克伯格:来,就5000万用户数据泄露案作证;菜鸟无人车路测视频曝光
整理 | 明明 出品 | AI 科技大本营(公众号 ID:rgznai100) 一分钟AI 微软推出新一代语音交互技术,可预测人类即将说的内容 创业公司 Affectiva 发布情感AI软件,可用于汽 ...
- 扎克伯格|在美国国会数据门听证会上的证词-中英文全文
来源:网络法前哨 美国时间2018年4月10日至11日,Facebook公司CEO马克-扎克伯格(Mark Zuckerberg)将在美国国会就"剑桥分析丑闻"作证.4月10日,扎 ...
- 美国国会针对中国的网络间谍行动展开辩论
上个月中旬,美国国会展开了一场试图确定应对中国的网络间谍行为最佳方案的探讨.下面我们就来看看,美国的这些网络安全专家们的言论和思想,评估一下他们的态度. 美国人在会上讨论了一系列可行的反制措施,包括对 ...
- 突发!美国国会发函要求 Facebook 立即停止 Libra 项目
"如果不立即停止该项目的实施,我们将面临一个一旦失败将会引发金融海啸的新体系." 文 | 光谱 屋漏偏逢连夜雨.昨天总部刚发生毒性邮件事件的 Facebook,今天再遭重创. 美国 ...
最新文章
- STM32F103C8T6
- python数据分析第七章实训3_《利用Python进行数据分析·第2版》第7章 数据清洗和准备7.1 处理缺失数据7.2 数据转换7.3 字符串操作7.4 总结...
- OpenJ_Bailian——4115鸣人和佐助(带状态的A*)
- STM32 FreeRTOS USART DMA空闲中断和消息队列的使用
- php获取mysql所有表_PHP获取MySQL数据库里所有表的实现代码
- OpenCV3学习(10.2)codebook码书法实现背景剔除
- matlab中LMI工具箱函数feasp的用法
- c#:winform中多线程的使用
- 2021高值人才职业发展洞察:连接、信任与赋能
- 吃亏的程序员,如何拿到 9 个月的年终奖?
- Black Hat | PE Tree:BlackBerry 发布PE文件开源逆向工具
- matlab2c使用c++实现matlab函数系列教程-sortrows函数
- mariadb配置主从同步遇到的问题
- java 扫描文件_JAVA文件扫描(递归)的实例代码
- java统计系统工具类
- 2012考研数学二第(11)题——链式法则偏导数
- 程序设计C 实验六 结构体 题目四 偷菜时间表
- Premiere CS4无法导出视频
- windows C/C++ 内核对象、事件对象、信号量
- 修改linux系统的时间EDT和EST为CST