永恒是很长的时间,特别是对尽头而言——霍金


2018年3月14日,著名理论物理学家史蒂芬·威廉·霍金去世,享年76岁。

噩耗传来,震惊世界。

在过去的二十年里,除了继续探索宇宙理论,霍金也出现在各种场合,为所有关切人类命运的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:

离开地球,和警惕人工智能。

现在,我们就梳理下霍金通过各种渠道谈论这两个话题的言论。

关于离开地球,早在2011年,霍金在接受美国视频共享网站BigThink访谈时就称,地球将在两百年内毁灭,人类要想活命只能移民外星球。

2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。

这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。(读来恍若隔世)

这样的指数增长,不能持续到下个千年。

到2600年,世界将拥挤得“摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,最好的方法就是移民到太空,探索人类在其他星球上生活的可能。

2017年7月,霍金痛批美国总统特朗普退出气候问题《巴黎协定》的决定,警告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。

在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中。霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。

离开地球,霍金是认真的。

2016年4月12日,霍金在纽约宣布启动“突破射星”计划,将同俄罗斯商人尤里·米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。

除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)

2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”

霍金解释自己的警告时说,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。

2016年10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中,批评了人工智能的无节制发展。

他认为,人工智能技术,的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。

早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:“制造能够思考的机器,无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”

《万物理论》剧照

霍金对人类和科技的未来,也许是悲观的,他并不信任人类真的能控制科技这个怪物。但令人讽刺的是,一旦人类用科技毁掉了这个星球,所能仰赖的也只有科技,才能帮人类在外星球继续繁衍。

斯人已逝,让我们别忘记霍金的预言和警告。

∑编辑 | Gemini

来源 | 澎湃新闻

算法数学之美微信公众号欢迎赐稿

稿件涉及数学、物理、算法、计算机、编程等相关领域
稿件一经采用,我们将奉上稿酬。

投稿邮箱:math_alg@163.com

霍金的遗愿清单:离开地球,警惕人工智能相关推荐

  1. 【热文】为什么比尔盖茨,马斯克、霍金都告诉你:要警惕人工智能(下)

    未来可能是我们最糟的恶梦 我想了解人工智能的一个原因是"坏机器人"总是让我很困惑.那些关于邪恶机器人的电影看起来太不真实,我也没法想象一个人工智能变得危险的真实情况.机器人是我们造 ...

  2. 为何需要警惕人工智能

    来源:知乎 作者:谢熊猫君 我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大 – Vernor Vinge 如果你站在这里,你会是什么感觉? 看上去非常刺激吧?但是你要记住,当你真的站在时间 ...

  3. 为什么有很多名人让人们警惕人工智能?

    为什么要警惕,首先是因为未来是不确定的! 20年前谁会想到互联网 大数据 物联网 云计算 机器学习 深度学习等技术的发展成果,以及目前的弱···人工智能的存在? 就如同今天,谁能预料20年后人工智能更 ...

  4. 比尔盖茨,马斯克、霍金都告诉你:为什么要警惕人工智能(中)

    文章的第一部分讨论了已经在我们日常生活中随处可见的弱人工智能,然后讨论了为什么从弱人工智能到强人工智能是个很大的挑战,然后我们谈到了为什么技术进步的指数级增长表面强人工智能可能并不那么遥远.第一部分的 ...

  5. 为什么比尔盖茨,马斯克、霍金都提醒你:要警惕人工智能?(上)

    人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生. (文章有一点点长,一定要耐心的看呢) 我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大. – Vernor Vin ...

  6. 霍金、盖茨都在警惕人工智能 实则是在自欺欺人?

    据国外媒体报道, 斯蒂芬·霍金曾警告"人工智能完全体的发展可能意味着人类的终结" :伊隆·马斯克担心人工智能的发展可能是人类生存面临的最大威胁:比尔·盖茨则提醒人们要小心人工智能. ...

  7. 真实项目?警惕人工智能培训机构陷阱!!!

    作为一个有过血泪教训,经历过两次培训人工智能经历的,一心要转行AI的人,希望揭露行业存在的陷阱,让更多像我这样的人不要吃了第一次亏才后知后觉,大家一起交流分享学习,避免踩坑! 当你去咨询培训机构,问他 ...

  8. 杂谈:奇点真的临近吗?兼聊AI、区块链、类脑计算、量子计算等

    个人感觉,种种迹象表明,Google的工程总监Ray Kurzweil(雷·库兹维尔)在<奇点临近>这本书所提到的:奇点将出现在2045年,也许会成为现实! 今天我看到一篇文章<El ...

  9. 除了人工智能,霍金还担心“游牧外星人”会摧毁人类

    霍金之前很担心人工智能,现在的烦恼是游牧外星人. 近段时间,斯蒂芬·霍金(Stephen Hawking)的言论或者声明,都很沉重.大约一个月前,他很担心人工智能威胁到人类,甚至成为人类的终结者.我们 ...

最新文章

  1. autoware中lgsvl Simulator安装与使用:LGsvl Simulator 2021.2.1版(九)
  2. 3月13日 抽奖活动
  3. lora发射和接收原理_四个要点,帮你搞定LoRa天线匹配电路
  4. 在Akka中实现主从/网格计算模式
  5. 如何用SQLDMO在ASP.NET页面下实现数据库的备份与恢复
  6. Android 8.0学习(16)---8.0 的Doze模式白名单路径
  7. ubuntu16.04命令行模式和图形界面互相切换
  8. 用shc加密shell脚本
  9. Go语言核心36讲(Go语言实战与应用十九)--学习笔记
  10. 计算机人工智能领域英文文献,人工智能英文参考文献精选
  11. 星空主题设计理念_丰田埃尔法蒙娜丽莎星空版 博眼球设计理念
  12. java iv不是内部命令_java – 解密错误:“no iv set when one expected”
  13. D365 窗体的 Lookup写法
  14. 【c语言】矩阵的创建
  15. vue结合饿了么_vue-饿了么项目总结
  16. 史上最简单的虚拟机搭建软路由+ NAS+家庭媒体中心的白皮书
  17. 赋能IT,创新价值——互联网时代企业IT转型实践
  18. IDA反汇编/反编译静态分析iOS模拟器程序(一)话说IDA
  19. 扎根理论分析软件NVivo原理与技术应用
  20. 与非营利朕亨基金会合作 Keybase将保密通讯软体结合加密货币

热门文章

  1. JAVA格式化同一天时间间隔_java中时间格式化怎么去时间间隔值
  2. 撤销前进快捷键_电脑win7系统的快捷键大全
  3. Modbus协议栈应用实例之四:ModbusTCP服务器应用
  4. word2vector数据集样式_这样做数据可视化驾驶舱,高端大气,一目了然,领导不点赞都难...
  5. bmp文件格式_一次性解决CAD转换成BMP格式图片的问题
  6. Spring事务操作-事务
  7. latex subfigure_latex-图片插入
  8. 三维错切变换矩阵_图像的仿射变换
  9. Java开发中定时器的使用
  10. python中如何编写代码输入多个数据并把它们放在一个列表中去_10分钟学习函数式Python...