导读:前些天,据英国媒体报道,美国著名半导体公司英伟达(Nvidia)将以400亿英镑(约520亿美元)收购ARM。双方已进入谈判阶段,预计今年夏末完成交易。

与此同时,Nvidia市值破3000亿美元,相当于AMD和Intel两家之和,成为芯片领域里的大赢家。

2014~2017年,Nvidia(NVDA)的股价上涨了1167%。尽管这一收益是疯狂的,但投资者可能仍低估了这家领先的人工智能公司未来巨大的成长机会。

Nvidia的本质,以及它对计算未来的掌控,都基于人工智能软件。它从初创期以来已经走过了漫长的探索之路:设计尖端芯片,即计算机中的硬件大脑。

作者:乔恩·D.马克曼(Jon D. Markman)

来源:大数据DT(ID:hzdashuju)

01 Nvidia在“深度学习”上押下重注

很久以前,该公司致力于帮助计算机像人类一样观察、思考和学习的数据科学。深度学习,一种基于图形处理单元的人工智能,已经被计算机科学家所广泛接受。世界范围的头部客户的迅速采用推动了公司利润的增长。

人类根据经验做出快速的决定。如果我们在高速公路上行驶,一只虫子正朝挡风玻璃冲去,那么很显然,对虫子来说,这是糟糕的一天(人类可以迅速解决它造成的麻烦)。但是直到最近,计算机才完成了正确处理这个虫子带来的威胁的计算工作,然后再决定采取什么行动。整个识别和行动的过程是复杂的。

这是因为传统的计算机架构是顺序的。深度学习基于一个新的模型,在这个模型中,数十亿个软件神经元和数万亿个神经回路在网络中并行运行。

2011年,Alphabet神秘的Google Brain通过无休止地观看在线视频网站YouTube上的关于猫的视频,学会了如何识别猫和人。这个看似简单的壮举需要2000个中央处理器和谷歌公司庞大的数据中心网络来实现。

后来,斯坦福大学通过使用深度学习(deep learning)和12台Nvidia加速图形处理芯片(Nvidia accelerated GPUs),成功地复制了这个实验。到2015年,谷歌公司和微软公司的研究人员使用深度学习人工智能技术,在图像识别的速度和精度方面居然打败了人类。

Nvidia创始人兼首席执行官黄仁勋(Jen-Hsun Huang)写道:

通过与人工智能开发人员合作,我们继续改进GPU设计、系统架构、编译器和算法,并在短短3年内将深度神经网络的训练速度提高了50倍—远远快于摩尔定律。

黄仁勋对做出这个不寻常的选择很满意。他的公司20年前开始生产高端显卡,这是一种将代码转换成图像的PC硬件。

但从那时起,公司已经走了很长一段创新发展自我变革的路。它的客户大多是游戏玩家,他们需要逼真的图像。因此,黄仁勋推动公司投入巨资进行更好的软件建模。

然后……它命中了热点。Nvidia当时正采用一种全新的计算方法。

它利用人工智能将传统的CPU指令处理与图形处理单元的数据处理相结合。

这个结果并不便宜。据《纽约时报》报道,Nvidia斥资100亿美元开发其GPU计算平台。

考虑到该公司最初的规模,这是一个巨大的赌注。

但这个赌注的结果对深度学习的影响则是巨大的。医疗、生命科学、能源、金融服务、制造业、娱乐业和汽车业的研究人员正以疯狂的速度进行创新。

2017年,特斯拉展示了一款配备Nvidia Drive PX硬件的自动驾驶汽车。这辆车成功地通过了繁忙的住宅区街道、蜿蜒的乡村道路和州际公路,然后在公司门前停下。戴姆勒、奥迪等传统公司也在使用Nvidia提供的神经网络算法来推进它们的自动驾驶平台。

Nvidia最新制造的人工智能计算机Drive PX Pegasus每秒可以进行320万亿次计算。这足以处理相机、激光雷达、超声波和任何其他需要完全自动化的传感器数据。它装在一个饭盒大小的容器里。

难怪出租车、卡车运输和物流公司都吵着要进入人工智能领域。

与此同时,Nvidia正在推出人工智能新产品,占领新市场。

2017年12月,该公司发布了Titan V,这是一个价值3000美元的显卡工作站。然而,它并不是用于图形处理,而是将Nvidia的GPU计算平台扩展到下一代工作站。

投资者应该关注这种前瞻性思维,这就是伟大的公司该做的。

如今,GPU是人工智能领域的标准配置。从大学研究人员到比特币矿工,聪明的程序员正在利用这个平台挑战学习的极限。在这个过程中,Nvidia试图摆脱半导体业务的周期性。

这家公司致力于利用人工智能解决重大问题。

《财富》杂志将黄仁勋评为“2017年度商业人物”。那很酷……但是在这项前沿创新开始十年后才补发的迟到褒奖。

全球IT咨询加德纳公司预测,到2020年,向云计算的迁移将带来1万亿美元的机会。公共云公司Amazon Web Services、微软Azure、谷歌云(Google Cloud)、百度、甲骨文、阿里巴巴和腾讯都在大举投资人工智能。

它们将其视为一种增值服务——一种吸引企业客户的方式。它们想要确保它们覆盖了所有的领域。因此,除了它们自己的基于CPU的人工智能框架,每个公司都热情地支持Nvidia开发的GPU框架。

为了正确看待其数据中心业务的增长势头,可以看到Nvidia在2018财年的销售额为19.3亿美元,在短短3年内增长了3倍。

Titan V将Nvidia价值1万美元的数据中心计算机房上的相同组件带到桌面系统上。这意味着5120个计算核、640个机器学习核、210亿个晶体管和Volta GPU架构。

所有这些加在一起,就形成了一个超越市场的巨大业绩飞跃。

它将允许研究人员和开发人员直接在办公桌上构建人工智能软件模型。更重要的是,它将GPU扩展到更多的应用程序中。

这将有助于Nvidia销售更多硬件,这是一个良性循环。

多年来,我一直在推荐投资者购买Nvidia的股票。最初吸引人的不是公司的人工智能,而是基于它的智能化管理水平。果不其然,该公司后来利用其图形专业知识开发了一种全新的方法来解决复杂的问题。当优势显而易见时,它押下了很大赌注。

这是投资者应该寻找的价值投资的属性。伟大的公司都很专注,它们利用人才。当它们具有很明显的竞争优势的时候,它们就会发起攻击,把竞争对手彻底摧毁。

Nvidia股价的大幅上涨是由坚实的基本面支撑的:2018财年该公司销售额为97.1亿美元,是2009年的2.8倍,所有迹象都表明,未来还会有更多的上涨,因为我相信,该公司将继续为使用GPU的人工智能开发新的应用场景。

02 技术已经成为市场的基石

对我们很多人来说,人工智能是可怕的。我们习惯性地忽略了机器学习像人类一样思考的惊人可能性,因为我们深刻地意识到人类会做很多自我毁灭的事情。大批没有灵魂的电脑将大规模地学习我们所有的坏习惯,这种前景是灾难性的。

事实并非如此。当然,人工智能确实可以用于军事和监视目的。世界仍然是一个危险的地方。我们相信那些保护我们安全的人会利用每一项技术进步,加大对坏人的打击力度,这是有道理的。

然而,许多公司现在正在使用人工智能来制造自动驾驶汽车,设计更安全的基础设施,以及寻找治疗疾病和基因缺陷的方法。解决这些棘手的问题将挽救无数人的生命。

人工智能的商业模式也是无穷无尽的。开放的人工智能平台和云计算将为每个有好主意的人带来大规模的模拟场景和几乎无限的超级计算机处理能力。企业家将能够借此建立新的产品、服务和商业模式,然后在模拟中无休止地测试它们,直到它们正确为止。

Nvidia和Alphabet是全球领先的两家人工智能公司。这两家公司不但经常而且很早就押注人工智能将成为这代人最重要的技术进步。它们赢了。在这个过程中,它们的技术已经成为市场的基石。

Nvidia的深度学习人工智能正被全球所有数据中心奉为圭臬。这意味着在可预见的未来,对其提供的硬件需求将无法满足。

1999年,Alphabet以BackRub确立了自己的市场地位。从某种意义上讲,它首先一直是一家机器学习公司,而包括互联网广告在内的所有其他业务,都只是推动其人工智能研究的实用方式。

我们完全有理由相信,该公司管理层将利用该公司的领先优势,将人工智能引入媒体、房地产开发、社会自治和健康科学,以及所有充满活力的长期业务。

关于作者:乔恩·D·马克曼(Jon D. Markman),一位资深投研分析师、投资组合经理和获奖通讯作者,他是广受欢迎的投研类时事通讯《技术趋势交易者》、《战略优势》和《权力精英》的编辑和创始人。他不仅经常在全国性的会议上、也在电视和广播上谈论这些话题,他还是《福布斯》的长期股权科技投资专栏作家。

本文摘编自《投资未来:重构世界与财富的12大科技投资领域》,经出版方授权发布。

延伸阅读《投资未来》

点击上图了解及购买

转载请联系微信:DoctorData

推荐语:投资未来,理解科技革命所需要的一切,建立在未来科技大潮中乘风破浪的投资组合。

划重点????

干货直达????

  • 6大人工智能应用关键技术,终于有人讲明白了

  • 西安交大送大一新生这本书,你读过吗?12本有趣有料的科普书盘点

  • 终于有人把AI、BI、大数据、数据科学讲明白了

  • 监督学习、非监督学习、强化学习都是什么?终于有人讲明白了

更多精彩????

在公众号对话框输入以下关键词

查看更多优质内容!

PPT | 读书 | 书单 | 硬核 | 干货 讲明白 | 神操作

大数据 | 云计算 | 数据库 | Python | 可视化

AI | 人工智能 | 机器学习 | 深度学习 | NLP

5G | 中台 | 用户画像 1024 | 数学 | 算法 数字孪生

据统计,99%的大咖都完成了这个神操作

????

从CPU到GPU,Nvidia就这样成为AI时代的大赢家相关推荐

  1. 焱融全闪 X NVIDIA InfiniBand:打造 AI 时代 GPU 计算的高性能存储技术

    InfiniBand 技术正在不断创造更高的数据吞吐量记录,目前 200Gbps 网络已经普及,400Gbps 紧随其后.同时,通过 multi-path 技术将多网卡带宽性能聚合.原生支持 RDMA ...

  2. Facebook更新PyTorch 1.1,深度学习CPU抢GPU饭碗?

    在一年一度的开发者大会F8上,Facebook放出PyTorch的1.1版本,直指TensorFlow"腹地". 不仅宣布支持TensorFlow的可视化工具TensorBoard ...

  3. Tensorflow 使用cpu和gpu的区别

    在Tensorflow中使用gpu和cpu是有很大的差别的.在小数据集的情况下,cpu和gpu的性能差别不大.不过在大数据集的情况下,cpu的时间显著增加,而gpu变化并不明显.不过,我的笔记本电脑的 ...

  4. CPU,GPU,GPGPU

    CPU,GPU,GPGPU 1.基本概念 1.1 GPU 图形处理器(bai英语:Graphics Processing Unit,缩写:GPU),又称显示核心.视觉du处理器.zhi显示芯片,是一种 ...

  5. CPU和GPU跑深度学习差别有多大?

    作者:带萝卜 链接:https://www.zhihu.com/question/273812506/answer/1271840613 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商 ...

  6. CPU、GPU、FPGA、ASIC等AI芯片特性及对比

    1.前言 目前,智能驾驶领域在处理深度学习AI算法方面,主要采用GPU.FPGA 等适合并行计算的通用芯片来实现加速.同时有部分芯片企业开始设计专门用于AI算法的ASIC专用芯片,比如谷歌TPU.地平 ...

  7. 服务器cpu_服务器CPU与GPU协同运算加速三巨头竞争

    来源:内容来自「MoneyDJ」,谢谢. 根据DIGITIMES Research分析师翁书婷观察,高速运算需求下,服务器CPU与GPU协同运算趋势将加速NVLink.CCIX(Cache Coher ...

  8. 移动终端CPU、GPU浅析

    探梦方寸间--移动终端:ARM是谁?:CPU.GPU浅析:我们对传统PC市场的CPU如数家珍,英特尔.AM:指令是CPU能听懂的语言,正如人类的语言一样,词:CISC强大高效,RISC简洁容易,这本是 ...

  9. 一部分 数据 迁移_超原版速度110倍,针对PyTorch的CPU到GPU张量迁移工具开源

    加入极市专业CV交流群,与6000+来自腾讯,华为,百度,北大,清华,中科院等名企名校视觉开发者互动交流!更有机会与李开复老师等大牛群内互动! 同时提供每月大咖直播分享.真实项目需求对接.干货资讯汇总 ...

最新文章

  1. 英特尔图形学专家被AMD挖走,研发实时光追技术,从部门主管变成副总裁
  2. Centos7 安装lnmp
  3. Groovy里的setProperty和getProperty重载用法
  4. [转] 移动平台Html5的viewport使用经验
  5. Microsoft photosynth(图片三维展示)
  6. 基因表达聚类分析之初探SOM
  7. mysql学习笔记03 mysql数据类型
  8. 简述数学建模的过程_【数学建模的基本工作流程】作业帮
  9. 函数内联inline
  10. pls-00302: 必须声明 组件_vue组件
  11. 移动手机病毒的进化历程
  12. opera5.6安装完成
  13. pad平板性能测试软件,苹果iPad 2020款评测,最便宜的iPad,性能碾压安卓?
  14. PS修改图片上的文字
  15. C语言中文件指针,文件位置指针,详细解析
  16. excel随机数_excel怎样生成随机数
  17. 中国水墨风的小学学校网站模板
  18. 阿里企业邮箱设置过滤方法
  19. rx7900xt和gtx3090ti差距 rx7900xt和gtx3090ti哪个好
  20. Basketball Dribbling

热门文章

  1. excel模板下载和导入功能
  2. 圆周率for python
  3. 中国各大银行以及网此
  4. VSCode SSH 免密登录
  5. 微信小程序列表播放视频 播放当前视频上一个暂停
  6. iOS如何获取IDFA
  7. About EDW 命名规范参考
  8. 【mybatis源码分析(四)】mybatis事务实现原理
  9. 常见的五种神经网络(1)-前馈神经网络
  10. RDD -- flatmap