作者:杨晓凡

谷歌量子 AI 实验室今天发布了新的 72 位量子比特的量子处理器 Bristlecone。虽然目前还没有看到具体的实验结果,但这块芯片的未来有很大潜力,很有可能达成量子计算领域内的重要里程碑。

谷歌量子 AI 实验室(Google Quantum AI lab)的目标是建造可以用于解决真实世界问题的量子计算机,他们的研究策略是在可以和大规模、通用化、可纠错的量子计算机向前兼容的系统上探索短期解决方案。为了让量子处理器运行经典模拟算法之外的算法,它当然需要更多的量子比特(qubit)数目,但它还需要更多。最关键的是,这个处理器必须在读取以及单、双量子比特门之类逻辑操作中保持很低的错误率。

一年一度的美国物理学会(American Physical Society)会议正在洛杉矶举行,谷歌量子 AI 实验室今天就在会议上公布了他们新的量子处理器 Bristlecone。这是一个基于门电路的超导系统,它的设计目标就是为谷歌的量子技术提供系统错误率和拓展性的研究测试平台,当然也可以探索量子模拟、量子优化以及量子机器学习方面的应用。

Bristlecone 是谷歌的最新量子处理器(左图)。右侧是这个芯片的结构示意图,每一个「X」代表一个量子比特,相邻最近的量子比特之间是相连的

谷歌之前设计的 9 量子比特的线性矩阵已经展现出了低读取错误率(1%)、低单量子比特门错误率(0.1%)、以及最重要的低双量子比特门错误率(0.6%),这也是谷歌目前所能达到的最好结果。新的 Bristlecone 的指导设计思路就是延续之前技术中的物理特性,在耦合、控制、读取中都使用了同样的方法,但把矩阵规模大幅扩大到了 72 量子比特。谷歌之所以选择把新的芯片设计到这个规模,是希望未来得以展示「量子霸权」(指对于某些问题, 量子算法的效率远远优于经典算法)、可以通过表层编码做一阶和二阶的错误纠正,以及帮助为真正的通用化硬件设计量子算法。

展示错误率和量子比特数目之间关系的二维概念示意图。图中的红线表示谷歌量子 AI 实验室的研究方向,他们希望沿着这个方向、以构建出带有错误纠正能力的量子计算机为目标,先取得一些短期应用成果

在探究具体的应用之前,量化认识量子处理器的计算能力也是很重要的一件事。已经有别的理论物理团队为这项任务开发了 benchmark 工具。对于错误率测试,可以向设备输入一个随机的量子电流作为单个系统误差,然后检查样本的输出扰动并把它和经典方法模拟的结果做对比。如果一个量子处理器运行时的错误率最够低,它运行某些定义好的计算机科学问题的速度就可以远超过经典方法的超级计算机,这也就是我们所说的「量子霸权」。测试中使用的随机电流在量子比特数目和计算长度(深度)两个方面都需要足够大。虽然目前还没有人达到错误率 0% 的目标,但是根据谷歌量子 AI 实验室计算,只需要量子比特数目达到 49 位、电路深度超过 40、双量子比特门错误率低于 0.5% 就已经可以展现出明显的「量子霸权」。谷歌相信,一次成功的量子处理器超越经典超级计算机的实验将成为这个领域的分水岭,而这也将是谷歌量子 AI 团队追寻的重点目标。

位于 Santa Barbara 的谷歌量子 AI 实验室中,研究科学家 Marissa Giustina 正在安装一块 Bristlecone 芯片

谷歌量子 AI 团队之前已经在 9 位量子比特的设备上取得了目前最佳的错误率,他们也正在努力尝试在 Bristlecone 的所有 72 个量子比特上都取得类似的表现。一旦 Bristlecone 获得全面成功,这也将为构建更大规模的量子计算机提供极具说服力的原理论证。要让 Bristlecone 这样的设备以低系统错误率运行,也需要软件设计、电子控制和处理器本身等一系列技术的协调工作,只有经过非常仔细的系统工程和多次迭代更新才有可能达成。

对于用 Bristlecone 达成「量子霸权」,谷歌量子 AI 团队保持谨慎乐观的态度,同时也觉得学习建造和运行这种性能级别的设备是一个令人兴奋的挑战。谷歌量子 AI 团队也非常期待未来得以展示自己的实验成果,以及和别的团队共同协作尝试更多实验。

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

谷歌公布72位量子比特处理器,吹响量子霸权冲锋号相关推荐

  1. AI 一分钟 | 谷歌发布72量子比特处理器,或将为机器学习应用提供加速;百度已经发起对景驰撤诉,但不会对王劲撤诉

    整理 | Leo 一分钟AI 查理·芒格评人工智能商业化:我靠自己的常识已经生活得很好了,从未想过进入人工智能领域 谷歌发布72量子比特处理器,或将为机器学习应用提供加速 百度成立"智能生活 ...

  2. 超导磁通量子计算机,超导量子比特系统在量子信息中的应用

    超导电荷量子比特在量子信息中的应用 乔盼盼 ,艾合买提·阿不力孜 (新疆师范大学 物理与电子工程学院,新疆 乌鲁木齐 830054) 摘要:随着量子计算机以及量子算法的提出,人们开始寻找可以实现量子计 ...

  3. IBM推出127量子比特处理器,超越谷歌和中科大

    丰色 发自 凹非寺 量子位 报道 | 公众号 QbitAI 127量子比特! 规模超越谷歌"悬铃木"和我国"祖冲之号"-- 全球量子比特数最多.首次突破&quo ...

  4. Google发布全球首个72量子比特处理器Bristlecone预览

    Google Quantum AI 实验室的目标是构建可用于解决现实世界问题的量子计算机.我们的策略是使用可以向前兼容到大规模通用纠错量子计算机的系统探索近期应用.为了使量子处理器能够运行经典计算无法 ...

  5. 100量子比特量子计算机,51量子比特模拟器问世,大规模量子计算机迈出重要一步...

    (<麻省理工科技评论>中英文版APP现已上线,年度订阅用户每周直播科技英语讲堂,还有科技英语学习社区哦~) 通常来说,进行计算机编程已经是一项相当费力的工作,代码除了需要数小时的编写外,还 ...

  6. 谷歌出品量子计算机,首个72量子比特的量子计算机问世,谷歌出品

    原标题:首个72量子比特的量子计算机问世,谷歌出品 安妮 编译整理 比春天这气温升得还快的,是量子计算的热度. 无论是2012年开始入局的微软,还是才研发出50量子比特原型机没多久的IBM,亦或是放言 ...

  7. 5000量子比特的商用计算平台发布!D-Wave:这是商业应用的唯一选择

    萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI 近日,量子计算公司D-Wave称,第一台为业务构建的量子计算机Adventage问世,实现了每个用户至少拥有5000量子比特(qubit)的 ...

  8. 走进量子计算的大门——使用量桨PaddleQuantum创建单量子比特门

    使用量桨PaddleQuantum创建单量子比特门 一.量子计算概述 量子计算机为什么能同时存储0和1? 如何测量量子计算的结果 量子计算背后的哲学原理 二.量子计算的数学基础 1.量子比特 2.量子 ...

  9. 100年量子计算风云史,“量子比特”何时统治世界?| 技术特稿

    量子卫星"墨子号"在酒泉卫星发射中心成功升空. (拍摄:Reuters/China Daily) 钛媒体注:读完下面这篇文章(全文15000字)要花费的时间可能要比我们预计的 10 ...

最新文章

  1. 五项挑战获四项第一,地平线霸榜Waymo自动驾驶算法挑战赛
  2. Fescar锁和隔离级别的理解
  3. 函数节流与防抖的实现
  4. Linux753权限,linux的chmod与chown命令详解
  5. H3CNE新版本V6.0与旧版本V5.1的区别
  6. oracle 插入出错_使用sqlca打印错误原因,ORACLE-Proc:SQLCA
  7. 自定判断代码的执行环境
  8. idea类文件前面有个小叉号
  9. AX 2012 键盘快捷键
  10. 【老骥伏枥-狗年大礼包】嵌入式linux逆向工程,手把手教你作黑Q-第三讲
  11. python中format格式化输出总结
  12. iOS 开发:『Runtime』详解(二)Method Swizzling
  13. 貂蝉待你玩转Java王者荣耀
  14. 为什么同样是8G运行内存,Windows能同时开一大堆后台进程和前台应用,而Android不可以?...
  15. 云服务商将占据 80% CDN 市场份额,传统CDN或将终结
  16. J2me项目实例------网络通讯录(1) (转)
  17. 【Lua笔记】、Lua元表
  18. 小米遭虚假评价后索赔 100 万元
  19. 【通信原理】PC上调试MODBUS基本功能(附报文解析)
  20. 上班防摸鱼插件(知乎页面)

热门文章

  1. 报名 | 清华医工科研服务平台发布会暨医工结合科研基金成立大会
  2. 详解AI Lab 21篇CVPR 2018论文(附论文)
  3. 中国团队狂揽5项大奖!北航团队获2021 ACM MultiMedia唯一最佳论文奖
  4. NeurIPS 2021放榜,接收率创九年新高,你的paper中了吗?
  5. 院士谈如何做好研究生:要逼着自己去想问题,最大的浪费是聪明人不思考
  6. VALSE 2020来了!60位计算机视觉、模式识别领域的优秀青年学者齐聚一堂
  7. 在推荐系统中,我还有隐私吗?联邦学习:你可以有
  8. 人们怕人工智能获得意识到底是怕哪个方面?
  9. 20年的人工智能设计总结:向产品中注入人工智能的指南
  10. 嵌入式视觉领域的机器学习