启东单片机技术与诚信为本

日本IT巨头半导体量子芯片即将量产,英特尔另辟蹊径紧随其后

发表于:2018-10-11 收藏
来源:DeepTech深科技

  不久前,业界都还认为半导体量子技术离我们很远,甚至 D-Wave 的 CEO Vern Brownell 也曾在接受 DT 君的专访时表示,要实现半导体量子计算的商业化至少要 10 年以上,但随着日本 IT 巨头富士通的数字退火量子(Digital Annealer)计算芯片即将量产,以及英特尔在硅自旋量子比特(silicon spin qubit)技术的突破,同时中国也展示了半导体量子计算的发展,量子计算或许可能提早通过半导体工艺走进寻常百姓家。

  显而易见,量子计算之所以重要,是因为其具备快速解决过去很难利用传统计算架构解决的“人类规模”问题的能力,比如说找出癌症的解方,更好的针对个人化的医疗方法,不仅在能源领域、目前最流行的 AI 模拟,甚至揭开更多宇宙的秘密,都将扮演极为重要的角色。
  而作为量子计算基础的量子物理现象其实属于普遍的自然界物理现象,会出现在许多不同的材料、化学或自然环境中,因此,其达成的方式也不只一种,就好比量子计算的研究范围已经从超导量子前进到光量子,甚至基于数字退火技术的半导体量子亦已经量产,换言之,只要材料引发的现象能够观测出量子物理特征,就有可能拿来计算。

  只是经过将近 20 年的发展,以超导技术为核心的量子计算商用脚步在软件生态成熟度不足,且量产难度极高的情况下,在实际应用层面上还有很大的限制,虽然我们从各家的量子比特规模来争论量子霸权将由谁掌握,但实际上,量子计算的最大限制不是算力的不足,而是难以普及,使得生态发展难以有效往前进。

  也因为目前量子计算的局限性,如果能够通过既有的半导体生产技术,解决量子计算芯片的规模扩增与大批量生产问题,并摆脱超导量子计算所需要的庞大冷却架构,那么,量子计算或许可以比预期更早进入到一般计算应用中,并加速相关生态成熟,成为包含 PC、智能家居、汽车,甚至各种联网设备的计算核心,并彻底改变人类的生活。

  半导体量子计算:数字退火、硅自旋量子比特与量子点

  目前,在半导体领域的量子技术方面进展方面,比较知名的有由富士通推出的数字量子退火(Digital Annealer)技术、由英特尔推出,基于硅半导体工艺的硅自旋量子比特(silicon spin qubit)技术、以及由我国中科院量子信息重点实验室所提出的,基于量子点(quantum dot)技术的三量子点半导体比特。

  数字量子退火技术

  富士通与加拿大多伦多大学合作开发了数字退火器 (Digital Annealer),作为需要精心控制低温环境才能发挥作用的 D-Wave 量子退火计算架构替代品,富士通采用传统的半导体技术,该技术可在室温下工作,并可安装在足够小的电路板上,以便插入数据中心的机架中。

0.jpg 
  图|基于半导体工艺的数字退火量子处理器,目前已经应用在富士通的云服务中。

  数字退火器是 1 种专用芯片,采用非冯诺依曼架构,在解决组合优化问题时可最大限度地减少数据移动。它由 1024 个“位更新块”(bit-updating blocks) 组成,带有存储权重和偏置的片上存储器,用于执行“位翻转”(bit flips) 的逻辑块以及接口和控制电路。

  数字退火器不是通过传统的编程方式来利用其算力,而是以权重矩阵和偏置向量的形式上传问题,以便将问题转化为“能量全景图”(energy landscape),用物理模拟的现象来解题。为达到此目的,富士通与位于加拿大温哥华的量子计算软件领导者 1QB 信息技术公司合作,该公司既提供运行系统的软件,也提供软件开发工具包,供客户编写自己的能量全景图。

  东京工业大学物理学教授,同时也是全球第 1 篇提出量子退火理论论文的作者之一 Hidetoshi Nishimori,以比喻的方式解释了这种操作:“在数字退火中,系统从一个状态跳到另一个状态,以寻求更好的解决方案,就像一个人在一个充满山丘和山谷的复杂景观中徘徊,寻找最低点。”

  Nishimori 补充说,这种技术与传统量子退火相反,系统以大规模并行的方式寻找最佳解决方案,同时考虑所有状态。富士通也宣称,其基于 CMOS 的数字退火器,虽仅具备 1024 量子比特,但性能表现已经能够与 D-Wave 最新的 2000 量子比特的量子退火系统相提并论。

  Nishimori 指出,富士通机器上的位块之间的权重能够以比 D-Wave 系统更高的精度表达问题,因为用量子比特来控制这种精度要困难得多,数字退火器在比特之间具有 16 位精度,相较之下,D-Wave 系统仅有 4 位精度。不过 Nishimori 也提到,D-Wave 的量子退火器从长远来看将有超过数字退火器的潜力,因为它们具有超大量子平行度,足以弥补精度表现较弱的缺点。
  与此同时,富士通表示,目前 1000 量子比特的方案已经用在自家云服务器上,而它的目标是 2019 年量产具有 8192 位量子比特的数字退火器,而长远目标则是走向百万等级的量子比特。

  该公司于 5 月 15 日开始在日本提供云服务。富士通还与多伦多大学合作研究数字退火机的应用,今年晚些时候富士通将开始销售数字退火服务器,塔型主机和芯片,用于企业内部自有量子计算的架设。该公司还计划在今年年底之前在北美,欧洲和亚洲推出云服务。富士通表示,到 2022 年,该服务的目标是收入 1000 亿日元(约 9 亿美元)。

  硅自旋量子比特

  英特尔与荷兰量子计算公司 QuTech 合作在今年初推出基于硅芯片的可编程双量子计算,采用的就是自旋量子单元。自旋量子单元的优点是不需要苛刻的环境条件,如极低温。本质上自旋量子单元是受微波脉冲激活的电子。而基于硅自旋量子单元的独特优势,在于其乃是在电子层面操作,因此能够与现有的计算工作平台紧密配合。

2.jpg 
  图|在硅芯片上上拥有双量子比特的量子处理器。

  其实硅自旋量子比特的概念很简单,当在传统的晶体管通过稳定的电流时。晶体管中的单个电子便可在 0 与 1 两种状态转换。而以电子的旋转为概念的话,也就是晶体管中的单个电子可以具有两种状态之一:往上旋转或往下旋转,而这正是量子比特的两个状态。因此,英特尔正在做的主要是通过其工艺创建一系列单电子晶体管,并使之产生量子态。

  不过,目前英特尔还在为单一芯片上能够集成更多量子比特而努力,目前他们最多只能做到每个切割出来的单一芯片维持 26 个量子比特,明显与超导量子有段距离。然而,如果不以单一芯片计算,而是以整片晶圆来作为比较基准,那么其硅自旋量子比特已经达到成千上万之谱,量子比特密度不下于传统超导量子。

3.jpg 
  图|英特尔的硅量子芯片的试产品

  当然,以晶圆来作为比较单位并不实际,英特尔也表示,该公司的超导量子技术已经成熟到可以集成到系统中了,但硅自旋量子还需要数年的时间发展。

  不过,英特尔也提到,以处理器发展史为例,从第一个集成电路,到第一个拥有 25000 个晶体管的处理器 4004 现身,经过了 10 年的时间,其实进展相当快,而他们也很看到硅自旋量子未来的发展潜能,认为在 5 年内要发展到单芯片拥有超过 1000 个量子比特并不是困难的事情。

  而长远来看,如果能在单一半导体芯片上达到百万个量子比特,并实现常温量子的通用计算,那将是对整个数字产业,甚至是社会存在型态的彻底变革。

  三量子点半导体比特

  中科院量子信息重点实验室在今年初推出的三量子点半导体比特是量子点的技术应用之一,是属于诸多量子计算型态的固态计算方式,主要是通过 GaAs 或 AIGaAs 或类似材料来制作量子点,量子点指的是将电子与电洞局限在只有几纳米的极小物质中,因而产生可以控制的光、电、自旋等性质,通常这些性质与量子点的尺寸、形状和材料有关。而光以量子点形式,就有光子、电子和原子等不同的自旋量子态可当作量子计算的基础。

4.jpg 
  图|中科院量子信息重点实验室在今年初推出的三量子点半导体比特逻辑门。

  该实验通过半导体纳米加工工艺制备出非对称耦合三量子点结构,再利用电子的原子壳层结构填充原理,化解多电子能级结构复杂性这一难题,构造了具有准平行能级的杂化量子比特。在保证比特相干时间的情况下,通过调节第三个量子点的电极电压,清晰地观察到比特能级在 2 至 15GHz 范围内的连续可调。

  不过这种技术虽属半导体量子技术之一,但其半导体材料并非采用硅,所以与现有的半导体工艺还是有着相当大的不同。
  半导体量子计算将填补传统超导量子计算的缺点

  基于超导电路的量子比特和基于量子阱的量子比特因为电路体积较大,实现相对容易,在可操控量子比特数目方面处于领先位置,目前 Google 也已经达到 72 个量子比特,英特尔和 IBM 也分别推出过 49 量子比特和 50 量子比特的量子计算架构。

  然而,它们的大体积使得未来大数目量子比特的集成会面临很大的问题,进而会影响到一些实际应用的量子算法的实现。

  虽然所有现有的超导量子计算方法可提供前所未有的计算能力,但该技术需要的设计与维持成本极高:为了实现超出传统计算范围的问题的正确输出,超导量子计算需要保持接近绝对零度,并且通过各种遮蔽设计来避免磁干扰、热噪声和机械振动的影响,以使量子比特保持迭加状态和量子纠缠,成为实现量子计算的基础。

  而因为量子比特的不稳定性,量子计算的精度也存在问题,一般而言保真度(fidelity)普遍不高,导致现有的量子计算架构必须花费许多的心力在于纠错工作上,以确保对量子现象的观测不会出现误差。这也让原本就已经臃肿的量子计算架构更为庞大。

  这些传统量子计算的问题即便在实验室中已经突破 72 个量子比特的现在仍相当难以解决,而这也是微软选择要往基于拓朴架构的 Majorana particle(马约拉纳粒子)来作为量子计算的核心的原因,由于 Majorana particle 呈电中性,且很少与其他粒子相互作用,其状态相对稳定许多,这使得要建造 1 个 1Qubit 的拓扑量子计算,只需要 1 个 Majorana particle,而不需要额外的纠错设计,就理论上而言,会是个极具竞争力的量子计算架构。

5.jpg 

  然而,这种被称为天使粒子的 Majorana particle 截至目前为止仍然只存在于理论当中,还没真正被发现。

  那要做出既小又容易规模化的量子计算架构是不可能的事情?非也,正如之前所述,目前富士通与英特尔都已经在相关领域有了突破性的发展。中国科学技术大学郭光灿院士领导的中科院量子信息重点实验室在半导体量子计算芯片研究方面则是通过量子点技术推动量子计算的半导体化路线。

  富士通将半导体量子计算带入商业化,但其他技术还要一段时间

  由于基于物理仿真的数字退火技术在理论上更为成熟,且在应用上也更偏重于特定计算,而非通用,所以商用化的脚步也如老大哥 D-Wave 的量子退火般走的最快,但其缺点在于整个计算体系与目前的计算架构并不兼容,在生态经营上的难度较高。

  而英特尔则是打算要将硅自旋量子打入一般日常计算环境中,作为取代传统计算架构的强力武器,因此通用是无法被舍弃的一点。但也因为如此,其真正走入商用化恐怕还要好几年的时间。

  撇除目前量子霸权的争议,传统超导量子计算已经先后步入商用化,而基于半导体工艺的量子计算也超越市场的期待,开始在技术研发上崭露头角,虽然除了最老牌的退火技术以外,其他瞄准通用量子计算的商用时程都可能还要数年之久。

  即便如此,这些技术的进展揭示了我们日常使用的计算架构都有可能走向量子计算的可能未来,虽然目前还很难想象,但可以肯定的是,通过量子计算带来的庞大算力,届时我们身处的世界将与现在有着极大的不同。

欢迎分享本文,转载请保留出处:http://www.eechina.com/thread-542670-1-1.html     【打印本页】


编辑:本站编辑 评论>>
上一篇文章: 下一篇文章:

分享