量子计算的叙事无疑正在升温,IonQ首席执行官在此期间宣称,该公司的量子芯片将“彻底碾压”来自英伟达(NVIDIA)和超微半导体(AMD)的竞争。

业界始终对计算技术的未来存有疑问:像英伟达或超微半导体这样的GPU制造商能否依靠架构演进甚至摩尔定律来持续提升性能?量子计算机在处理需要巨大算力的应用场景时展现的潜力,正促使多家量子计算公司从“市场深水中浮现”。其中备受关注的IonQ宣称,即便传统GPU拥有“宇宙年龄那么长的运算时间”,他们的量子芯片也将在多个应用领域击败传统GPU。
IonQ首席执行官尼科洛·德马西(Niccolo de Masi)关于击败传统GPU的言论固然存在争议,但值得注意的是,他同时指出得益于公司即将推出的万量子比特芯片,英伟达的Blackwell架构到2027年可能就会过时。当前量子计算机在优化计算、化学模拟、密码学等特定领域展现出优势,但在传统计算领域,局面则完全不同。
德马西在接受彭博社关于收购牛津离子学(Oxford Ionics)的访谈时透露,此次收购已加速公司技术路线图,预计到2027年实现在单个芯片上集成1万个物理量子比特。量子芯片包含物理与逻辑量子比特:前者作为超导电路承载编码数据,后者则负责运行经过纠错的量子算法以供开发者进行运算。
“即使到2030年实现200万个量子比特,这也将使我们解决传统GPU即便花费宇宙年龄时长也无法处理的难题。Blackwell芯片在此之前就会显得过时——到2027年,通过与新合作伙伴牛津离子学共同开发的1万个量子比特芯片,我们将彻底超越地球上所有现存的超级计算机。”
将量子芯片与传统GPU对比,犹如将F1赛车与货运卡车相提并论:后者擅长处理可预测精确结果的并行工作负载,而量子芯片则专为解决传统计算机指数级增长的计算难题而设计。IonQ等公司若要抗衡英伟达或超微半导体的GPU,唯一途径是提升逻辑量子比特数量——这至今仍是业界面临的重大技术挑战。



