NVIDIA 与谷歌量子 AI 合作,借助 CUDA-Q 平台加速量子计算器件设计

aixo 2024-11-21 08:16:44
算力 2024-11-21 08:16:44

本文引用地址:

于今日宣布正在与谷歌量子AI合作,使用 CUDA-Q™平台进行模拟,加快下一代量子计算器件的设计工作。

谷歌量子AI正在使用量子-经典混合计算平台和 Eos超级计算机,来模拟其量子处理器的物理特性。这将有助于克服量子计算硬件当前的一些局限,即量子计算硬件只能运行一定数量的量子运算,然后由于存在研究人员称之为“噪声”的现象就必须终止计算。

谷歌量子AI的研究科学家 Vidal表示:“要想开发出商用的量子计算机,就必须能够在控制噪声的情况下扩展量子硬件规模。借助加速计算,我们正在探索越来越大的量子芯片设计中噪声的影响。”

理解量子硬件设计中的噪声需要进行复杂的动态模拟,以便充分了解量子处理器内的量子比特是如何与周围环境相互作用的。

过去,这些模拟的计算成本高得令人望而却步。借助CUDA-Q平台,谷歌可以在 Eos超级计算机上使用1024个 Core GPU,以极低的成本进行世界上最大、最快的量子器件动态模拟。

量子和高性能计算总监Tim Costa表示:“强大的AI超级计算有助于量子计算取得成功。谷歌对CUDA-Q平台的使用展现了GPU加速的模拟在推进量子计算方面发挥了核心作用,它将帮助解决现实世界中的许多问题。”

借助CUDA-Q和 GPU,谷歌可以对包含40个量子比特的器件进行逼真的全面模拟,这是同类模拟中规模最大的。通过CUDA-Q提供的模拟技术,原本需要一周时间完成的噪声模拟现在只需要几分钟就能完成。

驱动这些加速动态模拟的软件将公开发布在CUDA-Q平台上,使量子硬件工程师能够快速地扩展他们的系统设计。