泰德·西索卡瓦
2024年8月26日 16:09
NVIDIA 的 CUDA-Q 平台可以显著减少量子聚类算法所需的资源,使其更适用于近期的量子计算应用。
NVIDIA 宣布其 CUDA-Q 平台(原名为 CUDA Quantum)在量子计算方面取得了重大进展。据 NVIDIA 技术博客称,CUDA-Q 在降低量子聚类算法的资源需求方面发挥了重要作用,使其更适合近期的量子计算应用。
量子聚类算法
量子计算机利用叠加、纠缠和干涉的独特性质从数据中获取见解,理论上比传统计算方法更快。然而,由于缺乏高效的量子随机存取存储器 (QRAM),早期的量子计算机预计在计算密集型任务方面会表现优异,而不是数据密集型任务。
爱丁堡大学量子软件实验室的副教授 Petros Wallden 博士及其团队利用 CUDA-Q 模拟了新的量子机器学习 (QML) 方法。这些方法显著减少了分析大型数据集所需的量子比特数。他们的研究扩展了 Harrow 在核心集(一种经典的降维技术)方面的工作,使 QML 应用程序在不需要 QRAM 的情况下更加可行。
什么是核心集?
核心集是完整数据集的一个较小的加权子集,它近似于完整数据集的特征。这种方法允许使用明显更少的量子比特来执行数据密集型 QML 任务。Petros 的团队根据可用的量子比特选择了核心集的大小,然后在量子计算后评估了产生的误差。
使用核心集进行聚类的量子方法
随着输入数据减少到可管理的大小,我们探索了三种量子聚类算法:
- 分裂聚类: 对点进行连续二分,直到每个点都属于自己的聚类。
- 3均值聚类: 根据点与演化质心的关系,将点划分为三个簇。
- 高斯混合模型(GMM)聚类: 根据高斯分布的混合将点分类为集合。
每种方法输出一组核心集,将初始数据集映射到这些核心集,从而对数据集进行近似聚类和降维。
使用 CUDA-Q 克服可扩展性问题
探索这些 QML 聚类方法需要进行模拟,CUDA-Q 通过提供对 GPU 硬件的轻松访问来促进这一过程。这使得 Petros 的团队能够对高达 25 个量子比特的问题进行全面的模拟。CUDA-Q 的基元(例如硬件高效的 ansatz 内核和自旋汉密尔顿算子)对于基于汉密尔顿算子的优化过程至关重要。
早期模拟在 CPU 硬件上运行,但由于内存限制,仅限于 10 个量子比特。切换到 NVIDIA DGX H100 GPU 系统后,得益于 CUDA-Q 的兼容性和可扩展性功能,团队无需修改初始代码即可将量子比特扩展到 25 个。
CUDA-Q 模拟的价值
模拟这三种聚类算法可以与 Lloyd 算法等经典方法进行对比。结果表明,量子算法在 GMM(K=2)和分裂聚类方法中表现最佳。
Petros 团队计划继续与 NVIDIA 合作,使用 CUDA-Q 开发和扩展新的量子加速超级计算应用程序。
探索 CUDA-Q
CUDA-Q 支持新型 QML 实现的开发和模拟,其代码可移植,以进行进一步的大规模模拟或部署在物理量子处理单元 (QPU) 上。
如需了解更多信息并开始使用 CUDA-Q,请访问 NVIDIA 技术博客。
图片来源:Shutterstock
(标签翻译)人工智能(t)加密(t)区块链(t)新闻
关键词:AI,crypto,blockchain,news