量子计算机可通过高效处理大型数据集提升人工智能能力

一项新研究表明,量子计算机可通过分批处理数据的新方法,更高效地处理人工智能训练所需的海量数据集。研究人员提出,这种方法可以减少量子内存需求,使拥有约60个逻辑量子比特的系统就能在某些任务上超越经典计算机,为AI发展带来新突破。

根据一项新研究,量子计算机最终可能帮助处理用于训练人工智能的部分海量数据集。研究人员描述了一种方法,将数据分批输入量子计算机,而不是一次性存储整个数据集。

量子计算。图片来源:Shutterstock/Decrypt

研究背景

据《新科学家》报道,量子计算机可能最终帮助处理用于训练人工智能的部分海量数据集。这些数据集通常以TB或PB为单位测量。

来自加州理工学院、Google Quantum AI、量子计算初创公司Oratomic和麻省理工学院的早期研究表明,一个挑战是如何将大型数据集输入量子计算机。为了利用量子效应,数据必须转换为量子态,而准备这些态传统上需要大量的量子内存。

新方法突破

Oratomic首席技术官Hsin-Yuan Huang表示:“机器学习在科学、技术以及日常生活中无处不在。在我们能够构建这种量子计算架构的世界里,我认为只要有海量数据集可用,它就可以应用。”

该研究提出,与其首先将完整数据集加载到量子内存中,新方法在处理过程中准备必要的量子态,从而减少内存负担。研究人员表示,这可以在没有极大存储系统的情况下利用量子叠加等效应。

技术优势

研究人员表示,这种方法还可以让量子计算机在处理大型数据集时使用比传统系统更少的内存,这表明一个拥有约300个逻辑量子比特的系统可以在某些任务上超越经典计算机。

这样的系统尚不存在;然而,研究人员估计,一个拥有大约60个逻辑量子比特的量子计算机就可以开始在人工智能使用的某些数据处理任务上超越经典系统,这突显了量子计算的进步如何可能威胁密码学和区块链等领域。

专家观点

Oratomic联合创始人兼首席执行官Dolev Bluvstein此前告诉《Decrypt》:“人们习惯于认为量子计算机总是还有10年才能实现。但当你回顾十多年前,对Shor算法所需的最佳估计是10亿个量子比特,而当时实验室中最好的系统大约只有5个量子比特。”

研究人员表示,人工智能和量子计算之间的联系正在变得更加紧密,因为AI工具帮助科学家分析和建模复杂的量子系统,否则这些系统难以模拟,从而加速了量子硬件和应用的研究。

瑞士苏黎世联邦理工学院计算物理学教授Adrián Pérez-Salinas表示:“量子机器是一个非常强大的设备,但你首先需要喂养它。这项研究讨论了喂养问题,以及如何足以一点一点地加载数据,而不是过度喂养这个野兽。”

本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/04/22/%e9%87%8f%e5%ad%90%e8%ae%a1%e7%ae%97%e6%9c%ba%e5%8f%af%e9%80%9a%e8%bf%87%e9%ab%98%e6%95%88%e5%a4%84%e7%90%86%e5%a4%a7%e5%9e%8b%e6%95%b0%e6%8d%ae%e9%9b%86%e6%8f%90%e5%8d%87%e4%ba%ba%e5%b7%a5%e6%99%ba/

(0)
链新社的头像链新社
狗狗币基金会与MoonPay合作捐赠100万DOGE给狗狗慈善机构
上一篇 2小时前
Polymarket宣布2026年为美国市场推出永续期货交易
下一篇 1小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

风险提示:理性看待区块链,提高风险意识!