路漫漫其修远兮分享 http://blog.sciencenet.cn/u/zhpd55 追求科学,勇于探索,苦海无涯,愿作小舟。

博文

突破性证据为量子人工智能扫清了道路

已有 2401 次阅读 2021-10-19 20:46 |个人分类:新观察|系统分类:海外观察

突破性证据为量子人工智能扫清了道路

诸平

Snap1.jpg

A novel proof that certain quantum convolutional networks can be guaranteed to be trained clears the way for quantum artificial intelligence to aid in materials discovery and many other applications. Credit: Los Alamos National Laboratory

据美国洛斯·阿拉莫斯国家实验室(Los Alamos National Laboratory简称LANL20211018日提供的消息,突破性证据为量子人工智能扫清了道路(Breakthrough proof clears path for quantum AI)。

在量子计算机上运行的卷积神经网络(Convolutional neural networks)因其分析量子数据的潜力比传统计算机更好而引起了极大的轰动。虽然被称为“贫瘠高原(barren plateaus)”的基本可解性问题限制了这些神经网络在大数据集上的应用,但新的研究通过保证可伸缩性的严格证明,克服了这一致命弱点。相关研究结果于20211015日已经在《物理评论X》(Physical Review X)网站发表——Arthur Pesah, M. Cerezo, Samson Wang, Tyler Volkoff, Andrew T. Sornborger, Patrick J. Coles. Absence of Barren Plateaus in Quantum Convolutional Neural Networks. Physical Review X, 2021, 11(4), 041011. DOI: 10.1103/PhysRevX.11.041011 – Published 15 October 2021.

LANL的一位专攻量子计算(quantum computing)、量子机器学习(quantum machine learning)和量子信息(quantum information)的物理学家,也是上述论文的合著者马尔科·塞雷佐(Marco Cerezo)说:“构建量子神经网络的方式可能会导致贫瘠的高原,也可能不会。我们证明了一种特殊类型的量子神经网络不存在贫瘠的高原。我们的工作为这个体系结构提供了可训练性保证,这意味着我们可以一般地训练它的参数。”

量子卷积神经网络作为一种人工智能(artificial intelligence简称AI)方法,其灵感来自视皮质(visual cortex)。因此,它们涉及一系列卷积层,或过滤器,与池层(pooling layers)交错,降低数据的维数,同时保持数据集的重要特征。

这些神经网络可以用来解决一系列问题,从图像识别到材料发现。克服贫瘠的高原是挖掘量子计算机在人工智能应用中的全部潜力并展示其相对于传统计算机的优越性的关键。

马尔科·塞雷佐说,到目前为止,量子机器学习的研究人员分析了如何缓解贫瘠高原的影响,但他们缺乏完全避免它的理论基础。洛斯阿拉莫斯的研究表明,一些量子神经网络实际上对贫瘠的高原是免疫的。

LANL的量子物理学家、上述论文的合著者帕特里克·科尔斯(Patrick Coles)说:“有了这个保证,研究人员现在可以筛选量子系统的量子计算机数据,并将这些信息用于研究材料特性或发现新材料等应用。”

帕特里克·科尔斯认为,随着研究人员近期更频繁地使用量子计算机并生成越来越多的数据,量子人工智能算法(quantum AI algorithms)将出现更多的应用,所有机器学习程序都需要大量数据。

避免渐变消失(Avoiding the vanishing gradient

马尔科·塞雷佐说:“如果你有一个贫瘠的高原,量子加速或优势的所有希望都将失去。”

问题的关键是优化景观中的“消失梯度(vanishing gradient)”。景观由丘陵和山谷组成,目标是训练模型的参数,通过探索景观的地理位置来找到解决方案。可以这么说,解决办法通常在最低的山谷的底部。但在平坦的地形中,我们无法训练参数,因为很难确定要采取哪个方向。

当数据特征的数量增加时,这个问题变得尤为重要。事实上,景观变得指数平的特征大小。因此,在一个贫瘠的高原上,量子神经网络无法扩大规模。

LANL的研究团队开发了一种新颖的图形方法,用于分析量子神经网络的规模,并证明其可训练性(trainability)。

40多年来,物理学家一直认为量子计算机将被证明在模拟和理解粒子的量子系统方面是有用的,而传统的经典计算机却无法做到这一点。LANL的研究已经证明量子卷积神经网络类型是可靠的,预计将在分析量子模拟数据方面应用是有用武之地的。

帕特里克·科尔斯说:“量子机器学习领域还很年轻。当激光首次被发现时,有一句关于它的名言,说它是寻找问题的解决方案。现在激光被广泛使用。同样,我们中的一些人怀疑量子数据将变得高度可用,然后量子机器学习将腾飞。”

帕特里克·科尔斯说,例如,研究重点是陶瓷材料作为高温超导体,这可以改善无摩擦运输,如磁悬浮列车。但是,分析材料中受温度、压力和杂质影响的大量相数据,并对这些相进行分类,是一项巨大的任务,超出了传统计算机的能力。

利用可扩展的量子神经网络,量子计算机可以筛选给定材料的各种状态的大量数据集,并将这些状态与相关联,以确定高温超导的最佳状态。

上述介绍,仅供参考。欲了解更多信息,敬请注意浏览原文或者相关报道

Abstract

Quantum neural networks (QNNs) have generated excitement around the possibility of efficiently analyzing quantum data. But this excitement has been tempered by the existence of exponentially vanishing gradients, known as barren plateau landscapes, for many QNN architectures. Recently, quantum convolutional neural networks (QCNNs) have been proposed, involving a sequence of convolutional and pooling layers that reduce the number of qubits while preserving information about relevant data features. In this work, we rigorously analyze the gradient scaling for the parameters in the QCNN architecture. We find that the variance of the gradient vanishes no faster than polynomially, implying that QCNNs do not exhibit barren plateaus. This result provides an analytical guarantee for the trainability of randomly initialized QCNNs, which highlights QCNNs as being trainable under random initialization unlike many other QNN architectures. To derive our results, we introduce a novel graph-based method to analyze expectation values over Haar-distributed unitaries, which will likely be useful in other contexts. Finally, we perform numerical simulations to verify our analytical results.



https://wap.sciencenet.cn/blog-212210-1308593.html

上一篇:突破噪音:人工智能使高保真量子计算成为可能
下一篇:超过99.9%的研究认为:人类导致了气候变化

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-12-2 11:49

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部