其他
PRL:分析量子神经网络动力学
光子盒研究院出品
参数化的量子电路可以作为量子神经网络使用,并且有可能在解决学习问题的训练中胜过经典神经网络。不过,到目前为止,关于它们在实际问题上的表现的大部分结果都是启发式的。
近日,芝加哥大学、IBM联合团队分析了一类变分量子机器学习模型的训练误差的梯度下降的动力学。研究成果以《广义量子神经网络的动力学分析理论(Analytic Theory for the Dynamics of Wide Quantum Neural Networks)》为题,发表在《物理评论快报》期刊上。
实验中,团队将宽量子神经网络定义为在大量量子比特和变量参数极限下的参数化量子电路。在这篇文章中,科学家基于量子神经切线核(QNTK)框架提出了一个分析理论,说明在参数数量很大的情况下,用梯度下降法训练的广义QNN的动力学特性。
最终,团队分析解决了对应于变量量子成本函数的残余训练误差的动力学问题。
关于这一理论的前沿应用,是分析对称QNN的过度参数化。如前所述,对于对称QNN的子空间维度在量子比特数中呈多项式增长的情况,观察训练误差的非消失衰减所需的参数数量也是量子比特数的多项式。因此,将这一结果扩展到对称QNN将是未来研究的一个重要方向。
另一个开放的问题是建立QNTK和量子机器学习模型的泛化误差之间的联系,以及与量子信息论瓶颈之间的联系。
参考链接:[1]https://mp.weixin.qq.com/s/mnDZDETG1rnri9S_T9cyiQ[2]https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.130.150601
|qu|cryovac>