量子计算

王朝百科·作者佚名  2010-01-18  
宽屏版  字体: |||超大  

量子计算是一种依照量子力学理论进行的新型计算,量子计算的基础和原理以及重要量子算法为在计算速度上超越图灵机模型提供了可能。量子计算 (quantum computation) 的概念最早由IBM的科学家R. Landauer及C. Bennett于70年代提出。他们主要探讨的是计算过程中诸如自由能(free energy)、信息(informations)与可逆性(reversibility)之间的关系。80年代初期,阿岗国家实验室的P. Benioff首先提出二能阶的量子系统可以用来仿真数字计算;稍后费因曼也对这个问题产生兴趣而着手研究,并在1981年于麻省理工学院举行的First Conference on Physics of Computation中给了一场演讲,勾勒出以量子现象实现计算的愿景。1985年,牛津大学的D. Deutsch提出量子图林机(quantum Turing machine)的概念,量子计算才开始具备了数学的基本型式。然而上述的量子计算研究多半局限于探讨计算的物理本质,还停留在相当抽象的层次,尚未进一步跨入发展算法的阶段。

1994年,贝尔实验室的应用数学家P. Shor指出 [3],相对于传统电子计算器,利用量子计算可以在更短的时间内将一个很大的整数分解成质因子的乘积。这个结论开启量子计算的一个新阶段:有别于传统计算法则的量子算法(quantum algorithm)确实有其实用性,绝非科学家口袋中的戏法。自此之后,新的量子算法陆续的被提出来,而物理学家接下来所面临的重要的课题之一,就是如何去建造一部真正的量子计算器,来执行这些量子算法。许多量子系统都曾被点名做为量子计算器的基础架构,例如光子的偏振(photon polarization)、空腔量子电动力学(cavity quantum electrodynamics, CQED)、离子阱(ion trap)以及核磁共振(nuclear magnetic resonance, NMR)等等。以目前的技术来看,这其中以离子阱与核磁共振最具可行性。事实上,核磁共振已经在这场竞赛中先驰得点:以I. Chuang为首的IBM研究团队在2002年的春天,成功地在一个人工合成的分子中(内含7个量子位)利用NMR完成N =15的因子分解(factorization)

量子计算将有可能使计算机的计算能力大大超过今天的计算机,但仍然存在很多障碍。大规模量子计算所存在的一个问题是,提高所需量子装置的准确性有困难。

 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
© 2005- 王朝百科 版权所有