前言


{{ Bilibili BV1Qg4y1X7MV }}
第一章 “量子”究竟是什么
1.1 “量子论”的诞生
黑体问题
力学:
- 1687年牛顿将牛顿三定律+万有引力定律统一力学体系
- 1834年哈密顿完成分析力学的全部理论
- 19世纪末形成完善的学科。例如:1845年勒维耶预言海王星的位置, 1846年9月23日天文观测证实
热学:
- 19世纪末,热力学三大定律
- 系综统计方法整合了热学的唯象理论与分子运动的两个基本的研究方向
电磁学:
- 1785年,从库仑定律发现开始
- 1873年,麦克斯韦建立麦克斯韦方程组,“科学美的光辉典范”,玻尔兹曼看到该方程后惊呼:“难道这是耶和华写的嘛?”
- 1887年,证实电磁波的存在。
1900年4月27日,顽固而保守的开尔文勋爵在英国皇家研究所做报告时指出:物理学上空飘着两朵“乌云”。
第一朵乌云:迈克尔孙-莫雷实验否定了“以太”的存在。后果是人们必须放弃以太理论和绝对运动的概念,最终导致爱因斯坦相对论的诞生(1905年)。
第二朵乌云:“紫外灾难”问题。
19世纪,德国工业发展的需求,研究:铁制的拨火棍烧红之后,它的温度、颜色变化范围以及亮度之间是什么关系?
1859年,基尔霍夫投入“烧热的拨火棍问题”的研究。
基尔霍夫的“黑体”:空箱子,壁上有个小孔,任何辐射入射到箱子里面,来回反射,完全被吸收掉,出不来。
基尔霍夫从数学上证明:空腔辐射的范围和亮度仅仅与腔内温度有关。
“黑体问题”:在特定温度下,测量黑体辐射的光能量分布,从红外到紫外每个波长的能量,从而得到一个公式,这个公式称为“基尔霍夫方程”。
由于当时实验条件不够,基尔霍夫方程提出后差不多40年没有任何进展。
1880年,德国各大公司由于市场竞争的需求,开始重视“黑体问题”。找到基尔霍夫那传说中的方程,成为第一紧要的事情。它们投入大量资金,支持帝国理工大学拥有最精密仪器开展“黑体辐射”研究,获得了大量精确的实验数据。

普朗克的“量子”概念
这个蒙出来的公式背后的物理究竟是什么?
普朗克意识到从经典物理无法推导出此公式。但如果假定辐射场与物质交换的能量是一份一份的(称为“量子”),就可以通内插法推导黑体辐射公式。这是“量子”概念首次引入物理领域。
1900年12月14日(周五)下午5点,德国物理学会的例会上普朗克作了《论正常光谱中的能量分布》的报告,引入“量子”推导出普朗克公式。
普朗克被公认为“量子论”的开山鼻祖!
物理学界如何讨厌“量子”这个怪物
人们(包括普朗克本人)都普遍认为,这个“量子”仅仅是一种权宜的数学技巧,而不是一种真实的物理实在。坚信迟早可以将它消化在经典物理学中,但普朗克本人花了几乎10年的时间仍然未成功。
爱因斯坦的“慧眼”
他认为,光辐射不仅在与物质相互作用时交换的能量是一份一份的,光辐射的能量本身就是“量子化”的,这份能量就是能量的最小单位,称为“光量子”(1926年美国物理学家刘易斯称之为“光子")。
光量子化似乎又回到了光的粒子学说。但是,光是一种波动,这是从惠更斯、托马斯·杨和菲涅尔等人坚实的理论和实验研究建立起来的,它打败了以牛顿为首的粒子说学说,已被普遍接受。
“光量子论”遭到物理学界普遍反对。美国物理学家密立根,一开始他根本就不相信光量子的学说,打算通过光电效应实验来证明它是错误的,然而,出乎意料的是它的实验结果恰恰就证明光是一种粒子。
即使如此,他依然坚持光量子假说是站不住脚的。他坚持不懈地试图证伪的实验(实际上证实了)以及康普顿1923年实验证明了光量子的动量。
1921年爱因斯坦因解释了光电效应获得了诺贝尔物理学奖。
光的粒子性与光的波动性都有坚实的实验基础,光子同时具有波动性和粒子性,这与牛顿的粒子有根本的区别。学术界仍然怀疑“光量子”论的真实性,包括普朗克、玻尔等长期都抱持怀疑态度。
1923年德布罗意在爱因斯坦学说的启发下,认为:波可以表现得像粒子,粒子为什么不能表现得象波呢?他提出了物质波的概念并导出电子的质量与波长之间的关系。后来称为德布罗意波。他将发表在法国杂志《简报》上发表的三篇短文整理为博士论文。导师和评委们都对“物质波”存在表示疑惑。朗之万将德布罗意的论文递交爱因斯坦,得到高度评价。爱因斯坦认为德布罗意“揭开了大幕的一角”!
德布罗意的博士论文是历史上含金量最高的学位论文之一,1929年德布罗意获诺奖,成为历史上第一个凭借学位论文获得诺奖的人。
美国物理学家戴维森和革末在实验上观察到电子衍射图,英国物理学家汤姆森也独立发现了电子衍射现象。戴维森和汤姆森获得了 1937 年诺贝尔物理学奖。
其后,科学家发现:微观世界的粒子都同时具有波粒二象性。
德布罗意揭开大幕后,人们终于看到了:自然界客观存在着具有波粒二象性的物理客体,它们不遵从经典物理的运动规律。
接下来,一大批天才的物理学家会致力于寻找支配这类物理客体的运动规律,于是最终诞生了量子力学理论,其中代表人物是海森堡和薛定谔。
海森堡矩阵力学 VS 薛定谔波动力学
海森堡矩阵力学的创立

薛定谔波动力学的创立

1925年,薛定谔灵感进发,从经典力学的哈密顿——雅可比方程出发,利用变化法和德布罗意公式,得到薛定谔方程。
1926年,薛定谔论证他的方程可以解决一大类原子物理的问题。
那么,这两种表述之间是什么样的关系呢?
- 海森堡理论:粒子的间隔性占主导
- 薛定谔理论:粒子的连续性占主导
不久,薛定谔证明,这两种理论在数学上是完全等价的。但仍未消除二者之间的巨大分歧:
- 海森堡方程:是从物质的粒子性出发,
- 薛定谔方程:是从物质的波动性出发。
究竟波动还是粒子才是物质的第一属性,争论十分尖锐。

玻恩解决这个难题,薛定谔完全抛弃物质的粒子性,他认为必须从薛定谔方程中抢救出粒子的概念。
1926年7月发表两篇文章,用概率的概念完美地将波动性与粒子性结合起来,“只有波函数的模平方表明了微观粒子的一种抽象的可能性”。玻恩因波函数的统计诠释获得了1954年诺贝尔物理学奖。
1.2 ”波动-量子“二象性
杨氏双缝实验在关于光的波动学说的第一次论战中,为波动学说的胜利立下了汗马功劳。
按照玻恩的解释,单个光子每次只打在屏上的一个地方,不会同时出现在整个屏上,表明光子的粒子性;但单个光子并不确定性地出现在屏上的某个地方,而是概率性地出现在整个屏上,它出现在某个地方的概率由光子作为波在此处的干涉强度决定。
换句话说,将光子一个一个地穿过双缝,它们在屏上的分布与光子作为波穿过双缝形成的干涉条纹一样。
玻恩的概率波完美地统一了光子的波动性和粒子性。但其代价是放弃了经典物理一贯坚持的决定性和因果性。这使得有关量子力学的争论更是火上加油。连爱因斯坦也不相信上帝是通过掷骰子来确定物理结果!
是什么使得物理世界的确定性丢失?是我们认识的局限性,还是微观世界本该如此?
海森堡不确定原理
当玻恩解释薛定谔波函数破坏了经典世界的确定性的时候,“物理神童”海森堡也在为自己的矩阵力学寻找物理解释,骄傲的海森堡还是从自己的矩阵力学出发,不屑从薛定谔的波函数出发。1927年2 月,他在思考云室中电子的轨迹时得到启发:量子力学是否限制了能够测量的物理量的类型?
他研究发现,任何时候都不能同时精确地测量电子的位置和速度。
进一步发现,不能同时测量的物理量之间的联系:两个不对易的物理量(用矩阵表示)是不能同时被精确测量的。
“海森堡不确定原理”,这宣告了经典物理中确定性的丧失!
玻尔互补原理
当玻恩和海森堡在放弃经典物理的确定性的时候,玻尔正在为微观粒子的波动性与粒子性同时存在大伤脑筋。他最终提出十分得意的“互补性原理”来融合这两个相互抵触的特性的“哲学基础”。
1927年9月在意大利科莫召开的国际物理大会上,玻尔第一次系统地阐述了互补原理的理论框架。并将这个原理连同海森堡不确定原理、玻恩对$\psi$作为几率幅解释有机整合在一起,形成量子力学正统解释的“哥本哈根解释”。其中“互补原理”是核心思想。

玻尔认为,波动性和粒子性是微观粒子的硬币的两面,在同一个时刻它只能向我们展示其中的一面,不能同时出现。
当光子进入到双缝干涉仪时,若后面放个屏,可看到干涉现象,这时观察到光子的波动性一面;若去掉这个屏,光子被对应的光电探测器测量到,这时观察到光子的粒子性一面。因此,光子究竟呈现出波动性还是粒子性,取决于实验上采用哪种测量仪器。

然而,隐参数理论者反驳说,按他们的理论,光子在进入干涉仪之前就能感知,后面的测量仪器是测量波动性还是测量粒子性的,进入仪器之后就呈现相应的特性,而不是同时具有波粒二象性。
玻尔学生惠勒(著名物理学家)便提出著名的惠勒延迟实验来判断微观粒子是否如隐参数理论所言能感知到测量仪器。

隐参数理论认为,光子进入M之前就能感知M2是否存在,进入M之后就按“波动”或“粒子”行为被测量。
惠勒延迟实验:当光子进入M之前,暂时不决定是否放置 M2,当光子进到仪器中间再决定M2安置与否。这个实验结果与互补原理预言的一样,否定了隐参数理论。
事实果真如此吗?
2012年中科院量子信息重点实验室的李传锋研究组巧妙地设计了一种量子分束器来替代分束器M2。
以往所有实验中M2要么在,要么不在,这是种经典分束器。而量子分束器是“在”与“不在”两种状态的叠加态。

实验结果表明,光子同时呈现粒子性和波动性,光子实际上是处在纯粹波动性和纯粹粒子性的叠加态。这一结果首次实验上否定了玻尔的互补原理。
其后,国内外许多研究组采用不同方案都重复了这个结果。波和粒子可以共存!
隐参数理论
玻恩对波函数的几率幅解释是以放弃经典物理的确定性为代价的。这点引起物理学界的普遍担忧,人们仍然希望建立确定性的量子理论。
经典物理种也遇到概率性问题(如统计物理),但这种概率是因为人们了解到的系统参数不足够引起的,原则上可以消除。
那么量子力学是否也存在类似的问题,如果在量子力学理论之外引进某些参数(称为隐参数),可否建立一个包含更多隐参数的更基本的,确定性的动力学理论?这就是隐参数理论所期望的。
1927年10月布鲁塞尔的第五届索尔维会议上,德布罗意提出一个导波理论来替代薛定谔方程波函数的几率解释。他认为,电子的波动性和粒子性是同时存在,粒子是物理实在,它在波的导航下运动,而波函数则对应于物理实在。
这个方案未得到波动力学或矩阵力学的支持,连保持中立的爱因斯坦也保持了沉默,而且在泡利等人猛烈批判下,它放弃了,转而服从量子力学哥本哈根解释。然而故事并未结束。
1952年,美国人玻姆(流亡在巴西)重新复活了德布罗意的想法。玻姆本人是哥本哈根学派的忠实粉丝,但在写完他的著名教材《量子理论》后,对量子力学实在性的确实深感不满,转而研究隐参数理论。玻姆理论是德布罗意导波理论的加强版,认为粒子本质上是经典的,它发出一种弥漫于整个宇宙的量子势(起着类似于“导波”作用)。
玻姆理论能够解释量子力学中的各种问题,可以很好地避开不确定性。
它的代价是必须引入非局域性。所以是一个非局域的隐参量理论。
那么隐参量理论和量子力学哪一个是描述真实世界的第一性理论呢?能否从实验上进行区分?贝尔是爱因斯坦的忠实追随者,它希望有一个确定性、客观的物理理论。他对玻姆理论称赞有加。1964年,他将隐变量理论局限在局域隐变量模型,推导出著名的贝尔不等式,最终到2015年实验上完成了完整且无漏洞的贝尔不等式检验,结果支持了量子力学,否定了局域隐变量的存在。当然,非局域隐变量理论迄今尚未被否定或证实。

1.3 量子世界的”语言“——量子态
量子世界的语言
我们将遵从经典物理的客体集合称为“经典世界”,遵从量子物理的客体集合称为“量子世界”。这两个世界是自然界客观的物理实在。
上世纪末经典物理大厦已建筑成功。而量子论诞生一百多年了,尽管迄今量子力学所有预言都被实验所证实,依然争论不休。
原因何在?
根本的症结在于人们不自觉地采用经典世界地观念作为判据来判定量子世界地真实性是否正确。既然不同物理世界有各自运动规律,描述它们的语言就肯定不同。
例如“轨道"、“波动性”、“粒子性”之类纯属于经典世界的观念就不在适用于量子世界。一百年来关于量子力学种种质疑归根到底是人们企图将量子世界的现象纳入经典观念之中。量子力学就是伴随着不断破除“经典观念”而发展的。
对量子世界这个物理实在本身的内涵的探索,就必须采用量子力学的语言才能还原量子世界物理实在的本来面目。


量子态形成的希尔伯特空间是描述微观粒子的正确用语。按照这套量子语言的描述,微观世界确实比我们想象的还要复杂得多。
玻尔感叹说,谁不对量子物理感到困惑,它肯定不懂它。
费曼(1965年诺贝尔物理奖获得者)甚至说,我想我可以有把握地讲,没有人懂量子力学。

量子操控
那么在量子世界中是否也可以实现量子操控呢?
根据量子力学的公理化体系,允许人们对量子态进行操控和测量。
量子操控与经典世界的操控有本质上的区别:
- 经典操控的对象:物体的位置、速度等各种物理量
- 量子操控的对象:粒子或系统的量子态
我们可以选用光、电、磁等经典工具操控微观粒子,使它精确地处于某特定的量子态上。
在量子器件的初态制备中就是采用这种量子操控方法,将器件设定在某个所需要的态上,在量子处理中,可以设计特定的相互作用使系统的量子态按照期待的方式演化。
法国物理学家阿罗什在实验上实现了对单个光子的量子态及其量子过程的精确操控,美国物理学家瓦恩兰实现了对离子的精确量子操控。两人分享了2012年诺贝尔物理奖,奖励它们对量子操控做出的开创性贡献。
量子操控技术还仅处于初级阶段,远远达不到量子信息技术所需的水平。通用量子计算机所需的量子芯片是千万量级微观粒子的量子系统,要求对其中任何粒子都实现高保真度(99.99%)的精准操控,是个艰巨任务。人类尚未掌握这种技术,这是量子技术发展的障碍之一。
此外,目前量子操控工具是经典工具,未来当量子技术成熟后,还可进一步采用量子工具来操控复杂的量子系统,这将开辟功能更强大的量子器件,而且有助于人们探索量子世界的奥秘。
量子信息的获取
系统的量子态可以给出该系统所有可能的信息,那么如何获取这些信息呢?这是个十分微妙的过程。
提取量子态的信息需要对量子态实施量子测量,例如为获取某个力学量A的信息,需要使用相应的测量仪器,测量一次获得A的一个可能值。如果要获取其他可能值或者要获取其他物理量B的值,便遇到一个根本性问题:测量一次之后量子态会塌缩到特定的量子态上,不再是原来待测的量子态了。
根据量子态的希尔伯特空间结构,如果有某些实验的信息(比如量子态空间维数和基矢),我们就存在一组完备的测量,可以对量子态进行整体的认识,因此量子信息的获取需要对相同的量子态进行多个侧面的多次测量(称之为量子层析技术)才能完成。
量子层析技术适用于由少数粒子构成的系统,对于粒子数多的系统就很难实施。特别是系统不仅有局域信息(即编制在局域量子态上的信息),还有非局域信息(即编制在粒子之间关联的信息),因此,量子测量的技术必须采用适用更一般的非局域信息的测量技术。这是值得探索的新兴量子测量技术。
第二章 爱因斯坦的幽灵
2.1 爱因斯坦与玻尔的争论
1920年春,柏林的初遇与分歧:
- 爱因斯坦:一个完备的光的理论必须以某种方式将波动性和粒子性结合到一起
- 玻尔:捍卫经典的光的波动理论,不相信爱因斯坦“光量子“是真实存在的

会议前二年期间:海森堡矩阵力学;薛定谔波动力学;狄拉克证明两者是更加一般量子力学的特殊描述;玻恩的波函数几率幅诠释;海森堡不确定原理;玻尔互补原理=>量子力学大厦竣工
在这次全世界精英会议上,爱因斯坦同玻尔的论战正式打响。他们关注的一个基本问题是:现有的对微观物理现象的量子力学描述,究竟应不应该、而且能不能够进一步深入、以提供一个更详细的说明(如爱因斯坦所言),还是它已经完满地说明可观察现象地一切可能性。


爱因斯坦在当时已敏锐地意识到了量子力学中可能出现的“一种特殊的超距作用”(后来被称为“非局域性”)。而且“补充以某种详细规定”也暗示所谓隐参数理论的可能性。遗憾的是当时玻尔等人并不十分确定爱因斯坦想通过这个思想实验表达什么。在随后讨论中玻尔完全绕开了爱因斯坦的这个思想实验而按照自己的节奏构造思想实验引导对海森堡不确定性原理的争论。爱因斯坦设计了一个思想实验来说明海森堡的位置-动量不确定性原理将被违背。对此,玻尔给出了一个漂亮的答复,爱因斯坦很快接受了玻尔的反对意见,但对实验进一步改进再来挑战不确定性原理,最后仍然被玻尔驳回。
玻尔在第五届索尔维会议与爱因斯坦的论战取得胜利。会后海森堡和玻恩在他们联合报告中做了一个激动人心的陈述:“我们认为量子力学是一个完整的理论,不需要再对它的基础物理和数学假设进行任何修改”。尽管如此,争论仍在继续。
1930年,再次交锋:第六届索尔维会议
爱因斯坦想出光子箱。理想光子箱有一个光子,打开快门,发射光子,再快速关闭。可精确地控制开门开启时间$\Delta t$,使它任意小,前后光子箱的重量差可给出一个光子能量E。这样光子的能量和时间都可独立以任意高的精度确定,违反了海森堡的时间能量不确定关系。
这次玻尔不能轻易地反驳了,但他度过了一个不眠之夜,终于找到办法:应用爱因斯坦广义相对论的引力红移,论证这个实验中 $\Delta t \Delta E$仍然遵从不确定性原理,成功应对了挑战。爱因斯坦接受了。
但事实上,玻尔这一论证在其后几年被广泛讨论,核心是这里默认了广义相对论与量子力学能够自洽。
对于爱因斯坦,这次会议促使他对量子力学态度有了一个转变,在上一届索尔维会议上,他攻击位置-动量的海森堡不确定性原理,以失败告终;这次用“光子箱”攻击能量-时间不确定性关系,也戏剧性地被驳回,从此他不试图推翻海森堡不确定性原理。当然,他并没有缴械投降,只是改变了自己进攻策略,不再攻击量子力学的逻辑一致性,转而攻击量子力学描述的完备性。我们将看到屡战屡败的爱因斯坦将带上他的“幽灵” 重返这个思想与观念的战场。
2.2 EPR 佯谬
1935年早春,爱因斯坦、波多尔斯基和罗森(EPR)写下那篇著名的论文:”能认为量子力学对物理实在的描述是完备的吗?”
再次公开挑战量子力学,进攻的目标是完备性。
这篇论文只有4页,发表在《物理评论》上,引起激烈的讨论。

一个理论的正确性,只能通过实验测量与理论预言的差别来检验当结果不一致为错。一个不完备的理论则不一定出现不一致而仅仅是对于部分物理实在缺少对应的描述。
EPR想要证明量子力学波函数没有对物理实在提供一个完备的描述。
EPR完备性判据:“物理实在的每一个要素在物理理论中都应有一个对应物。“
怎么确定物理实在的存在呢?
所谓“实在性判据”:“如果系统在没有任何干扰的情况下,我们能确定地(100% 概率)预言一个物理量的值,那么对应于这个物理量存在物理实在的一个要素。“

按照量子力学的预言,如果对粒子Ⅰ的位置进行测量就可以推断出相距甚远粒子Ⅱ的位置。EPR认为,由于对粒子Ⅰ的测量不会对粒子Ⅱ产生“任何干扰”,根据前述的“实在性判据”应当认为存在一个物理实在对应于粒子Ⅱ的位置;类似的,如果对粒子Ⅰ的动量进行测量就可以无“任何干扰”地推断出粒子Ⅱ的动量,故粒子Ⅱ的动量也应当具有物理实在。
量子力学理论坚持说,粒子Ⅱ的位置和动量不能同时得知,于是 EPR认为量子力学不满足完备性判据所要求的“物理实在的每一个要素在物理理论中都有一个对应物。“
应注意:在EPR的推论里用到了一个重要的假设,即后来称之为“局域性假设”,“在测量时,……两个系统不互相作用,那么,无论对第一个系统做什么事,都不会使第二个系统发生任何实在的变化”。
EPR文章结论:量子力学波函数没有对物理实在提供一个完备的描述。
2.3 EPR思想实验的回应与影响
EPR文章的发表将爱因斯坦与玻尔的争论推向了最终的高潮。
非哥本哈根学派核心人员的回应。这些回应都断然肯定EPR的论证是错的,但论证理由五花八门,多数并不理解EPR的思想,甚至连量子力学的哥本哈根解释都没搞清楚。尽管如此,在学术圈里却慢慢形成了一个对EPR非常不利的气氛:不管怎么说,EPR的结论一定是错的。
哥本哈根学派的核心成员显然不会犯此类错误。玻尔看到文章后立即放下了其他工作,开始彻底地检查EPR的思想。一开始他对 EPR 争论的精妙未完全预料到,但随着深入的思考他越发感到惊奇,EPR 实验设计巧妙地避免了直接的相互作用带来的干扰。深入的思考持续六周后终于给出答复,即反对EPR提出的物理实在性判据。文章题目与EPR文章相同。
“能认为量子力学对物理实在的描述是完备的吗?”
玻尔的分析并不十分中肯和明了,他设计了一个模型来分析EPR 思想,认为EPR声称的“不以任何方式干扰系统”的说法是含混的,必须计及测量装置的作用。
泡利对EPR工作用他特有的尖刻评论道:“如果一个低年级的学生能够提出这样的异议,我会认为他还是非常聪明和有前途的。”应当说泡利这样的批评是有失公正的。连玻尔都承认EPR思想实验对量子力学的理解是对的。
海森堡在泡利建议下,撰写了一篇长文,但因与玻尔有分歧在其生前未发表。
当哥本哈根学派团结一心回击EPR的挑战时,有位量子力学的重量级人物却坚定地支持爱因斯坦,他就是薛定谔,波动方程的奠基人。
当EPR文章发表时,薛定谔在牛津大学,但在信中大加赞赏EPR工作的重要性:“我非常高兴你刚刚发表的文章中明显地抓住了量子力学教条的尾巴。”几周后,他向剑桥哲学学会提交一篇报告作为回应,题目为“论分离系统的概率关系”。他不仅证实EPR所得到的结果的正确性,还将其推广到更加一般的形式并且将其视为量子力学存在严重缺陷的一个标志。

在与爱因斯坦通信期间,还有另一个思想实验在薛定谔的脑海中慢慢形成。爱因斯坦出于对不确定性的方案,在信中让他考虑这样一种情况:一桶不稳定的火药,它可能在下一年的某个时刻自发地爆炸开始时,波函数描述一个完全确定的状态一一一桶未爆炸的火药,但是一年后这个波函数描述的是爆炸与不爆炸的混合物。爱因斯坦认为这个波函数不能称为事实真实状态的描述。正是对这样一情况的考量,薛定谔最终构思出了那只众所周知的薛定谔猫。
2.4 爱因斯坦和玻尔争论的焦点与物理实在
1949年12月,爱因斯坦给库珀的信:“要么量子力学提供的是不完备的描述,要么必须假定某种超距作用,这二者必居其一的局面是不能用目前所讨论的考虑来消除的。
事实上,不确定性的初次出现使当时几乎所有物理学家都很惊讶,反对者众多。薛定谔甚至直言“如果真有这样的量子跃迁,我真后悔不该卷入到量子理论中来”。但随着量子力学的成功,人们逐渐认可了这种不确定性及其对传统因果关系的背离。而唯独爱因斯坦却一致在反对这种“掷骰子的游戏”。
是爱因斯坦过于固执吗?那么背后的根本原因是什么?
爱因斯坦与玻尔的另一个分歧:相对论中的核心思想之一定域性。
爱因斯坦是最早意识到量子力学包含非定域性特征的人。在EPR佯谬中他将这种“幽灵般的超距作用”视作其不完备的证据,而并不怀疑定域性的正确性。然而他对这种不定域性的厌恶并不根本,他知道量子力学出现这种非局域性不能用来超光速通讯,不会与相对论发生矛盾。这才退而求其次地选择攻击量子力学的不完备性。
“没有量子世界。只有一个抽象的量子物理学描述。认为物理学的任务是发现自然界是怎样的,那是错误的。物理学关心的是我们对自然界能够说些什么。”——玻尔
将玻尔这一原则坚持到底意味着物理学彻底放弃了物理实在的概念。
当人们笼统地宣称“玻尔最终获得了胜利“的时候是否看懂到底玻尔坚持的是什么?

注:上图中是爱因斯坦的观点。在爱因斯坦看来,如果不承认物理实在的独立存在,那就没有讨论的基础了。「你相信否,只有我们回头看,月亮才存在」,这是玻尔的观点。
玻尔认为我们不测量,物理实在就不存在。
物理学界默认玻尔再次获得胜利,对EPR问题的讨论也逐渐冷淡下原因大致有三个:
首先,量子力学不断取得巨大的成功。只要人们将它当成计算工具就不会有事。正如费曼所说的,你最好是接受它使用它,而不要去问,在这背后有什么机制。对物理学家而言,一个理论有用是放在第一位的。量子力学到目前为止还没有发生过任何与实验相矛盾的预言。
另外,是时机。量子力学刚刚成功之时,人们更关心是建设而不是质疑。当时的主流是大步进军量子场论和粒子物理学,而不会回到量子力学基础问题的讨论。
最后是当时的自然哲学环境对爱因斯坦所坚持的信念并不友善。当时欧洲有马赫的实证主义(是玻尔所秉持的),对于把自然界看成是客观实在的观点,现在人们认为这是一种过时的偏见。当人们发现爱因斯坦与玻尔的冲突似乎逐渐落入哲学领域时,物理学界的热情逐渐退去。EPR的幽灵不仅仅是一个哲学冲突的产物,而是一个实实在在的物理问题,可以设计出实验理清这个“幽灵”的本质,这一天的到来还要再等近三十年。
客观世界存在不存在?物质先于意识还是意识先于物质?
老子认为道在人之外就存在了。(朴素的客观唯物主义)
2.5 ”幽灵“可否实现超光速的通信

这个“幽灵”究竟是什么?
A测量后,B的自旋瞬时变化,似乎是“因果关系”,实际上并不如此。如果同时测量A和B的自旋,它们的自旋总是得到相反的结果。这个过程的发生无须AB之间传递任何信息,因此不会有任何超光速信息传递。
如果用100对AB(每对总自旋为0)做实验,100个A在地球,100个B在月球,分别同时测量所有粒子的自旋,结果是:A或B系列的自旋向上或向下是完全随机的。一旦将这两列随机数据一一比对,会发现每A、B对的自旋总是相反的,亦即这两个随机数是完全关联的。
“幽灵”的本质特征就是“内在关联”,这个关联起源于初始时AB处于自旋总量相反的特殊量子态(称为纠缠态)上。这种量子关联源于量子世界的基本特征,称为量子非局域性(下章专题讨论),俗称EPR效应。

形象类比祖孙三代的关系。没有任何一个瞬态信息的传递,没有超光速的信息传递。
第三章 神奇的量子非局域性
3.1 贝尔定理与非局域性
量子非局域性是物理学基础研究中的核心概念之一。所谓局域是指局限于空间中的一隅。
局域性在之前被称为接触作用原理:一个事物不能在它所不在的地方存在任何作用。
牛顿万有引力定律允许地球对月球的作用跨越广阔的虚空。
另一例子是库伦定律。两个点电荷存在没有得到解释的非接触的力的作用。物理学家试图构造一个局域性的纯力学解释。法拉第和麦克斯韦成功了:引进电荷的力线场概念,一个电荷是通过它周围的电场去作用另一个电荷。场论的思想能够清晰地表示出局域性:在某一刻某处发生的事件只能被上一时刻该处周围的状态的影响,而且在下一个时刻它也只能影响它周围的状态。
引力作用的非局域性问题却没那么容易解决。直到1915年广义相对论的诞生给出了引力的场方程,引力是时空本身的弯曲。场论描述的引力现象中没有超距作用,局域性再次获得胜利。
自此,所有的相互作用都应当满足局域性原则成为了一种基本要求。
西元20世纪30年代发现的弱相互作用、70年代发现的强相互作用都满足局域性原则。
宇宙中所有的四种相互作用都是局域的了。
1927年第五届索尔维会议上爱因斯坦就察觉到对量子力学的波函数的解释会涉及“一种特殊的超距作用”。这种超距作用并非由某种作用力给出的,因此是“特殊的”。
1935年,EPR的文章中他进一步明确了这种幽灵般的超距作用,认为一定是量子力学出了问题,质疑它的完备性。
物理学史上已经发生过两次一个非局域的理论被一个局域性的理论成功的替代,这种情形为什么不能再次发生呢?
所以爱因斯坦关注的焦点并不是非局域性而是量子力学的完备性,这促使他试图寻找一种更加完备的量子力学的替代理论。
贝尔定理提出的背景
首先一个原因是EPR的工作。EPR文章最后总结到,“于是,我们显示出波函数没有为物理实在提供一个完备的描述,这样一种完备的描述是否存在是一个留待解决的问题。不论如何,我们相信这样的理论是可能存在的。“
这一总结也是对新一代物理学家所提出的挑战与激励。

第二个原因是冯诺依曼在《量子力学的数学基础》一书中给出的一个“量子力学统计形式的证明”,否定了任何隐变量理论(局域和非局域)的可能性。然而冯诺依曼的证明本身是有问题的,这导致人们对他关于隐变量理论否定的怀疑。
第三个原因是1952年玻姆力学的提出。它是一种典型的非局域隐变量理论,可以成功地复现所有量子力学的预言,与实验是一致的。
玻姆力学给贝尔带来两点启示:一是隐变量理论是可能的,冯诺依曼的证明肯定在哪里出错了;二是尽管玻姆力学能够成功复现量子力学,但与当时所知道的各种隐变量理论一样是明显非局域性的理论。
贝尔自问:是否所有能与量子力学结论一致的理论都必须是非局域的呢?
贝尔回忆:“作为一个专业的理论物理学家我偏好于玻姆理论,因为它是明晰的。这样我们就有了一个关于世界的数学上清楚显示非局域性的理论。当我意识到这点,便问自己:‘是否有人能比玻姆更加聪明,以避免理论中的非局域性呢?’这就是玻姆理论给我带来的问题。这个定理(即贝尔定理)说的是‘不行!就算你比玻姆聪明也无法将非局域性排除掉。’它在数学形式上明确地给出了非局域性。”
贝尔定理的内容
“如果一个理论是局域的,那么它将与量子力学的预言相冲突,任何与量子力学预言一致的理论必须是非局域的。”
CHSH型贝尔不等式
为了证明这一结论,贝尔基于EPR问题的核心构建了一个数学模型。为易于理解,这里用后来应用较为广泛的CHSH(J.Clauser,M.Horne, A.Shimony和R.Holt)型贝尔定理为例力加以说明。


任何局域隐变量模型都不能违背这个不等式。量子力学的预言违背这一不等式,相应的C的期望值最大可以达到$2\sqrt2$。
这样贝尔定理就给出了对于EPR问题的一种回答:如果实验上的结果与量子力学的预言一致,那么我们的物理世界必定是非局域的。这种结果对于一直站在爱因斯坦这边的贝尔来说深感意外!
通过贝尔定理,EPR问题中所涉及的看似哲学上的观念被转化为具体的数学模型,局域性假设是否成立最终将交由实验来判决。
决断性实验:1982年由阿斯派克特等人完成的实验结果高度符合量子力学给出的预言,并且给出了违CHSH不等式5个标准差。
实验中存在的各种漏洞:如测量设定并不完全随机;局域性漏洞;记忆漏洞;测量效率漏洞等。
2015年汉森团队终于实现了无漏洞的CHSH贝尔不等式检验,第一次在实验上同时填补了测量效率漏洞,局域性漏洞以及记忆漏洞,此时离贝尔定理提出已经过去了半个世纪。
贝尔定理的意义与非局域性的内涵
贝尔定理的意义:
- 局域隐变量模型失效;
- 世界是非局域的;
- 催生而来大量基于非局域的应用,如量子密钥分发、降低分布计算的通讯复杂度、构造安全的随机数发生器等。

非局域性分类:
- 空间非局域性
- 时间非局域性
- 时空非局域性
经典世界的特性:
- 确定性:每个时刻,物理客体物理量都具有确定值。
- 局域性:物理客体状态不会受到与无相互作用的其他物理客体的影响。
量子世界的特性之一一不确定性:
- 量子客体具有不确定性,即每个时刻的物理量不确定。
- 量子世界的不确定性、概率性是本质,无法消除,与经典物理中的不确定性不同,后者的概率性是源于信息的缺失,原则上是可以消除的。
- 波函数状态是确定的,波函数可以推导出各种物理状态,但是物理状态是不确定的。
量子世界的特性之二——非局域性:
- 1927年10月,爱因斯坦与玻尔正式交锋,
- 1935年,爱因斯坦提出"EPR样谬”
- 1966年,Bell定理诞生。
- 1982年,Bell不等式首次实验上被违背。
- 2015年无漏洞Bell不等式实验上验证。
3.2 量子纠缠

纯态和混合态


制备纠缠态
在多体系统中纠缠态的比例是远远多于非纠缠态的。实验上制备纠缠态主要的难题是制备出可控的易于操作的高保真度纠缠态。有三大类型制备法。
(一)在粒子生成时便成对产生,生成后的粒子对处在纠缠态上。
其物理本质是由于生成过程的守恒定律使得它们的相应可观测量之间存在纠缠关系。例如,广泛使用的非线性晶体的自发参量下转换效应,如图所示。
(二)两个粒子分别独立产生,之后通过相互作用产生纠缠。
(三)利用后选择的办法,挑选出一些特定的情况,应用全同粒子不可区分性实现纠缠。(由于挑选条件的约束,并不是每次都可以成功地实现纠缠)
3.3 量子隐形传态
量子隐形传态(quantum teleportation)
物理学之外很早就被广泛使用:
- 魔术中将一个大活人一瞬间传送到另一个地方(“瞬移”);
- “隔空取物”;
- “双生子”远距离“心灵感应”等表演。
超自然主义、科幻以及影视作品中常出现。所有这些并不真实存在于自然界。
1993年班奈特等人在《PRL》上发表《通过经典与EPR双通道远距离传输一个未知的量子态》文章,将此过程称为“teleportation” 首次给出了量子隐形传态的理论方案,自此量子隐形传态才正式成为一个严肃的物理概念。

Alice如何将这个未知量子态(即量子信息)告诉Bob,但量子信息载体不传送呢?
经典场合,Alice可以选择测量这个态然后告诉Bob,但是量子力学中通过一次测量是无法得知$\alpha$和$\beta$的值的,而且测量后$|\phi>$的信息会被破坏。
经典场合还可以复制出这个未知态再将其送给Bob,但是在量子力学中量子不可克隆定理指出:未知量子态是无法克隆的。
班奈特等人的新方案:
量子非局域性的一个特点是,对纠缠态的Alice一端进行操作将会影响到Bob一端的量子态,即Alice可以借此远程制备Bob端的量子态。如果Alice操作合适的话,可使得Bob端的量子态变成$|\phi>$,这就等同于Alice将$|\phi>$传递给Bob,而且这是Alice手中原本的$|\phi>$在操作后就不存在了,从而并不违背量子不可克隆定理。同时Alice操作也不是直接测量$|\phi>$,因此α和β的信息并没有被摧毁而是暗中传递到Bob一端。这样利用纠缠态的这种非局域性,Alice就巧妙地将Bob手里的量子态“变成”了$|\phi>$而不违反任何物理定律。
关于量子隐形传态有几点值得讨论:
①Alice原来手里的信息($\alpha$,$\beta$)究竟是如何传送给Bob手里的。
Alice和Bob尽管共享一对纠缠粒子,这个纠缠态不包含有任何$\alpha$和$\beta$的信息。 Alice真正传给Bob只是她测量的结果,这两个经典比特显然无法包含有两个复数$\alpha$和$\beta$的全部信息。因此整个过程似乎是通过某种隐匿的方式完成的。单纯量子力学的计算很清楚,但背后是否有某种更加深刻的原理仍然未知。
②隐形传态后,Alice原来的态$|\phi_1>$已不存在了,所以没有违背不可克隆定理。
③量子隐形传态并不超光速,因为Alice必须将测量得到的经典信息传送给Bob,经典世界不可能超光速。
量子隐形传态的实验
1998年,博斯基(Boschi)等人首次在实验上演示量子隐形传态,利用量子光学平台展示了光子的线性偏振态亦即椭圆偏振态的隐形传态。
2004年,维也纳大学小组首次实现了600米的远距离隐形传态,保真度达97%,目前最远距离隐形传态可达143千米。
除了光子态的隐形传态外,也有实物粒子态(离子,原子等)的隐形传态。
3.4 量子技术能否将人”瞬间“转移
利用量子技术究竟能否像科幻电影中那样“瞬间”传送人到别的星球呢?
首先,有关“粒子全同性原理”,在量子力学中所有相同种类的粒子是全同的,唯一不同的是它们的量子态,如果同种类的两个粒子量子态也相同则完全不可区分,因此隐形传态过程中如果将一个粒子全部的量子态复现在另一个粒子上就可以认为是将原来的粒子转移到另一处了。
“全自由度量子隐形传态”的问题
仅仅多自由度的隐形传态是不够的,只要有一个性质没有传送过去就不满足全同性原理的要求,就不能认为是将粒子转移过去了。
目前技术上还远远无法达到全自由度隐形传态的要求。像人这样的一个物体显然是由原子、分子这样的实物粒子构成的。
但从理论上来说,原子的全自由度隐形传态也是可能实现的,不过就算一切顺利,与电影显示的“瞬间”转移也会有所不同。电影里飞船上的宇航员传输后会消失不见,然而出现在外星球上,而且外星球上不需要一个实验室。
除了技术上无法企及的困难外,理论上仍有不明之处。
- 从微观粒子到宏观的外延在理论上是否合理,这涉及后面要将的量子与经典世界界限问题。
- 更严重的是人不仅是宏观物体,而且也是活的生物体,生命、情感等能够采用“量子态”来描述吗?迄今的答案是否定的。
- 因此,即便能实现宏观物体的隐形传送,充其量也只能传送僵尸、木乃伊之类无生命的客体。而且量子隐形传态不可能超光速,想要“瞬间” 地将人转移到别的星球仅仅只是神话而已
第四章 薛定谔猫究竟是怎么死的
4.1 薛定谔猫的诞生
薛定谔猫

促使薛定谔的猫在大众文化中流行起来有两个重要的人:
- 匈牙利理论物理学家与数学家维格纳;凭借其在基本粒子领域的贡献于1963年获诺贝尔奖;提出“维格纳的朋友”的思想实验。
注:1961年,维格纳在一篇题为“Remarks on the Mind-Body Question”的论文中,提出了一个思想实验,这就是著名的“维格纳的朋友”(Wigner‘s friend)悖论。维格纳希望以此证明,意识确实可以对物理世界产生影响。这个思想实验可以视为薛定谔的猫思想实验的升级版,只是把装猫的盒子换成了一间与外界完全隔离的实验室,并将那只傻憨憨的猫换成了一位精通物理知识的实验科学家。
- 当时在哈佛大学任教的哲学家普特南;他从哲学角度考察了薛定谔猫佯谬并写入《哲学家眼中的量子力学》一书;《科学美国人》杂志的书评将薛定谔猫正式引入公众视野。

爱因斯坦、薛定谔:物理实在是确定无疑的状态,这种状态是可以区分的,但是没法叠加
玻尔:这个物理实在不实在,只有测量以后才实在
量子力学当前的状态
薛定谔提出了一个EPR论证的反对量子力学完备性命题的论证。
态区分原理:可以通过一次宏观观测来辨别的一个宏观系统的各个态相互是不同的,无论是否对它进行观测。
薛定谔认为量子力学对宏观物体物理实在的描述是不完备的。
把一只猫关在一个封闭的铁盒子里面,并且装上以下设备:在一台盖革计数器内置入极少量放射性物质,在一小时内,这个放射性物质至少有一个原子衰变的概率为50%,它没有任何原子衰变的概率也同样为50%;假若衰变事件发生了,则盖革计数管会放电,通过继电器启动一个锤子,锤子会打破装有氰化氢的烧瓶。经过一小时以后,假若没有发生衰变事件,则猫仍旧存活;否则发生衰变,这套机构被触发,氰化氢挥发,导致猫随即死亡。然而用以描述整个事件的波函数竟然表达出了活猫与死猫各半叠加在一起的状态。“

注意:
- “封闭的盒子”的设定,就是要求猫和放射源以及其他装置构成一个封闭的孤立系统,只有这样整个体系才是按照薛定谔方程演化的。
- 关于猫的状态并不是因为缺少信息而不知道它的生死。骰盅里一个经典的骰子不知道几点是因为缺少信息,而一只薛定谔的猫不知道生死却是因为它就处在生与死的叠加态上。按照实验设定,在测量前对整个系统的状态是完全清楚的,它是一个量子纯态。量子力学能给出的全部信息就是这个纯态,这里没有信息的缺失。

EPR佯谬 VS 薛定谔猫佯谬

宏观实在性是确定的状态,而量子状态是叠加的。
薛定谔猫佯谬在很长一段时间都无人问津。原因主要是:
- 当时哥本哈根诠释在物理学界的主导地位。
- 当时宏观叠加态的设想根本不可能在实验上制备出来。
现在的实验技术已经有了巨大的进步,制备的量子叠加态的尺度越来越大,相干时间也越来越长。研究人员在各种不同的实验系统中实现了薛定谔猫态的制备与操控。




4.2 哥本哈根学派:量子测量导致波包塌缩是”猫“的死因
哥本哈根学派代表人物:玻尔、海森堡
他们对量子力学的诠释上都有分歧。
在通常的语境下,人们将它看成一个预言实验结果的“计算工具包”。
用大卫·默明(David Mermin)的话来说,所谓的哥本哈根诠释就是“闭上嘴计算”。
玻尔的可能回应
玻尔并没有直接针对这一思想实验给出回应。
哥本哈根大学研究自然哲学与科学史的贾恩·费耶(Jan Faye)认为,“对于玻尔而言薛定谔猫佯谬对量子力学并不够成任何威胁,包括盖革计数器在内的联动装置已经可以作为一个测量仪器了,不论是否有观察者的观测,在打开盒子之前猫已经处在了或者生或者死的经典状态上了。“
盒里的测量仪器的测量已经将“薛定谔猫”杀死了,变成经典猫(或生或死)。
冯诺依曼与魏格纳的回应
他们强调,一个完整的测量过程必须包括观察者对仪器结果的感知。魏格纳给出了一个“魏格纳的朋友”的思想实验。

只要F打开关猫的盒子,实验室里的整个量子态就塌缩到确定的状态,这一状态尽管实验室外的魏格纳并不知道,但依然是确定的。
朋友F是具有意识的,其开心与难过的状态无法叠加。
惠勒的回应
惠勒将观察者在基础物理过程中的地位发挥到了极致,“一个现象只有被观测到才能成为真实的现象。”甚至整个宇宙因为是人参与的,被称为参与的宇宙(participatory universe)
惠勒将量子力学哥本哈根诠释中观察者的特殊地位运用到宇宙,最终推演到荒谬得难以接受的程度。
哥本哈根解释的困境
“测量”导致“薛定谔猫”的死亡,导致宇宙的现状。然而,自然界并不是在人诞生后通过测量所生成的,反之,人才是自然演化的产物。
《宇宙学家的量子力学》:
“看起来这个理论(指量子力学)除了‘测量的结果‘外不关心任何其他问题。当人们考察的‘系统’是整个宇宙的时候,你打算把‘观察者’搁哪?大概只能是‘系统’内吧。那么究竟一个怎样的子系统才能承担起观察者的角色呢?难道整个世界就在那儿等着,等到数十亿年后第一个单细胞生物被进化出来?还是说还得再等等,等到一个能拿到博士学位的人出现,这样他才能算是个更加合格的观察者?
“人们希望能获得一个关于这个世界的现实一些的观点,希望能够谈论这个世界,就像它真的在那里一样,即使在没有对其进行观察的时候。我当然相信存在一个世界,在我之前它在那里,在我之后它仍将在那里。我相信你也是这个世界的一部分。我相信,当物理学家们被哲学家们逼到了墙角时,绝大多数物理学家会采纳这种观点。
哲学——人择原理,人来选择存不存在。
哥本哈根学派对于薛定谔猫死亡的诠释是错误的。
4.3 环境消相干导致”薛定谔猫“的死亡

不确定性导致有叠加原理,有叠加原理就是相干性。
热库(环境)导致量子相干性消失。
热库(Thermal reservoir)是热力学中固定温度的热来源概念,其温度不会因热量增减而发生改变。该术语用于描述在热力学分析中能够吸收或释放任意数量热量而保持温度恒定的理想化系统。

1996年阿罗什等人的实验不仅制备出了介观薛定谔猫态,也观测到了环境导致消相干的过程,观测结果与量子消相干理论预言相符合。
环境导致的消相干是各种人造薛定谔猫“死亡”的主要原因。更普遍讲,在我们日常生活中从未见到过处于生与死的叠加态的猫的原因是在日常生活环境下任何宏观叠加态都会以极快的速度消相干,退化为经典的确定的状态。
但是薛定谔质问的并不是为什么从来没有人见到过处在生与死叠加态的猫。他讨论的是生与死的叠加在逻辑上的荒谬性而不是在现实上的荒谬性。在他的思想实验中,完全排除掉环境消相干的影响,那么薛定谔猫还能存在吗?环境消相干理论无法回答。
4.4 薛定谔猫的自然死亡
如果宏观体系也按照薛定谔方程演化,薛定谔猫不会死,但宏观世界并不存在宏观状态(生与死,爆炸与未爆炸)的叠加,因此薛定谔猫的死亡过程必定要在薛定谔动力学下附加一种非幺正的塌缩,这就涉及量子世界与经典世界的界限问题。

GRW自发塌缩理论
1985年吉拉迪、里米尼和韦伯(G.C.Ghirardi,A. Rimini,T.Weber)发表了一篇文章题为“宏观和微观系统统一的量子描述模型”,首次提出一种波函数自发塌缩的理论,用来解释测量问题以及对宏观和微观系统的客观状态进行统一描述。

因为当粒子数增加的时候,由于每个粒子都独立的自发塌缩,而粒子之间具有相互作用,这使得只要一个粒子自发局域化后整个的系统就局域化了。因此一个宏观系统的局域化是很快的,约为1秒,这种宏观系统位置的自发消相干与环境和测量都没有关系。原则上只要将一个足够大的系统的叠加态保持足够长时间的相干性,就可以观测到GRW自发塌缩。这种塌缩理论对薛定谔猫“死亡”的解释是,由于猫的具有相互作用的粒子数足够多,其中一个粒子的自发塌缩导致了量子猫的“死亡”。
GRW理论有如下三个优点:
①在系统粒子数较少的情况下,系统的行为与传统的量子力学类似。例如单个粒子,由GRW自发塌缩所引起的消相干时间长达亿年量级。
②当系统粒子数达到一定数目时,系统几乎必然塌缩,自发的局域化后其动力学符合牛顿力学。
③可以解释测量导致波函数塌缩,因为测量中粒子与仪器相互作用,满足GRW的公设,可以推导出波函数的塌缩现象。
GRW理论自身的问题:
①它是一个完全唯象的理论,塌缩的内在机制是什么并不清楚。
②GRW理论也存在与相对论不相容的问题,但它提供了一种新的研究方向,激发了后继许多研究。
引力诱导塌缩理论
量子客体通常比较小,引力效应可以忽略,宏观客体通常比较大,引引力效应则很明显。
人们猜测系统自身的引力效应可能是解释量子世界向经典世界转变的关键。于是引力诱导塌缩理论应运而生。
1996年英国数学物理学家彭罗斯(Roger Penrose)提出这种理论。他考察了薛定谔方程中时间的绝对性所引起的与相对论的冲突。

不同的分布对应的时空曲率或者说引力是不相同的,因此考虑到相对论后薛定谔方程里时间的意义是无法恰当给出的。
彭罗斯尝试给出的一种调和矛盾的办法是,在时空中逐点比对$|\alpha>$和$|\beta>$所引|起的不同,这种差异对应于薛定谔方程中的一个微小的能量$E_g$差别,由于量子力学给出的时间能量不确定性关系,这种能量差异所允许存在的时间为$h/E_g$,彭罗斯认为一旦超过这一时间叠加态$|\phi>$将自发塌缩。更进一步,他将传统量子力学中定态的观念修正到包含自身引力时的情况。
结论是,一个质量为m的系统,如果要保持位置叠加态,其距离的极限不能超过某个量级。例如在实验上如果将薛定谔猫态制备为相距0.5微米的位置叠加态,则当这只量子猫的质量超过$10^9$原子量单位时将自然“死亡”。
引力塌缩和外界没有关系,跟测量没关系,跟环境没有关系,是猫本身产生的。 猫的质量发生变化,这是引力场的一种观点。
小结
薛定谔猫究竟是怎么死亡的?最为合理的解释是它是“自然死亡的。至于导致它自然死亡的物理机制究竟是什么,迄今尚未完全搞清楚,而这正是下一章将要介绍的第二次量子革命的任务之一。
第五章 第二次量子革命
5.1 何谓”第二次量子革命“

费曼上“量子力学”课时总是告诫学生,学量子力学,只需搞清量子力学允许我们去“做什么”,而不要去追问“为什么”。
第一次量子革命成功之处就是“解薛定谔方程”,从中获悉量子力学让我们“做什么”。
量子信息开拓了量子力学在信息领域的应用,促进信息科学的发展从“经典”迈进“量子”的新时代。
迄今人类社会所使用的器件和技术均是“经典”的,因为它们的工作原理是受经典物理的支配的。
现代信息技术的核心技术:电脑与激光,其原理均来源于量子力学,但其中用到的器件的运行原理却仍然是由经典物理所支配。
量子信息技术的器件都是遵从量子力学规律运行的,所以我们称之为量子器件。量子器件呈现量子的特性,如量子相干性、非局域性、不可克隆性等。
作为信息器件,它比经典器件具有更强大的信息功能,其性能可以突破经典器件的物理极限,将信息处理速度传送信息的容量、信息感知的灵敏度和精度等提高到前所未有的新水平。
因此,量子信息的应用将促进人类社会的生产力提升到新的发展阶段。当然,量子器件是一种人造的宏观量子器件,其最大的脆弱性在于量子特性在宏观环境下不可避免会遭受到破坏,如不能有效地保护其量子特性,量子器件会不可避免地演化为经典器件,其优异的性能消失殆尽。
科学家已研究出保护宏观器件量子相干性的各种方案,因此,量子信息技术的最终实现不存在原理性障碍。当然,如何在技术和工程层面将这些方案付诸实现仍然困难重重。
量子编码需要考虑容错原理。
- 纠错
- 避错
- 防错
因此,当我们说,量子信息的诞生使人类社会从“经典时代”迈向“量子时代”,指的是人类社会生产力发展到新阶段的这种必然趋势,而不是说“量子时代”已经到来了。
量子信息的诞生,不仅将促进人类社会的发展,同时将有助于揭开量子世界的奥秘,深化人类对自然规律的理解。
量子世界的运行规律与我们熟知的经典世界迥然不同。
量子信息的诞生将使人类对量子世界的理解产生深刻的变化:
- 一方面,量子信息为人们展现了许多新的理念,如量子纠缠、量子非局域性等等;
- 另一方面,量子信息提供了强有力的研究量子世界的新工具,例如量子技术、非局域技术等,采用这些新的工具,有可能推开量子世界的大门,让我们窥探到量子世界的奥秘。
例1关于“波粒二象性”的实验
微观粒子同时具有波动性和粒子性,量子力学理论统一描绘了微观粒子的波粒二象性,亦即服从量子力学规律的粒子或系统都具有波粒二象性。在量子力学框架内再去谈论粒子的波粒二象性没有学术价值,因为量子世界的所有客体本来就应该是这样。
那么,为什么人们还一直对波粒二象性争论不休呢?
原因是人们仍然企图从经典观念去理解量子客体的性质和行为所致。
玻尔提出“互补原理”来诠释“波粒二象性”,认为在实验之中,我们要么只能观测到波动性,要么只能观测到粒子性,绝不能同时观测到波动性和粒子性。
玻尔认为任何一个量子实体,如光子,都具有二重性质,即波粒二象性,任何实验都不能同时揭示出它既作为波又作为粒子的行为。
2012年,中科院量子信息重点实验室李传锋研究组设计了一种“量子分束器”来替代以往实验中所使用的经典分束器。经典分束器在实验中要么“在”,要么“不在”,其状态完全是确定的,而量子分束器则是处于“在”和“不在”的叠加态上。

例2不确定性原理
海森堡提出的不确定性原理在量子力学的创建过程中发挥着至关重要的作用。不确定性原理指出,不对易的力学量不可能同时精确测量。
海森堡于1926年直观地给出的不确定关系如下:$ΔxΔp≥\frac{h}{4π}=\frac{\hbar}{2}$
$x$和$p$分别代表电子的位置和动量。同年,美国物理学家肯纳德(E. Kennard)从数学上严格证明了不确定性原理,指出△x和△p是位置和动量的方差。
不对易的力学:矩阵力学
考虑一般的可观测量R和S,推广的不确定性原理一一海森堡-罗伯森对易关系$\Delta R \Delta S≥\frac{1}{2}|<[R,S]>|$,其中△R和△S是相应可观测量的标准差。
而$[R,S]$则是两个算符的对易子,如果$[R,S]=0$,则这两个算符对易,否则不对易。回头再来看位置算符$x$和动量算符$p$,它们是不对易算符且$[x,p]=i\hbar$,这样就很容易得到海森堡不确定关系。
可以看出,被海森堡看成是约束着量子系统测量的这种关系实际上有着更深层次的物理意义,因此后来也被接纳为量子力学一种原理。
从算符的对易关系出发可以看出,在量子测量中,并不是任意的两个可观测量都不能被同时精确测量,只要描述这两个可观测量的测量算符是对易的,就可以被同时精确测量到。例如电子的水平位置和垂直位置是两个对易的可观测量,在实验中是可以被同时精确测量的。
由于在研究这个原理的初始,脱离不了可观测量的概念和对量子测量过程的分析,这个原理也被称为测不准原理,这样的称呼更符合讨论量子测量的场景。
测不准原理给人的感觉,更多的是技术的限制而不是物理原理的约束。
现在通常把测不准原理翻译成不确定性原理。
然而,事实上只要接受德布罗意物质波的假设,也就是所有的微观量子系统具有波动性,反而很容易理解,不确定性原理本质上是物理原理上的约束,而不是一个技术问题。因此以宏观物体的经典物理量(如位置和速度)测量的例子来说明不确定性原理,严格来讲是不正确的。可以说不确定性原理是波(经典机械波和物质波)的一种本质属性,而与测量并没有直接关系。

论文:The uncertainty principle in the presence of quantum memory
新近由贝塔(M.Berta)等人在前期理论研究的基础上,于2010年提出了一个升级版的不确定性原理,用于指导开放系统的信息提取和测量扰动之间的权衡问题。
他们的研究指出,如果一开始将待观测的粒子A和一个辅助粒子B纠缠起来,那么关于粒子A的两个互补(不对易)可观测量的测量结果不确定度可以同时被无限制地缩小,数学上基于冯诺依曼熵可以将上述结果表示为$H(R|B) + H(S|B) ≥ log_2 \frac{1}{c} + H(A|B)$
条件冯诺依曼熵:用于表征在已知储存于粒子B的量子信息的情况下,可观测量$R(S)$测量结果不确定度。
而-H(AIB)对应于A和B的单向可蒸馏纠缠的下限,因此这个升级版的不确定性原理给出了在待测量子系统和外界有纠缠的情况下的下界。
如果待测系统是完全孤立的,那么这个关系式就退化为传统的形式。
为什么会有这样一个强化的不确定性原理呢?
正如前面所述,这是对量子力学的研究从考虑孤立量子系统向开放量子系统过度的一个必然结果。
实际上,传统的不确定性关系关心的仅是量子系统被测量之后获得的经典信息,如位置和动量等。而量子信息理论的发展表明,量子系统不仅具有经典信息(经典关联),还含有量子信息(量子关联)。
新形式的不确定性原理,正是考虑量子系统含有的量子信息后,对传统不确定性原理的一个推广。
新近由贝塔等人的论文就是在考虑将A粒子的量子信息先储存起来(与B粒子纠缠),然后再考虑对A粒子的不对易可观测量进行测量。当它们处于最大纠缠态时,两个不对易的力学量可以同时被准确测量,此时传统的海森堡不确定性原理将不再成立。

实验中,我们给出了两个不对易可观测量输出结果不确定度的下界,与新近由贝塔等人的理论符合的非常好。我们的实验结果表明,如果系统和外界有量子关联,在待测系统的"量子信息”事先被存储的情况下,“传统的不确定性原理能够被违背。
量子信息的诞生并没有推翻量子力学的不确定性原理,而是深化了对这个原理内涵的理解
例3宇宙万物源于量子比特吗?
维度是物理学中至关重要的一个属性。如果将经典的计算机看成一个物理系统,那么它就是标准的两维系统,在经典计算机中制备、操作和测量只有两种状态:高电平(0)和低电平(1),所以这个物理系统中所有的功能都被限制在了两维的空间内,我们称作这样的系统为比特(bit)系统。比特系统作为最简单的维度系统,广泛的应用于各种人造的物理体系中。而在自然界中的物理系统,其维度往往都高于二维比特系统(我们称作高维系统,有许多维度:如1,2,3..)。
20世纪著名物理学家约翰·惠勒曾经提出一个令人深思的论断“万物源于比特(It from bit)”。这种观点认为信息是非常基本的,宇宙万物(包括任何粒子和场,甚至时空)都起源于信息的基本单元一比特。量子信息兴起以后,这一论断升华为“万物源于量子比特(It from qubit)”。以信息为基础重新构建量子理论是当前重要研究方向。
那么这类研究就触及了其中至关重要的一个问题,即只考虑比特或量子比特(即二值理论)来构建量子理论就够用了吗?
不够用。高维系统和二维系统有本质的不同。
1964年贝尔首次指出:如果我们可以找到一些特殊的量子态和力学量,构造一个不等式,而这个不等式的上界为遍历局域隐变量理论得到的最大值。那么一旦我们在实验室中观测到这个不等式的违背,我们就可以确定局域隐变量理论的错误,间接证明了量子力学的正确性,实验上也确实是这样做的。
按照贝尔的这个思路,想要证明“万物源于比特(It from bit)”论断的错误,我们只需要找到一个反例,能证明高维的系统并不能由二维的比特系统完全构成就行。
2017年,西班牙、德国和匈牙利的理论物理学家在理论上证明了任意的$n+1$出口的测量会产生比$n$出口的测量更强的量子关联,并且利用三维量子纠缠态基于二值理论构造出一个特殊的不等式。如果实验中观测到这个不等式的违背,则意味着量子力学中强于二值关联的存在,或者说多值问题的测量是不能通过拆解成二值测量来实现的。
这个不等式的构造与贝尔不等式的构造非常类似,他们首先假设了特殊的量子态(三维纠缠态($(\sqrt{2}|00>+|11>+|22>)/2$)和一些测量基,如果我们按照二值的理论来解释测量的话,上述式子就存在一个最大值1。但是如果我们用三出口的测量可以得到上界的值为1.089,违背了基于二值理论的不等式。
想要在实验中观测到这个现象需要构造三出口的测量装置,如何解决?

实验观测到对二值理论预言的明显违背,违背量超过了9个标准差,从而首次实验观测到量子力学中强于二值关联的存在。
原因:高维中存在非局域信息
实验证据否定「万物起源于量子比特」。
这三个例子说是量子技术是研究量子世界本质最有力的工具。
量子柴郡猫来自于《爱丽丝漫游仙境》。
上述例子显示,量子信息技术确实是研究量子世界本质最有力的工具。它不仅可用于判断某些猜想或解释正确与否,还可加深人们对量子世界的理解。
当前我们面临的若干重大问题:
(1)量子力学与相对论如何融合?
(2)传统的量子力学还有发展的空间吗?
(3)量子真空究竟是什么?
5.2 量子力学与广义相对论的融合问题
量子理论的巨大成功
上世纪二十年代,经过玻尔、海森堡、薛定谔和玻恩等人的努力,建立了自洽的量子力学系统,又经过狄拉克(1935年)和冯诺依曼(1932年、1935年)公理化整理,量子力学已经成为一个完整的理论体系。这一理论体系在随后的应用中取得了惊人的成果,成为人类有史以来最为成功的物理理论。
统一是物理学家最为朴实的信仰,物理学家们相信整个宇宙最后可以用同一套理论加以解释。而且这种信仰还一次又一次被物理学家们证明是正确的,可以说,整个物理学的发展史就是一部波澜壮阔的物理理论的统一史。
“宇宙最不可理解的事就是它可以被理解”(The most incomprehensible thing about the world is that it is comprehensible )。——爱因斯坦
爱因斯坦是量子力学的主要奠基人之一,又独立的建立了广义相对论理论,坚信存在一个能统一所有物理理论的终极理论并将自己的后半生投入到了这一伟大的事业中去。
经一批物理学家的艰苦努力,取得了一个又一个胜利:
- 一、量子电动力学:统一了量子力学与电磁学,这是迄今为止最精确的量子理论,其计算的数值与实验结果可以在小数点后12位保持一致。
- 二、量子场论:统一了弱相互作用与电磁相互作用。
- 三、量子色动力学:将强相互作用纳入量子力学的框架。
这时,看起来离大统一理论只差临门一脚了,有十多位科学家在对此作出贡献后荣获诺贝尔物理学奖。当人们乘胜追击,希望将最后一种相互作用——引力——也纳入量子力学的框架的时候遇到了麻烦。
广义相对论的巨大成功
如果说量子力学是有史以来最为成功的理论,那么,广义相对论可以说是有史以来最为优美的理论。
1916年爱因斯坦提出的广义相对论只基于两个最简单的假设:等价原理和光速不变原理。从奥卡姆剃刀原理:“如无必要,勿增实体(假设)”来说,这就是最优美的理论了。
广义相对论的正确性也已经受了各种严格的实验检验,特别是LIGO实验装置在2016年直接探测到了引力波,更是给了广义相对论理论最直接的支持。
这一突破性成果也使索恩,巴里什和韦斯获得了2017年的诺贝尔物理学奖。引力波的探测是科学史上最伟大的篇章,1000多位来自于16个国家和地区的科学家近40年一无所获的坚持。
爱因斯坦的后半生就致力于融合量子力学和广义相对论,然而,直到他1955年去世也没有能够取得成功。他的思想激励着他的追随者们继续前进,但到目前为止仍然没有成功。
人们可能会想这两个理论适用于完全不同的领域:广义相对论主要运用于大尺度的宏观系统(比如宇宙学)而量子力学主要运用于原子尺度的系统,这两个理论会有交集吗?如果没有交集,它们不相容的问题就不会产生任何的物理效果。
致密星体需要考虑广义相对论和量子力学。
然而,在致密星体中人们发现这两个理论都是必不可少的,黑洞的霍金辐射就是这两个理论都起作用的典型效应(黑洞的概念是惠勒在1967年的一次会议中提出的)。传奇的明星科学家霍金在1974年发现如果将量子力学引入黑洞的研究中,根据海森堡不确定性原理,在黑洞的视界附近可以瞬时的产生一对正、反粒子,如果其中一个粒子进入黑洞,而另一个粒子逃逸。
那么,从黑洞外看来就像是黑洞在对外辐射粒子。利用霍金辐射和热力学第一定理还可以直接的导出1973年惠勒的学生贝肯斯坦提出的黑洞熵的结果。在这样的情形下,融合这两个理论对理解致密星体(特别是黑洞)物理就显得极为重要了。
那么,为什么这两个理论不相容呢?它们的根本分歧点在哪里呢?这可以通过海森堡不确定性原理来加以简单说明。
如果我们要融合这两个理论,融合理论的典型空间尺度(或者等价的能量尺度)可以通过无量纲化3个常数:光速c,引力常数G和普朗克常数h来获得,我们称之为普朗克长度(大概数值是 $10^{-35}$米的量级)。根据海森堡不确定性原理,当我们关注的空间尺度越小,引力场的量子起伏就会越大。
很显然,当我们关注的空间尺度是普朗克长度时,因为它非常小,引力场就将剧烈地起伏,这种状况惠勒称之为量子泡沫(惠勒1955年提出的概念)。在这一尺度上,广义相对论的核心概念——黎曼几何的光滑性——遭到了彻底的破坏。
这两个理论不相容性的直接表现就是当我们将两个理论融合计算出来的物理结果总是包含不可重整的无穷大。
融合广义相对论和量子力学的弦论尝试
弦理论一度被认为是最有希望的大统一理论。它最早是1968年被维尼齐亚诺在理解原子核的强相互作用时引入的数学形式(其实是欧拉贝塔函数),随后,南部阳一郎、尼尔森和苏斯金等人发现了这一数学形式背后的物理:把基本粒子换成一根振动的琴弦。他们的这一解释在当时并未引起大家的注意,但却在上世纪80年代以后引起了两次所谓的超弦革命。
1984年-1986年间是所谓第一次超弦革命。
首先是在1984年,格林和施瓦兹证明弦理论可以容纳四种基本的相互作用。前面我们已经提到,海森堡不确定性原理在普朗克尺度上会破坏广义相对论所要求的几何光滑性,当我们利用弦理论的基本假设将所有的基本粒子(在标准模型中,基本粒子都是没有空间延展的点粒子)都换成一条振动的弦(弦具有空间延展)时,这一矛盾可以被抹平。
而且,弦的众多共振模式中的一个与引力子的性质相同,因而引力也可以成为弦理论的天然一部分。这一里程碑式的发现,使得激动的物理学家们燃起了对弦理论的热情,1984~1986年的1000多篇研究论文表明标准模型的很多特征都可以在弦理论中自然地呈现。然而,人们很快发现,作为弦理论核心结构的超对称可以以5种不同的形式进入该理论,而这5种不同的弦理论之间又表现出巨大的差异。很显然,我们追求的终极理论只有一个。那么,哪一个才是我们寻求的大统一理论呢?这就要等到第二次超弦革命了。
Edward Witten创造性的将量子场论的技术运用于研究数学中的低维拓扑问题,获得了被认为是40岁以下数学家最高奖的菲尔兹奖。
在南加州大学举行的弦理论年会中宣布可以将5种不同的弦理论统一到一个11维的新理论中,该理论被称为M理论,由此点燃了超弦的第二次革命。
至此,超弦理论形成了一个非常完美的结构。这一优美的数学结构是否就是我们苦苦追求的大统一理论呢?这需要实验来检验。很遗憾,到现在为止,还没有任何实验证据支持超对称的存在,相关的实验努力还在继续。
5.3 传统量子力学向何处发展

- 经典世界:$h « 1$
- 量子世界:$h \approx 1$
- 亚量子世界:$h » 1$
普朗克常数是量子效应的度量,在经典世界中量子效应可以忽略不计,经典物理理论足以完美地描述该世界的运动规律,而在量子世界中量子力学成功地描述了已经发现的所有量子现象。当然,对于亚量子世界我们迄今仍一无所知,因为人类的能力尚不足以研究这个世界的现象,当下只能提出一些无法验证的猜想,例如,亚量子世界中时间和空间中不再是连续的,而是“量子化”的。

当人类成功地建立了经典物理理论和量子力学后,自然而然会去寻找一种更广泛而深刻的理论来统一描述这两个世界的运动规律。
自然界本来就是一体的,划分不同的物理世界是人为的,是人类认识自然界的初级阶段不得已而为之。所以当科学发展到新的阶段,科学家必然研究“统一理论”。
然而,企图将自然界四种不同的力统一起来的努力虽然取得重大的进展,仍因迈不过“引力量子化”这个坎而修不成正果。
既然如此,我们可以先着眼于将“量子世界”与“经典世界”统一起来的小目标,也就是说,寻找一种统一的理论,它能描述$0≤h≤1$范畴的所有物理现象,改变目前量子力学和经典物理各自为政的状况,这应当是第二次量子革命的任务之一。
至于如何将“亚量子世界”也纳入进“统一理论”中,那将留待第三次量子革命去解决,当下我们鞭长莫及。
目前学术界大致沿着三个不同途径来发展传统量子力学。
玻姆的非局域隐参数理论
途径一是玻姆的非局域隐参数理论
它企图将量子世界重新纳入经典物理的范畴。
1927年第五次索尔维会议上,德布罗意报告了一种基于导引波的隐变量理论,不过在哥本哈根学派的泡利等人的质疑下他放弃了这套理论。
1952年,玻姆才重新发现并定义了这套框架,建立了德布罗意——波姆理论,也称为玻姆力学。波姆力学核心思想仍然是经典力学,电子被视为粒子,它的运动有所谓“量子势”所伴随,后者蕴含着非局域性。
玻姆力学能解释所有量子力学的预言,但它无法给出新的预言,实验上也无法证实“量子势”的存在。当然贝尔不等式的违背虽然排除了局域隐变量的描述但“非局域隐变量”理论仍然吸引着人们的研究。我们知道,关于局域隐变量的争论最终导致人们揭示量子世界非局域的特性,或许对非局域隐变量的研究有可能深化人们对量子世界的认识。
PT对称理论
途径二是寻找比传统量子力学更普适的理论,以揭示自然界更深层次的物理现象。

我们知道,传统的量子力学是建立在一系列假定之上的,其中哈密顿量的厄米性假定是比较重要的一条。1988年,美国华盛顿大学的本德尔(Bender)等人认为这个假设要求过高,提出可以将厄米性替换为哈密顿的PT对称性假定以拓展量子力学,传统量子力学只是新理论的特例。哈密顿量厄米性的条件确保系统的能量为实数和总概率守恒,PT对称性能满足相同的物理要求。而且,厄米性要求比较数学化,而PT对称性具有物理意义,在特定参数下可塌缩为传统量子力学,PT对称性假定比厄米性假定要求更低。因此,PT对称理论被作为传统量子力学的一种推广而建立起来。
PT对称理论预言该系统可能出现若干新的现象。
(1)瞬时的量子态变换:传统量子力学中从一个量子态演化到它的正交态需要有限的时间,而PT对称理论可以用任意短的时间从一个量子态演化到它的正交态。
(2)PT对称理论单次测量可以区分非正交态,而传统量子力学单次测量只能确定性地区分两个相互正交的态。
(3)超光速传输:传统的量子力学中信息的传播速度受限于光速,PT 对称理论预言,如果能找到封闭的PT系统,则超光速传输将有可能发生。
(4)减缓消相干:传统量子力学中量子态受环境影响而消相干,而PT 对称系统中消相干演化可以被减慢甚至停止。
迄今尚无法制备出遵从PT对称理论的物理系统,因此难以对此理论进行验证。当然在经典物理领域,人们应用PT对称理论制备的耗散系统,确实呈现许多新奇的特性,因此引起学术界的兴趣。
提出PT对称理论的初衷是企图寻找比传统量子力学更广泛的替代理论,尽管实验上无法制备PT对称理论的量子系统。我们可以采用量子模拟来研究PT对称性量子系统的性质。下图是我们实验室开展超光速现象的实验模拟装置。

两种情况下鲍勃测量到的概率的差异说明了被模拟的PT世界中,有超光速现象的可能性。我们实验中信息传输为1.9倍光速。当然,回到现实世界,需要同时考虑50%的成功事件和另外50%的失败事件,此时鲍勃测量到的概率始终是0.5,说明现实世界中没有超光速,与传统理论不冲突。
这个实验表明:
- 如果自然界存在按照PT对称理论运行的物理实在系统,那么该系统必然允许超光速现象存在。
- 如果自然界不允许超光速,那么PT对称理论就无法替代传统量子力学。
PR-BOX的故事
量子力学是迄今最为成功的理论,它为所有实验事实所证实。然而,从公理化角度来看,建立量子力学的公理有5条,且非常数学化,缺少自然与物理的意味。相比之下,相对论就更简洁明了,它建立在相对性和光速不变两个公理之上。因此,寻找量子力学更简明扼要的物理原理解释就成为物理学家的一个心结。
量子力学满足信息不可超光速这个原理,那么在这个基础之上,是否还有别的简单的物理原理能够建立量子力学理论?
我们已经认识到,量子非局域性是量子物理一个很独特的现象,那么将光速不变与非局域性结合起来是否就能得到量子力学呢?
罗马尼亚裔英国物理学家桑杜·波佩斯库(Sandu Popescu)和以色列物理学家Daniel Rohrlich对此问题进行了细致研究。PR-Box就是这两位物理学家从信息论角度研究量子力学基本原理时提出来的一个思想实验。


实际上这是CHSH不等式的概率形式。我们将发现十分有趣的现象,在不同情况下,它给出不同的结果。
(1)用局域实在论描述爱丽丝和鲍勃(也就是说,其概率分布是确定性事件的概率混合得到的),那么上述概率和的最大值为3;
(2)爱丽丝和鲍勃处于量子力学框架下(例如爱丽丝和鲍勃处于纠缠态,其概率分布是对量子态测量而得到的),那么上述概率和的最大值是$(2+\sqrt{2})$,大于上述定域论的最大经典值3。这表明采用局域实在论不能完全解释量子力学的结果,因而量子力学具有非局域性。

可见,这个概率分布不可能在量子力学框架内产生,更不能由局域实在论得到。所以这个概率分布具有比量子力学预言的更大非局域性。产生这种概率分布的装置就叫做PR-Box,有时也将这个概率分布叫做 PR-Box。
由此可见,PR-Box关联是非局域的,但传统的量子力学无法给出这种关联。这表明建立在光速不变和非局域性基础之上的理论具有比传统量子力学更大的适用范围,有着更强的非局域性预言。
那么,自然界是否存在着对应于这种更强非局域关联的物理实在呢?
换句话讲,自然界中是否存在超越量子力学的关联?
如果存在的话,那么这个理论应当是什么?
如果不存在,那么在上述两个原理的基础上应当附加什么样的物理原理才能将自然界中的非局域性限制在传统量子力学限制的范围之内?
寻找量子世界演化为经典世界的机制
途径三:寻找量子世界演化为经典世界的机制,筑建完善的物理大厦。
将物理世界人为地划分为“经典”和“量子” 是人类认识自然界能力不足所致,事实上,客观世界的物理实在并不存在这种截然分开的明确界线,任何宏观物体都是分子、原子、电子、原子核等等构成的。物体是经典世界的客体,而其组分微观粒子却是量子世界的客体。
这两种看似性质截然不同的客体都是浑然一体不可分离的,我们在研究同一物体是无法断定在什么范围内应当采用量子力学或经典理论,换句话说,现在的物理学并不完备,它只能成功地描述h~0和h~1的两个极端情况,而对介于0<h<1的物理现象却无能为力,物理学大厦实际上远不完美,这正是许多物理现象如波包塌缩等无法得到完美解释的原因。
我们知道,激光的发明是基于爱因斯坦受激辐射理论当一个光子入射到处于激发态的原子,会诱导其发射另一个光子,两个光子处于相同状态。将粒子数反转(即上能级粒子数多于下能级粒子数)的介质(称为增益介质)置于合适的光腔中,原子自发辐射在光腔中往返传输,不断经由增益介质的相干放大,当光强达到某个阀值时会引起雪崩式放大形成激光,激光束具有高度的光子简并度,即同一模式中的光子数数目巨大。
激光强度越大,其量子效应越微弱,完全可遵从经典物理的运动规律。激光形成的初始阶段遵从量子力学规律,激光器输出的激光却服从经典物理,可见,激光的产生过程从本质上就是从量子世界演化为经典世界的过程。
这个问题与第四章所讨论的“薛定谔猫怎么死的”问题的本质是相同的,即量子的叠加态如何自动地演变为宏观的确定态,其物理机制究竟是什么?
迄今有若干猜测,例如粒子数,引力等,但都尚未为实验证实。当务之急,就是开展深入系统的研究,揭示这种演变的物理机制,然后修改薛定谔方程,使之在这种物理机制主导作用后自动过度到经典方程。一旦成功,我们就能理解薛定谔猫死亡和波包塌缩等长期争论不休的问题,物理学大厦将变得更加完善。
如何在实验上判断某物理客体是处于量子世界还是经典世界呢?
在量子世界中它应处于量子叠加态,而在经典世界中则处于宏观确定态。1985年安东尼·莱格特(Anthony J. Leggett)与Garg提出了Leggett-Garg(LG)不等式,可用于区别量子叠加态和宏观确定态。如果 LG不等式成立,则该客体为经典世界的确定态,而LG不等式被违背则意味着处于量子叠加态。然而LG不等式有个漏洞,即它要求实验上要确保非破坏性测量,这在实际上难以满足。

如果入射的是相干态,那么结果将如何呢?有人预言,当相干态的平均光子数足够大,LG不等式将成立,系统会演变为宏观确定态,因而我们就能够找到量子与经典的界线。这类实验正在进行中。
5.4 万物源于真空
原则上讲,整个宇宙可用单一波函数描述,它的最低能量状态对应的波函数(基态)就是真空态,当前的宇宙波函数正是真空大爆炸后演化而成的。真空是宇宙万物的共同基石。
因此,为深刻的理解量子世界的各种各样特性,必须搞清楚真空态的量子本质。对真空的研究是物理学中最为深刻,也是最令人困惑的根本性问题。
一、经典物理
19世纪中期麦克斯韦建立和经典电动力学,物理学家普遍认为,既然电磁波能够在整个空间传播,整个宇宙空间都应当弥漫一种特殊的媒介,叫做“以太” 即真空中充满着以太。
19世纪末,著名的迈克尔逊——莫雷实验否定了这种“以太”的存在。
1905年爱因斯坦提出了狭义相对论,认为电磁波本身就是一种物质,无需依赖“以太”这种媒介就可以在空间中传播,于是经典以太论便被人们所摒弃,真空似乎是空空如也。
二、量子物理
量子力学的发展加深了我们对真空的认识,真空并非一无所有,而是充满了各种量子客体。
1927年狄拉克提出了满足相对论协变性的量子力学方程,即狄拉克方程,这个方程成功地融合了量子力学与狭义相对论。
狄拉克方程预言:真空有负能量的状态,而且每个负能量的状态都有一个电子占据着,真空可以看成填满了所有负能量状态的电子而形成的大海,而带有正能量的电子则在这个海面上运动。此时,真空是狄拉克的电子海!
三、量子电动力学
在量子电动力学的世界中,看似电子处在真空中运动,实质上真空中存在着大量的光子、正负电子对。
电子似是“穿着衣服”(dressed electron),而这件衣服就是真空涨落形成的,它引起电子自能的微小变化,成为兰姆位移。因此,此时真空便是虚的光子和正负电子对的海洋。
基于真空涨落所预言的电子能级移动的电子反常磁矩已经在极高的精度上得到了证实。
1948年,荷兰物理学奖卡西米尔(H. Casimir)提出的所谓的卡西米尔效应,即真空中两块平行放置的中性导体之间,存在微弱的吸引力。
2011年,瑞典的研究组将超导微波腔的两个镜面作为两个平板,利用微波光子的测量技术,精密测量了其中的卡西米尔效应。
四、量子场论
科学家们发现了:
- 自发真空破缺;
- 当真空态发生自发真空破缺时,就可以使规范场粒子获得质量,这个标量场中有质量的粒子被称为希格斯粒子。 2012年在欧洲核子中心实验中发现了希格斯粒子。
质量的起源本来是物理学最根本的问题之一,真空在这里起到了根本性的作用。
正是宇宙中充满着希格斯场,带来了万物的质量,也许“无中生有”是对于这个真空最好的概括。
量子色动力学
夸克禁闭:夸克被完全束缚在原子核内部,夸克禁闭的缘由是所谓的“真空相变”。
量子色动力学中真空的研究:如果能够在实验中看到真空相变的明确证据,这将是真空概念,乃至物理学的一个重大突破。
虚粒子和虚过程
量子世界的本底真空充满虚粒子和虚过程,虚粒子不携带任何信息,虚过程可以瞬时发生,这是宇宙波函数基态的物理内涵,它是宇宙万物之源。当实物粒子诞生后,宇宙波函数便处于某种“激发态”,真实粒子永远陪随着本底真空态,亦即粒子的波函数描述的是真实粒子与本地真空的整体过程,而不是孤立的粒子,此波函数弥散在整个空间,不存在离开本底真空的孤立粒子,这便是量子世界非局域性的根源。粒子必然以概率形式分布于整个空间。
量子世界的种种奇异特性均源于量子真空,而迄今人们对量子真空的物理本质尚缺更深刻的了解,因此搞清量子真空的物理内涵便成为揭开量子世界奥秘的关键所在。
第六章 量子计算——颠覆性的新技术
6.1 从摩尔定律的终结到量子计算的诞生
摩尔定律的技术基础是不断提高电子芯片的集成度。
这个技术基础受到两个主要物理限制:
- 芯片的发热(巨大耗能),甚至烧穿;
- 终极的运算单元是单电子晶体管,量子效应起主要作用。(隧穿效应)

不可逆的过程会产生热量。
量子计算机是幺正的,是可逆的,耗电量少。
作为几率幅的量子比特为何能表征经典世界的确定性信息?
- 量子态是描述单个客体的状态。(不是系综描述)
- 某个时刻客体的量子态是确定的。即确定的量子态所具有的物理量是概率分布的(从量子态可计算出物理量的平均值,均方值,……)
- 应用不同确定性的量子态来表征不用的经典信息0或者1。


光子的偏振态表征经典信息0或1。
窃听会破坏量子态。
用量子态来传送经典密钥的优点:可以发现窃听者存在,提高密钥分配的安全性。
量子计算芯片——非局域性(量子纠缠)
6.2 量子计算机的工作原理

拆散定理:U变化可以变为基本门操作
在经典计算机中,信息的基本单元是比特。在物理上则是利用电平的高低来分别表示比特0、1 两种状态,并通过传输电信号来传递信息。
在量子计算机中,信息的基本单元是量子比特一个量子比特也有0和1两种状态,这使得能用经典计算机表达的信息也能用量子计算机表达。
量子信息的特殊性:可以处于0和1两种状态的叠加态。
使量子计算机能保存的信息随着量子位数指数增长。因为对于n个量子比特来说,它可以处在0000….000到1111…111状态之中的所有任意状态的叠加。
使得量子计算机本身就是一种并行装置,每个计算都会对全部的叠加进行同步的处理,这种并行度随着量子比特的增加指数增长。
因而量子计算机对于某些特定问题具有惊人的超大规模数据处理能力。
然而这种并行性是藏在量子信息内部的,我们并不能直接提取出来,所以需要利用量子理论的另外一条规律——量子纠缠。
量子纠缠预示着多个量子比特的信息并不是独立存在的,而是神奇的纠缠在一起。

非局域信息需要同时提取。
不确定性->叠加原理->量子比特->$2^n$



单量子比特可以用一个2阶酉矩阵来表示

同理,多量子比特门也可看做是一个酉矩阵,其阶数与量子比特数目是指数关系,比如一个n 量子比特门可以用一个2"阶酉矩阵表示。

理论上任意多个量子比特逻辑门的演化均可以由一个酉矩阵表示,但我们并不需要专门针对每种多量子比特的演化都来设计一个逻辑门门操控。
量子计算与经典计算机类似,我们只需要构建一组通用量子逻辑门,其他任意复杂的多量子比特逻辑门操控和量子计算任务均可由这组通用量子逻辑门组合而成。在量子计算中,单量子比特逻辑门和两量子比特受控非门能组成通用量子逻辑门。
量子计算机运行结束,必须对最终的量子态进行量子测量才能提取计算结果。测量是量子信息转化为经典信息的方式,也是目前所知的唯一的方式。
6.3 量子编码

量子纠错码
如何处理因各种噪声破坏所产生的信息错误呢?
在经典信息论中,比较通用的技术是用纠错码保护信息免受噪声影响,其具体思想是,如果想要针对噪声的影响保护一条信息,可以添加一些余信息来编码需要的信息。采用这种方法,即使编码信息中某些信息被噪声污染,在编码信息中仍将有足够的冗余度来恢复我们需要的信息。
例如,假设通过噪声经典信道从一个位置发送一个比特到另一个位置。信道中传输比特出错概率是p,针对这种错误来保护比特的一个简单手段是,把想保护的比特替换为其自身的三份备份:
- 0→000
- 1 →111 比特串000和111扮演了0和1的角色。通过信道发送所有这三个比特,并在接收端接收。
如果一个比特出错的概率p很小,当信道输出为001时,相比于前两个比特全部发生错误,更可能是仅仅第三个比特出错了,因此判定原始的信息为000,这种类型的解码被称为多数判决。当信道发送的比特错误个数大于1个时,判决失败,失败的概率是$p_e=3p²-2p²$,当$p_e< p$时,这种编码会更可靠。
由于这种编码方式是通过重复原码来对其编码的,所以这类纠错码称为重复码。
在量子信息领域,可借用经典信息中保护经典比特的原理来引入量子纠错码来保护量子态。
量子信息和经典信息的本质区别:
- 首先,由于量子不可克隆定理,我们无法将未知量子状态复制三次或多次,以量子力学方式实现重复码。
- 其次,量子态从布洛赫球某一点跳到布洛赫球其他任意的地方,都可以定义为一种错误,所以单量子比特的错误模型是无穷且连续的,精确确定这样一个差错需要无穷多的资源。
- 还需要注意的一点是,在经典纠错中,我们会观测来自信道的输出,并决定采取与输出对应的解码步骤,但在量子信息中,测量会破坏所观测的量子态且测量后不能恢复。
我们先来一种简单的量子纠错码一一三量子比特翻转码。
对于三量子比特,假定量子比特在比特翻转信道中有一定的概率p 发生翻转,并且信道中翻转的量子比特不超过一个,那么就可用量子纠错方法恢复和纠正编码的量子态。
我们注意到差错症状测量不会引起态的任何改变,在差错症状测量前后$|\psi|$并没有发生变化,也就是说,差错症状包含的只是出现什么差错的信息,并不包含任何有关α或β的值的信息,即它不包含被保护状态的任何信息,这是差错症状测量的一个普遍特征。
量子纠错的步骤:
- 第一步是差错检验,与经典纠错方法类似,检验的方法还是执行一次测量,根据测量结果得到具体的差错症状。
- 第二步,在得到差错症状后,差错恢复,即通过差错症状的值来恢复初态。
以上介绍的两种纠错模型只能针对特定的差错模型,但真实情况下信道的噪声不止一种,当噪声比较复杂时,就需要一种更有效的编码方式,例如一种更通用的量子码——Shor码。
Shor码
Shor码是一种9量子比特纠错码,它是三量子比特相位翻转码和三量子比特翻转码的组合,所以可以用来纠正比特翻转差错和相位翻转差错,以及比特翻转和相位翻转复合差错,而任意单量子比特差错可以分解为Shor码能纠正的差错集合,所以Shor码能在任意单量子比特差错下保护量子比特。
容错量子计算
量子纠错不只是用来保护存储或传输过程中的量子信息,它也可以在量子计算过程中动态地保护量子信息。不寻常的是,就算我们使用会出错的逻辑门,只要每个门的差错概率低于某个阈值,我们仍能实现任意精度的量子计算,这就是容错量子计算。
量子纠错编码是为了在噪声的干扰下保护量子比特,但不可忽略的是,每个量子逻辑门都会有错误率,所以量子纠错编码本身就携带噪声。量子逻辑门的错误率会沿着量子线路传播,量子容错计算的思想就是在各方面都存在噪声影响的前提下,保护量子比特,同时避免错误沿着线路串行传播。
要想避免错误串行传播,单量子比特的保真度需要高于某个國值,从而引入量子纠错编码比起产生的错误会纠正更多的错误,即量子纠错编码起正面作用。一旦达到那个阈值,扩展线路规模会指数地减小编码信息的错误率,从而允许我们在装置噪声的影响下也能实现任意长度的量子线路。

经过上面一系列的讨论,我们可以看出,对于量子计算,噪声在原则上不是一个很严重的问题。从阀值定理我们得到一个很吸引人的结论,就是当单独的量子门中的噪声低于某个定常阈值后,就有可能有效地执行任意规模的量子计算。可以说,量子纠错和容错理论将量子计算从垃圾堆中捡了回来。
6.4 量子算法
量子算法是运行在理想的量子计算模型上的算法,最常用的模型就是量子线路模型。一个经典算法是一个有限的指令序列,在经典计算机上运行来解决问题。类似的,量子算法也是量子计算机上运行的有限的量子指令序列。由于量子逻辑门能实现经典逻辑门的功能,所以理论上所有的经典算法都能在量子计算机上实现。对于很多问题,量子算法并不一定比目前已知的最优的经典算法更有效,但量子算法研究的重要意义是寻找某些经典计算机无法有效解决的问题,然后尝试着找出用量子计算机快速解决此类问题的算法,从而极大地推动社会科技发展和变革。
D-J算法
D-J算法的全称是Deutsch-Jozsa算法,算法运用于经过设计的特殊情形,并证明了量子算法相对于经典算法有指数级别的加速能力。
D-J算法的问题场景为:假设有一个黑盒子,黑盒子里面是一些逻辑门,这个黑盒子可以接受n位的输入,并且产生一个1位的输出。
我们已知黑盒子有两种可能性:
(1)对于所有的输入,它只输出0或者1——我们称之为“常数”;
(2)恰好对于一半的输入,输出为0,对另一半输入,输出为1——我们称之为“平衡”。
问题是:对于一个随机的盒子,如何区分盒子到底是“平衡”的还是“常数”的?

Shor算法
对大数N进行质数分解,是当前流行的RSA公开密钥体系的安全性保障,在经典领域,人们找不到大数分解问题的有效算法。
1994年Peter Shor提出了一种有效的质因数分解量子算法,可以在多项式时间复杂度完成质因数分解任务,这就是经常听到的以其发明者名字命名的Shor 算法。
Shor算法是一个很有价值的量子算法,首先,Shor算法彰显了量子算法的优越性,在质因数分解问题上,最优的经典算法的时间复杂度与要分解数的位数n是指数相关的,而Shor算法的时间复杂度是n的多项式函数,所以Shor算法指数地提升了质因数分解任务的执行速度;其次,Shor算法会使RSA公开密钥体系失效,给密码学领域一次有力的冲击,促使其向前发展;另外Shor算法会使人们对复杂度理论有新的认识。
Grover搜索算法
搜索问题:从n个群中寻找出一个特定的目标。
这类问题非常广泛,比如,从电话本里找特定一个电话,从大量人群中寻找某个犯罪分子等等。 采用经典计算机,搜索问题的计算复杂度为n;
量子计算机采用并行运算,该问题的计算复杂度为$\sqrt n$
1997年,Bell实验室的Grover研究员以“量子力学帮助在稻草堆中找到一根针”为题,指出了这种加速搜索的量子算法。
量子算法小结
总体来说,目前量子算法大体分为三类:
- 第一类是涉及代数、数论理论的算法,典型的这类算法有大数分解算法,离散对数算法等;
- 第二类是Oracle算法,它的形式通常是将问题的某个方面用Oracle 代替,然后求解问题的算法,比如前面提到过的D-J算法,Grover 搜索算法都包含其中;
- 第三类是近似和模拟算法,世界的本质是量子的,我们无法用经典计算机有效模拟一些过程,比如物理领域某个复杂体系的哈密顿量的演化,化学领域大分子的形成过程等等。而量子计算机可以很自然地模拟这些现象,我们称之为量子模拟。

6.5量子计算机的物理实现
DiVincenzo判据
2000年,DiVincenzo等提出了量子计算实现的五条标准,并逐渐发展成七条的DiVincenzo判据:
(1)能够构建可扩展的可控量子比特系统;
(2)量子比特能够初始化到基态;
(3)能够实现量子普适逻辑门操作;
(4)该系统的末态能够被测量;
(5)系统有足够长的相干时间,使得量子操作和测量能够在退相干时间内完成;
(6)飞行量子比特与静止量子比特间能够相互转换;
(7)能够实现飞行量子比特在两地间传播。
围绕这一判据,量子计算研究蓬勃发展,各种不同形式的量子计算方式如雨后春笋般涌现出来,量子计算进入春秋战国时代。目前研究的体系主要包括超导量子计算、半导体量子计算、离子阱量子计算、原子量子计算、核自旋量子计算和拓扑量子计算等。
超导量子计算
超导体处于超导态时具有完全导电性和完全抗磁性两个基本性质。超导量子计算机中量子信息的物理载体是所谓的超导约瑟夫森(Josephson)结,它是种超导体-绝缘介质薄层-超导体组成的夹层结构(如图)。
根据信息载体物理量的不同,超导量子比特有三种类型:
- 电磁量子比特
- 磁通量子比特
- 相位量子比特
超导量子计算机是宏观量子器件,最大研制障碍是其量子相干时间很短。
超导量子计算的研究始于2000年前后,后来在美国耶鲁大学罗伯特舍尔科普夫(Schoelkopf)和Devoret研究组的推动下,将超导比特和微波腔进行耦合,实现了量子比特高保真度的读出和纠缠,加速了超导量子比特的研究。
微波腔是一种能够容纳微波光子的谐振腔,比特的两个能级会对微波腔的光子产生扰动,这一信号的扰动就可以用来实现比特信号的读出。比特和比特之间还可以通过微波腔相连,当两个比特和腔是强耦合的状态的时候,两个比特就会通过腔发生相互作用,物理学家通过这一相互作用实现了两比特操作。
在2009年,基于超导比特和腔的耦合,他们实现了两比特的高保真度量子算法,使得超导量子计算得到了世界的广泛关注。
2014年9月,美国Google公司与加州大学圣芭芭拉分校合作研究超导量子比特,他们使用X-mon形式的超导量子比特。这个超导芯片的单比特和两比特保真度均可以超过99%。在X-mon结构中,近邻的两个比特可以直接发生相互作用。2016年,他们基于这个芯片实现了对氢分子能量的模拟,表明了他们对于量子计算商用化的决心。2017年,他们发布了实现量子计算机对经典计算机的超越——“量子霸权”的发展蓝图。2018年年初,他们设计了72比特的量子芯片,并着手进行制备和测量,这是向实现量子霸权迈出的第一步。
在Google公司加入量子计算大战的同时,IBM于2016年5月在云平台上发布了他们的五比特量子芯片。这种比特形式叫做Transmon,Transmon的单比特保真度可以超过99%,两比特保真度可以超过95%。在Transmon的结构中,比特和比特之间仍然用腔连接,使得其布线方式和X-mon相比更加自由。2017年,他们制备了20比特的芯片,并展示了用于50比特芯片的测量设备。同时也公布了他们对BeH分子能量的模拟,表明他们在量子计算的研究上紧随 Google的步伐。不仅如此,他们还发布了QISKit的量子软件包,促进了人们通过经典编程语言实现对量子计算机的操控。
2019年9月底,谷歌内部研究披露其研发的量子计算机Sycamore,成功在3分20秒内完成现今最先进传统超算机Summit需要1 万年处理的问题。谷歌声称这在全球首次实现“量子霸权”。
2019年,谷歌使用53位量子处理器证实,在伪随机量子采样任务中证明量子计算机的能力超过经典计算机!

半导体量子计算
相比超导量子计算微米级别的比特大小,量子点量子比特所占的空间是纳米级别,就像现在的大规模集成电路一样,更有希望实现大规模的量子芯片。
现在的主要方法是在硅或者砷化镓等半导体材料上制备量子点来编码量子比特。编码量子比特的方案多种多样,但在半导体系统中主要是基于电子的电荷或者自旋量子态。
基于电荷位置的量子比特如图所示,这是中国科学技术大学郭国平研究组利用GaAs/AIGaAs 异质结制备的三电荷量子比特的样品,图中Q1、Q2和Q3作为探测器可以探测由U、L电极形成的量子点中电荷的状态。
与超导量子计算类似,半导体量子计算也正在从科研界转向工业界。
- 2016年,美国芯片巨头lntel公司开始投资代尔夫特理工大学的硅基量子计算研究,目标是在五年内制备出第一个二维表面码结构下的逻辑量子比特;
- 2017年,澳大利亚也组建了硅量子计算公司,目标是五年内制备出第一台10比特硅基量子计算机。
在国内,中国科学技术大学的郭国平研究组在传统的GaAs基量子比特方面积累了成熟的技术,实现了多达3个电荷量子比特的操控和读出,并基于电荷量子比特制备了品质因子更高的杂化量子比特。 同时,该研究组从2016年开启了硅基量子比特计划,计划五年内制备出硅基高保真度的两比特量子逻辑门,实现对国际水平的追赶,并为进一步的超越做准备。
离子阱量子计算
离子阱编码量子比特主要是利用真空腔中的电场囚禁少数离子,并通过激光冷却这些囚禁的离子。
2011年NIST用于离子阱量子计算的芯片
离子阱的读出和初始化效率可以接近 100%,这是它超过前两种比特形式的优势。
单比特的操控可以通过加入满足比特两个能级差的频率的激光实现,两比特操控可以通过调节离子之间的库伦相互作用实现。
2015年,马里兰大学和杜克大学联合成立了lonQ量子计算公司,2017年7月,该公司获得两千万美元的融资,计划在 2018年将自己的量子计算机推向市场,这是继超导量子计算之后第二个能够面向公众的商用量子计算体系。
国内的离子阱量子计算也于近几年发展起来。清华大学的金奇奂研究组和中国科学技术大学的李传锋、黄运锋研究组已经实现了对一个离子的操控,做了一些量子模拟方面的工作。说明中国也已经加入到了离子阱量子计算的竞赛中。
原子量子计算
原子可以通过边带冷却的方式冷却到基态,然后同样可以通过激光对比特进行操控,比特的读出也类似于离子阱的方法。
由于没有库伦相互作用,两比特操控在原子中较难为实现。它们必须首先被激发到里德堡态,这个时候原子的能量升高,波函数展宽,再通过里德堡阻塞机制实现两比特操控。
迄今为止,原子量子比特的两比特纠缠的保真度只有75%,还远远落后于离子阱和超导比特。但是,2016年一篇理论文章计算,经过波形修饰,它的保真度可以达到99.99%。
基于原子的量子模拟可能比量子计算更加受到科研界的关注。利用光晶格中的原子,可以研究强关联多体系统中的诸多物理问题,比如玻色子的超流态到Mott绝缘体的相变和费米子的Fermi-Hubbard模型,经典磁性(铁磁、反铁磁和自旋阻挫),拓扑结构或者自旋依赖的能带结构以及BCS-BEC交叉等问题。
现在的前沿焦点主要是量子磁性问题、量子力学中的非平衡演化问题和无序问题。
在基于原子的量子模拟方面,国外有着深厚的积累,2017年哈佛大学米哈伊尔·卢金(Lukin)组甚至利用51个原子对多体相互作用的动态相变进行了模拟。
其他类型:
- 核自旋量子计算
- 拓扑量子计算
- 光子量子计算
体系展望
量子计算机将经历三个发展阶段:
(1)量子计算机原型机。
- 原型机的比特数较少,信息功能不强,应用有限,
- 但“五脏俱全”,是地地道道的按照量子力学规律运行的量子处理器。
- IBM Q System One就是这类量子计算机原型机。
(2)量子霸权。
- 量子比特数在50~100左右,其运算能力超过任何经典的电子计算机。·但未采用“纠错容错”技术来确保其量子相干性,因此只能处理在其相干时间内能完成的那类问题,故又称为专用量子计算机。
- 这种机器实质是中等规模带噪声量子计算机(Noisy Intermediate-Scale Quantum,即NISQ)。
应当指出,“量子霸权”实际上是指在某些特定的问题上量子计算机的计算能力超越了任何经典计算机。这些特定问题的计算复杂度经过严格的数学论证,在经典计算机上是指数增长或超指数增长,而在量子计算机上是多项式增长,因此体现了量子计算的优越性。
目前采用的特定问题是量子随机线路的问题或玻色取样问题。这些问题仅是Toy(玩具)模型,并未发现它们的实际应用。
因此,尽管量子计算机已迈进到“量子霸权”阶段,但在中等规模带噪声量子计算(NISQ)时代面临的核心问题是探索这种专门机的实际用途,并进一步体现量子计算的优越性。
(3)通用量子计算机。
量子计算机研制的终极目标,用来解决任何可解的问题,可在各个领域获得广泛应用。
通用量子计算机的实现必须满足两个基本条件,一是量子比特数要达到几万到几百万量级,二是应采用“纠错容错”技术。
鉴于人类对量子世界操控能力还相当不成熟,因此最终研制成功通用量子计算机还有相当长的路要走。
量子计算机的可能应用

例2、搜索问题(“大海捞针”)
即,从庞大无规律的数字库中找到特定的信息。试想,从包含有N 个条目的电话号码簿中搜索到一个特定的号码。电子计算机需要操作N次才能找到,而量子计算机只需$\sqrt{N}$次。看似提速不多,但当N非常大时,效果就非常明显:
如,N=1000000时,电子计算机需要100万次操作,量子计算机只需要1000次。
例3、药物研发
例:我们需要设计一种能够识别并能够抑制HIV病毒活性的RNA 分子。通常先要在计算机上模拟,寻找最有效的分子。
由于分子是由特定原子通过特定化学键联结而成的,原子和化学键遵循量子力学运动规律。在电子计算机上模拟随着原子数目增多所需资源呈指数增长,很难做到。
而采用量子计算机模拟却是多项式增长,很容易模拟
例4、量子机器学习
例:机器学习已经成为当今一大热门技术,目前已在语音转换、人脸识别、智能城市等众多领域建立起成熟的生态。然而机器学习对算力要求极高,现阶段,部分应用已经发展到必须借助大规模的计算机集群才能工作的阶段。本身具备超越经典计算机算力极限的量子计算机是下一代机器学习的理想平台。
第七章量子密码
7.1传统密码技术面临的挑战
密码学的主要目的是为了研究信息的保密与认证,最早它主要被用于重要情报的传递。而在信息化的现代社会,密码学更是成为了人们日常生活中不可缺少的一部分,为我们的网络访问、电子商务等活动提供了必要的安全性。
古典密码学:凯撒密码
近代社会,无线电报的使用和推广,大大改善了远距离之间的通信速度,但是由于加载了信息的无线电信号并没有传输方向,它们弥漫在整个空间中,战争期间敌方也能收到同样的消息。因此,可靠的加密系统就显得非常关键。
二十世纪开始,人们开始尝试使用机电设备来构造密码机,代替以往人工为主的编解码流程,通过增加密码系统的复杂程度,来应对当时相对更加强大的密码分析方法。
典例:Enigma、Lorenz Cipher
通过掌握先进的计算能力以及寻找密码协议的漏洞,可以大大减少密码破译的计算量。
正是如此,密码学家希望研究密码协议理论,来减少甚至消除它结构上的缺陷,以保证安全性。

密钥的分配是对称密码体系实用化的最大难题。
例如二战德军使用恩尼格玛密码机需要每个月分发一次密码本,双方通过密码本上相同的随机字母来设定当日的初始密钥,这是一种对称密码。
而对于需要加密的商业应用,DES和AES等密码系统同样需要通过可信的第三方渠道来分发密钥。这个过程首先是加密系统中最薄弱的环节之一,并且它将花费较长的时间,产生高昂的费用。
随着经济社会逐步发展,特别是电子计算机网络的兴起,大规模的加密应用需求对传统的对称密码体系提出了全新的挑战。
非对称密码如RSA密码不需要分配密钥。

在“一次一密”方案中,由于所有的密钥随机且只使用一次,以往的破解方法对它均失去了作用,为信息的安全性提供了强有力的保障。
实际上,“一次一密”方案的理论安全性已经被香农(Shannon)证明,只要能保证密钥的随机性和不重复使用,那么使用这种方案进行保密通信将是理论上无条件安全的。因此,人们也将“一次一密”方案称为密码学中的圣杯。
“一次一密”方案实际使用中的巨大困难——大量随机密钥的产生与分配
- 由于密钥长度与明文等长,这意味着加密过程需要大量的密钥消耗,如何及时安全地传递密码本到各个通信者手中本身就成为了很大的难题。
- 密钥要求高度随机化,任何的重复与特定模式都将对保密信息的安全性造成威胁。
- 密码本需要严格保管,而且使用过之后需要对相应的密钥及时进行销毁,避免密钥的重复使用以及泄露。
7.2 量子密码的诞生
1、量子货币的故事
量子密码是受到了量子货币的启发才提出的,所以量子密码的故事要从量子货币谈起。早在上世纪六十年代,量子密码的发明者之—Charles Bennett和Stephen Wiesner都是美国布兰迪斯大学的本科生,而后者正是量子货币的提出者。他们在布兰迪斯大学相识,是很好的朋友,经常在一起交流。
上世纪60年代末到70年代初,Weisner提出利用量子力学的原理实现不可伪造的银行凭证或者钞票,即量子货币。
设想银行发行一张“量子钞票”,每张钞票都是由N个随机的量子比特组成的,只有银行自己知道这些量子比特的真实状态到底是什么。当有人拿到这张量子钞票,并试图伪造的时候,他必须去测量这些量子比特到底是什么。
但是量子货币是由随机量子比特组成的,根据量子不确定性原理一旦伪造者对货币进行测量,对应的量子态即刻受到扰动。不仅伪造者无法测准量子态,而且真钞的量子态也被扰动了。
Weisner将他关于量子货币的想法写成学术论文投给lEEE Transactions on Information Theory,却很快被拒稿了,原因或许是论文是由量子力学的语言写成的,太物理化了,研究信息论的专家很 难理解。
Weisner毕业后成为一名物理学家,然而可能是受到论文被拒稿的打击,他后来并没有继续开展这方面的研究。
Bennett毕业后,身为物理学家的他成为了IBM公司的一名研究人员,主要从事计算科学和热力学等方面的研究。
Bennett在工作之余,仍l旧坚持思考并发展了量子货币这一概念,这为后来他提出量子密码起了重要作用。
2.量子密码的诞生—BB84协议
1979年,身为物理学家的Bennett和密码学家Brassard在一次会议上的深入交流,开启了量子密码学的大幕。
1979年10月,美国电气和电子工程师协会(IEEE)在波多黎各召开了一次学术会议,Bennett和Brassard都去参加了这次会议。一天下午,Brassard正在游泳池游泳,Bennett向他径直游来,向他介绍起了Weisner 的量子钞票的概念。
一个物理学系和一个密码学家的思想碰撞起了火花,催生出了BB84协议,以及量子隐形传态、纠缠提纯、保密放大等量子信息学的奠基性工作。
在1984年印度加尔各答召开的 IEEE学术会议上,Bennett和Brassard 发表了BB84协议的学术论文。BB84 协议借鉴了Weisner量子钞票将信息编码在X基和z基两组量子态的思想,并将其应用在密钥协商这一密码学应用领域,解决了传统密码学的一个重要问题———如何在不安全的信道上协商安全。
总结一下,以BB84协议为代表的量子密钥分发协议已经被严格证明是信息论安全的。
信息论安全也被称为无条件安全,它是指:无论窃听者拥有多强的计算能力,利用任何破译算法,都不能破解密钥。
实现无条件安全的密码系统是密码学追求的终极目标,而当前的经典密码(指数学密码)尚不具备无条件安全性,例如,RSA或者AES在窃听者拥有巨大计算能力的条件下,都是可以被破解的。
量子密码的无条件安全性除了在经典密码学意义上的无条件安全之外,还充许窃听者可以在信道中对量子态进行一切可能的操作。
从以上可以看出,量子密码在协议层面可以达到无条件安全性是其区别于经典密码的根本所在,也是人们日益重视量子密码的原因。
3.实用的量子密码
事实上,BB84协议提出的相当一段时间内,学术界并不怎么关注量子密码,对其实验的兴趣也不大。
1994年Shor提出了他著名的质因数快速分解量子算法,极大地震动了密码学界。
量子密码是信息论安全的,完全可以抵抗量子计算机,因此是量子安全的。在实际需求的牵引下,实验实现量子密码成为了重中之重,学术界和产业界也都重视了起来。

从量子密码的物理实验实现到形成市场产品需要解决的工程时间问题:
- 时间同步
- 光学稳定性
- 单光子探测
- 等等
中科院量子信息重点实验室自2002年开始就开展光纤信道相位编码量子密钥分发的实验研究。
2002年在中国科大东西校区之间往返6.4公里光纤上实现了国内首次光纤量子密钥分配,演示了量子密码的基本原理。
2005年实现了国际首个抗信道干扰的相位编码系统,在北京-天津125km 信道上实现了量子密钥分发,引起了轰动。
特别是在量子密码的大规模应用方面,我国走在了世界前列。芜湖量子政务网、合肥-芜湖量子密码广域网、京沪干线量子通信网先后建成,验证了在实际应用中大规模部署量子密钥分发网络的可行性。
4.量子密码的新密码
①新型量子密码协议:
以BB84协议为核心的量子密码产品的安全性在理论上是无条件安全的。然而,科学家们发现实际的BB84产品的安全性并不能达到理论上的无条件安全。
量子密码的无条件安全性是指其安全性可以给出理论上的安全证明,而且这种证明不需要附加理论上的限制条款,这是数学密码目前达不到的境界。
但从哲学的角度看量子密码的安全性确实不是“绝对”的。深挖下去,BB84协议的安全性证明有两个前提:
- 量子力学的正确性 (科学界的广泛共识)
- 协议执行的准确性:本质上是说执行BB84协议的流程必须严格遵循该协议的约定,包括协议使用的随机数是真随机的、量子态制备是准确无误的、测量设备是一个标准的单光子量子态投影、安全区不能被入侵等等。
理论模型和实验实现之间通常不可避免的存在一定的差异。->实际的BB84系统往往难以按照协议约定的过程严格执行。->实际系统的安全性不能达到协议安全性证明所保证的无条件安全。
例如:挪威科技大学联合研究小组利用强光脉冲入侵接收端的单光子探测器,从而攻破了一个商用量子密码系统。我们的研究人员发现偏振编码的BB84系统中,存在着一个严重的安全性漏洞,从而可以攻破此类量子密码系统。
因此,BB84协议的实验系统由于器件不理想等各种实际因素的影响,没有完全准确地按照协议的要求被执行,从而可能会被侧信道攻击所攻破。但是,BB84协议的无条件安全性是不容质疑的,这点我们必须明确。
科学家们经过不断努力提出的新的量子密码协议,在实际实施过程中比BB84协议更加安全。
例如,设备无关量子密码协议,特别是测量设备无关协议解决了绝大部分可能的安全隐患和侧信道攻击,是目前可实现的安全性最好的协议。
②抗量子计算攻击的密码体系
上述的密码体系是对称密码,其协议是安全的,但实际系统只能是相对安全,那么是否有新型非对称密码体系可以不被量子计算机攻破吗?
最近密码学家提出了格基密码(Lattice-basedCryptography)等新型公钥加密方案。和RSA类似,它们都是利用数学复杂性来构建单向函数,以实现非对称密码系统加密安全与数字签名功能。目前尚未有人提出能够快速攻破这种密码的量子算法,因此密码学家倾向于相信它们是抗量子计算的算法。
然而,这些数学密码方案最大的问题在于安全性及破解难度并未能得到明确的数学证明,也就是并不确定是否存在一种量子算法甚至高效的经典算法能够攻破这些数学密码,这给利用数学密码来实现抗量子计算的密码体系带来了潜在的风险。
总的来说,量子密码在原理层面上是无条件安全的,也自然是抗量子计算的,是目前安全性最高的密码体系。
但是,在实际条件下,由于侧信道攻击的问题,量子密码产品还不能达到理论上的无条件安全。而基于数学算法的密码体系则始终存在着安全性不能证明的问题。
可以预期,未来的密码体系一定是量子密码和数学算法密码合作、竞争、共存的态势,密码攻防战也将继续。

量子技术时代信息安全受到严峻挑战:
量子计算机可以改变某些函数的计算复杂度,从电子计算机的指数复杂度变成多项式复杂度,从而挑战依赖于计算复杂度的密码体系的安全性。唯有“一次一密”加密方案无法破解。但其前提是“密钥绝对安全”。
因此,量子技术时代确保信息安全必须同时满足两个条件: ①一次一密,②密钥绝对安全。
物理学家针对现有密钥分配方法无法确保“一次一密”方案中的量子密钥的安全性,提出了“量子密码”方案。
核心思想:新的密钥的安全性不再依赖于计算复杂度和人为可信性。而仅仅取决于量子力学原理的正确性。
这种量子密码协议(如BB84)从信息论证明,协议是绝对安全的。这就导致越来越多物理学家加入“量子密码”研究队伍。
但人们很快发现,任何真实物理体系都无法达到量子密码协议所需要的理想条件,存在各种各样的物理漏洞,使得研制出来的量子密码系统无法达到“绝对”安全,只能是“相对”安全。虽然经过努力堵住各种物理漏洞,依然是“相对安全”水平。
真实的量子密码体系能抵抗现有所有手段的攻击,还是可以实际应用的。
- 城域(百公里量级)网:实际量子密码系统安全性分析一制定“标准化”
- 城际网 关键问题:研制可实用的量子中继 核心器件:量子存储器
- 地空量子干线 如何有效地实现全天候量子密钥的高速分配。
量子技术时代解决信息安全有两个途径:
①物理方法(私钥):不断提高安全性的量子密钥+一次一密
②数学方法(公钥):寻找能抗量子计算攻击的新型公开密钥体系。
其原理是:无法证明量子计算机可以改变所有复杂函数的计算复杂度。
当然,如有更强大的量子算法出现,这种密码体系有可能被攻破。于是数学家会去寻找抵抗能力更强的方案,导致从“电子对抗”发展到“量子对抗”。

第八章量子模拟中的有趣量子现象
8.1 量子模拟的原理
是不是计算机已经能够模拟自然界的所有规律?答案是否定的。自然界是量子的。
首先,从材料的尺寸效应上讲,当芯片小到一定程度,量子效应就不可避免的会体现出来,宏观的经典规律将不再适用。
另一方面,利用经典计算机来模拟量子系统也是一件困难的事情。与经典比特 0和1不同,量子系统可以处于叠加态上,如α0>+β|1>的状态,其中α和β可以为复数。因此存储1个自旋双态的量子态就需要2个经典存储器。如果是N个自旋双态的量子系统则需要存储2?个数。整个经典存储的规模是随着待模拟系统指数增加。

按映射方式分量子模拟可以分为数字式量子模拟、仿真式量子模拟。
数字式量子模拟主要是指模拟器的演化过程与经典计算机的演化相类似通过一系列的量子逻辑门操作来实现的。
仿真式量子模拟要求量子模拟器与待模拟系统之间有较高的相似性。通过相似哈密顿量的演化过程,最后得到有用的输出结果。
另外还有一类量子模拟是在经典计算机上进行量子算法辅助的模拟。

模拟器的规模和可控性
当模拟器的可控性达到一定规模,如待模拟系统的量子比特在50-100之间时,通常认为即使是超级计算机也无法实现有效的模拟,这时量子模拟的优势就将得到淋漓尽致的体现。
然而由于量子系统对噪声的敏感性,大规模量子模拟器的研制仍然有很多困难。小规模的量子模拟能够进行原理技术性的验证,为大规模量子模拟做准备。
另一方面量子模拟还可用来研究新颖量子系统的性质和演化。这些系统也许由于当下相应量子材料的制备还不够完善而难以搭建,量子模拟可以提供对这些系统量子性质深入研究的平台。
8.2 量子麦克斯韦妖
不可能把热量从低温物体传向高温物体而不产生其他影响。要实现冰箱、空调等的制冷作用都需要外界做功。-1850年,Rudolf Clausius
热力学定律是对宏观大量物体的统计性定律,如果能引入额外自由度对单个粒子进行精确的操作,热力学定律是否有可能被违背?

1961年,美国IBM公司的物理学家兰道尔(Landauer)仔细地研究了数据处理与器件功耗的问题,意识到信息的擦除会有热量的耗散,并在这一年提出了兰道尔原理:任何对信息逻辑上不可逆的操作,比如擦除一个比特或者合并两条计算路径,总是在信息处理器件中的非信息载体自由度或环境上伴随着一个相应的熵增。
根据兰道尔原理,存储单元中信息的擦除就是一个逻上不可逆的事件,将导致系统的熵增。
1982年,同样是IBM公司的物理学家班奈特(Bennett)敏锐地指出,在考虑麦克斯韦妖参与的热力学循环过程中,需要把妖怪也考虑在其中。麦克斯韦妖操控分子做功的过程中,妖怪对分子运动状态的记忆需要作为热力学循环的一部分。每一次循环结束后,需要对麦克斯韦妖的存储单元进行信息擦除,这是一个逻辑不可逆的过程,从而整个系统出现熵增。
这样即使存在麦克斯韦妖这种能力超强的精灵,热力学第二定律也不会被违背。人们已经在很多不同的物理系统中实现了多种形式的麦克斯韦妖。
我们方案则是通过引入一个辅助量子比特,实现与待冷却系统的控制耦合。通过对辅助量子比特的测量,实现待冷却系统高能量部分和低能量部分的区分将高能量部分剔除后就可以实现系统的量子冷却,这就像一只量子的麦克斯韦妖可以轻而易举地除去量子态中能量高的部分,因此这种方法被称为麦克斯韦妖式量子算法冷却。

第九章 量子仪盘
9.1 量子存储器
人类历史上的储存器
存储器的功能就是把信息存储起来,直到需要用的时候再读出。
量子储存器
①长程量子通信的难题:
对于量子通信而言,如果直接光纤传输,考虑0.2dB/km的通讯光纤信道衰减,1km的传输效率为95%,但是对于几百公里的直接传输几乎是不可能的。比如一个高重复率的光源(10GHz),500km后的速率将为1Hz,600km为0.01Hz,对于1000km为 10-10Hz。也就是说传输1000km获得一个光子大概需要300年。如上所述,经典通信通过中继放大来克服了这个困难。
非线性->光孤子
然而,对量子通信这是无法实现的。原因是1982年美国科学家Wootters和Zurek发表在《Nature》杂志上的篇幅仅一页纸的论文:量子态的不可克隆定理。对任意未知量子态,我们不可能将它直接放大或克隆。为了实现长距离的量子通信,1998年奥地利科学家提出了著名的BDCZ量子中继方案,可以通过纠缠的量子存储器和纠缠交换来克服信道损耗,实现量子中继通信。
②长程量子通信的方案:量子中继及量子加密优盘
量子中继的基本思路:考虑一个很长的信道距离L,如果把一对纠缠光子直接分配到信道两端,则成功率会很低。
如果有两对纠缠态,那可以每一对纠缠只传输L/2的距离,两对纠缠之间再用纠缠交换联系起来。如果我们有N对纠缠态,则每一对纠缠需要传输的距离降为L/N。
尽管这样做会引入纠缠交换的成功率等其他损耗问题,但对于长距离传输而言,可以严格证明这种方案是远远优于直接传输的。
为了实现纠缠交换,每个中继节点都需要量子存储器来存储纠缠状态直到其他节点纠缠的成功建立,再执行下一步交换操作。
经典信息领域有优盘、移动硬盘可以用于传递信息,在量子信息领域,也可以考虑研制量子加密优盘。
即通过可以随意移动的载体来传输量子信息,这种方案需要量子存储器具有超长寿命。
大多数量子系统的相干寿命都很短,无法满足这一需求。幸运地是, 2015年澳洲科学家发现掺铕硅酸钇晶体的核自旋跃迁具有长达6个小时的相干寿命,该工作开启了量子加密优盘研究的热潮。
如果能够把量子比特存储在量子加密优盘中,那么通过经典的交通方式包括卡车、高铁、飞机等,去运输量子加密优盘,到达目的地后再读出里面的量子信息,就能实现远程量子通信。
如果量子加密优盘的存储容量足够大,则这种方案的通信速率可以与量子中继方案相当。
量子加密优盘的特点是可以适应各种特殊的地理环境,是对现有光纤量子信道的一种有效补充。
③量子存储物理系统
目前可以实现量子存储功能的物理系统有:
- 固态量子存储器:冷原子系综
冷原子系综是较早实现量子存储功能的物理系统。激光冷却原子的技术是华人科学家朱棣文(1997年诺贝尔物理学奖得主)等人发明的。这些被冷却的原子具有很好的全同性,故与光子的相互作用很强。冷原子系综既可以实现发射光子建立自旋与系综自旋的纠缠也可以高效地捕获外部光子实现存储功能。激光冷却的原子系综目前已经实现了量子中继节点的功能演示。
稀土离子掺杂晶体:相当于将原子系综固定在晶体中,有一定的优势(下节详述)
其他量子存储系综:代表性的有金刚石中的各种色心缺陷、热原子系综、单原子、囚禁离子和量子点等各种物理体系可以实现量子存储。
9.2 固态量子存储器

单光子偏振量子态存储
光的偏振抗干扰能力极强。宇宙大爆炸至今的微波背景辐射仍然携带偏振信息。光的偏振是量子信息的天然载体。
研究困难:稀土掺杂晶体吸收存在各向异性,已研制的固态量子存储器都是针对单一偏振态的。无法实现偏振qubit的存储。
确定性单光子的量子存储:
- 量子网络需要确定性的量子光源,即原则上效率可以逼近100%的量子光源;
- 确定性量子光源可以是单个原子或者单个人造原子;
- 实现确定性量子光源的量子存储是诸多量子中继方案的根本需求。
量子存储器的多模式复用
多模式复用可以线性加速量子中继网络的通信速率
我们上一个实验演示了100个时间模式的复用量子存储
W.Tittel小组演示了26个频率模式的复用量子存储
除了偏振路径以外,还有哪个自由度可利用?空间——轨道角动量(OAM)
单光子与存储器之间的量子纠缠违背了三维的Bell不等式。

9.3 量子加密优盘
研究动机
稀土掺杂晶体的光学特性主要来自于稀土离子外层未满的$4f$电子。外层$5s$和$5p$电子对其的屏蔽作用使得$4f$电子与周围环境的耦合弱,因此$4f-4f$之间的跃迁寿命长而谱线窄。
光学激发寿命长使得其作为增益介质具有很高的量子效率,长寿命也让REIC(稀土掺杂晶体)成为热门的经典信息和量子信息的处理器。相比于原子气体体系,REIC作为一种固态介质,没有原子扩散的问题,结构稳定,并且可以制备成波导等易于集成的结构。在REIC内,固体晶格的声子激发是影响相干时间的最大来源,幸运的是将晶体降温至液氮温度下,可以完全抑制声子激发。
稀土掺杂晶体作为量子信息存储器的优势:
- 在液氢温度下,稀土离子的光学相干寿命和自旋相干寿命都很长,适合实现量子存储器功能。
- 使用量子优盘传输量子信息,最关键的技术要求是优盘需要几个小时甚至更长的寿命。固态量子存储已做到有6个小时的相干时间,这使得量子优盘的实现看到了希望。
量子加密优盘的工作原理

离子们所处的晶体环境各不相同,高低能态也各不相同,因此相位差$\theta$在外界磁场中的增长快慢也各不相同。当大部分离子的量子态演化的步调显著不一致时,我们即可认为,该系综已经发生了退相干,即量子态已经被破坏了。
物理学家们经过研究后认为,铕离子退相干的主要来源是晶体中钇原子的核自旋翻转带来的磁场扰动。
一个巧妙的想法是通过调节晶体所处的环境使得晶体中的离子系综处于一种对磁场不敏感的状态。

新兴技术
动态解耦合技术
这里我们可以打一个形象的比方。一个系综中离子的演化就好比一群人在走路,身体强壮的人(能量高的离子)走得快,身体虚弱的人(能量低的离子) 走得慢。随着时间的推移,队伍会越来越散乱(退相干)。如果天气炎热或者寒冷(外界磁场不合适),体力上的差距对人的影响更大,队伍散乱得就更快(退相干更快)。
如果你是这群人的指挥者,你还有没有别的巧妙办法让队伍保持一致?请注意,这里我们并不关心人们的目的地。
其实答案非常简单而直观:只需要每隔一段时间命令人们调转方向再继续行进即可。走得快的人会返回得更快,走得慢的人也会返回得更慢,因而人群必定会在最初的起点处重新汇合。无论人们行走速度的差距多大,外界的环境如何恶劣,这个办法总能用来有效地汇合人群。
动态解耦合技术的核心思想正是如此。在我们所关心的铕离子系综中,行走的人其实是每个铕离子的原子核,所涉及的两个高低能态其实就是原子核的两个自旋状态。
6个小时并不是硅酸钇中铕离子的相干寿命的上限。在前文中我们已经指出,T是T2的理论极限。而铕离子系综的T达到了更加惊人的23天。铕离子的原子核共有6种自旋状态,两两之间都存在跃迁,因此很大概率在更稳定的磁场中,存在更合适的一对能态,能够使铕离子系综实现更长的相干时间。
人们仍在努力研究如何制造拥有更长相干时间的量子信息存储器,最终实现家用的量子优盘。
量子中继
量子中继:先建立短程链路的纠缠,再逐步扩展至长程。
已有实验全部基于发射型的量子存储,其存储器与纠缠光子源是一体的,无法同时支持确定性发射以及多模式复用。
吸收型量子存储
基于吸收型量子存储的量子中继可以解决上述问题:
- 基于原子系综的存储器,支持多模式复用
- 独立的量子光源,支持基于单原子的确定性光源
- 目前理论效率最优的量子架构
- 但引入了异质光源与存储器匹配的难题
多模式量子中继
- 首次实现基于吸收型量子存储的量子中继
- 两个距离3.5米的偏振qubit存储器: 1GHz带宽,三明治结构
- 两套参量下转换纠缠光源,6000光子对/s,1GHz
- 首次演示多模式量子中继,可预报的存储器纠缠保真度80.4%