我想给新生做一次计算机讲座。他们什么都不知道。我该说什么?课本上没有?实用。非计算机专业。

黑洞计算机

赛斯·劳埃德和Y .杰克·吴

为了与时俱进,研究人员可以把物理定律看成计算机程序,把宇宙看成计算机。

黑洞计算机听起来可能很荒谬,然而,宇宙学和基础物理学的研究人员正在证明它是一个有用的概念工具。如果物理学家能够在粒子加速器中制造出黑洞(预计在10年内有可能),他们或许真的能够观测到黑洞执行运算。

电脑和宇宙黑洞有区别吗?乍一看,这个问题听起来像是微软一个笑话的开场白。然而,它是当今物理学中最深奥的问题之一。对大多数人来说,电脑是专业化的新发明:流线型的桌面橱柜或咖啡壶里指甲般的芯片。对于物理学家来说,所有的自然系统都是计算机。岩石、原子弹和星系可能不运行Linux程序,但它们也记录和处理信息。每个电子、光子和其他基本粒子都存储数据位值。自然和信息是交织在一起的,正如美国普林斯顿大学物理学家约翰·惠勒所说,“它来源于比特。”

黑洞可能看起来像是计算一切规则的例外,向黑洞输入信息并不困难。然而,根据爱因斯坦的广义相对论,从黑洞中提取信息是不可能的。进入黑洞的物质已经被均质化,其成分和细节已经无可挽回地丢失了。在1970年代,英国剑桥大学的斯蒂芬·霍金表明,当考虑量子力学时,黑洞确实有输出:它们像热煤一样燃烧。但是,在霍金的分析中,这种辐射是无序的、随机的;它不携带任何关于什么进入它的信息。如果一头大象掉进去了,大象的能量值就会泄露出来——但是这种能量会是一个大杂烩。它不能被使用(甚至原则上),也不能被重新创建。

因为量子力学的定律保留了信息,信息的明显丢失引发了一系列问题。其他科学家,包括斯坦福大学的李奥纳特·苏士侃、加州理工学院的约翰·普雷斯基尔和荷兰乌特勒支大学的杰拉德·t·胡夫特认为,事实上,发射的辐射不是随机的,而是物质落入黑洞的一种加工形式。2004年夏天,霍金转而同意他们的观点,认为黑洞也在计算。

黑洞只是宇宙中注册和处理信息的普遍原理的最大特例。这个原则本身并不新鲜。在19世纪,统计力学的创始人发展了后来称为信息论的知识来解释热力学定律。乍一看,热力学和信息论是两个独立的范畴:一个是描述蒸汽机,一个是优化交流;但是熵这个热力学量限制了蒸汽机做有用功的能力,熵与物质中分子的位置和速度所记录的位数成正比。20世纪的量子力学把这一发现放在了坚实的定量基础上,使科学家对量子信息有了重大的概念。构成宇宙的比特是量子比特,或称“量子比特”,其属性远比普通比特丰富。

借助比特和字节来分析宇宙,并不能取代常规的力和能量相等的分析,但它揭示了许多惊人的新事实。比如,它解决了统计力学领域一个叫做“麦克斯韦妖”的悖论——这个悖论似乎允许永动机的存在。近年来,我们和其他物理学家一直在用相同的观点看待宇宙学和基础物理学:黑洞的本质、时空的精细尺度结构、暗物质在宇宙中的行为以及一些极端的自然规律。宇宙不仅是一台巨型计算机,也是一台巨型量子计算机。正如意大利帕多瓦大学的物理学家Paola Zizzi所说,“它来自量子比特。”

千兆太慢。

物理学和信息论(来自量子力学的中心原理)已经融合:归根结底,色散是自然界的本性;一个自然系统可以用有限的比特值来描述。在这个系统中,每个粒子的行为就像一个计算机的逻辑门。它的自旋“轴”可以指向两个方向中的一个,因此一个比特可以被编码和翻转,从而执行简单的计算操作。

系统在时间上也是离散的。传输一个位所用的时间是最小值。信息处理物理学的两位先驱——麻省理工学院的诺曼·马戈勒斯和波士顿大学的列夫·莱维汀——命名的一个定理给出了精确的数量级。这个定理与海森堡的测不准原理(测不准原理描述的是测量两个相关的物理量,如位置和动量或时间和能量时的内在权衡)有关,它声称转移一个比特所需的时间t取决于你施加的能量e,施加的能量越多,时间可能越短。数学表达式为T≥h/4E,其中h为普朗克常数(量子理论的主要参数)。例如,一种实验量子计算机使用质子存储信息位,而磁场用于翻转每个位值。这些操作发生在Margolus-Levitin定理允许的最短时间内。

从这个定理可以推导出很多结论,包括时空对整个宇宙计算能力的几何限制。作为预演,试着考虑一下普通物质的计算能力极限——在这种情况下,取一千克占据一升体积的物质,我们就称之为“极限掌上电脑”。

它的电池能量就是物质本身,通过爱因斯坦著名的公式E=mc*2直接转化为能量。如果把这些能量全部投入翻转的比特,计算机每秒可以进行10*51次运算;随着能量的减少,它的运行逐渐变慢。计算机的存储容量可以用热力学来计算:当一千克的物质在一升的体积内转化为能量时,其温度为654.38+0亿开尔文。熵与能量除以温度成正比,对应达到10*31比特信息。“极限袖珍计算机”将信息存储在基本粒子的微观运动和位置中,这些粒子在其体积内四处运动,因此热力学定律允许的每一个信息比特都被投入使用。

极限计算

什么是电脑?这是一个非常复杂的问题。无论你如何准确地定义它,它都不仅仅是人们通常所说的“计算机”,而是世界上的任何物体。自然界中的物体可以解决广义的逻辑和数学问题,尽管它们的输入和输出可能不是对人类有意义的形式。自然计算机天生就是数字化的:它们以离散的量子态存储数据,比如基本粒子的自旋。他们的指令集是量子物理学。

每当粒子相互作用时,都会导致彼此的取向翻转。这个过程可以借助C或Java等编程语言来想象:粒子只是变量,它们的相互作用是加法等运算行为。每比特信息每秒可以翻转10*20次,相当于100GG Hz的时钟速度。事实上,系统变化太快,无法由中央时钟控制。翻转一个数字所需的时间大约等于将一个信号从一个数字传输到相邻数字所需的时间。因此,极其方便的掌上电脑是高度并行的:它不像单个处理器那样运行,而是像一个由多个处理器组成的巨大阵列;每个处理器几乎独立工作,并将其运算结果传送给其他相对较慢的处理器。

相比之下,常规计算机每秒翻转其信息位约10*9次,存储约10*12位信息,并且仅包含单个处理器。如果摩尔定律能够维持,你的后代有可能在23世纪中叶买到一台极致的掌上电脑。工程师们将找到一种方法来精确控制等离子体中粒子之间的相互作用,等离子体比太阳的核心还要热,控制计算机和纠正错误将占用大量的通信带宽。工程师可能也解决了一些节点的封装问题。

从某种意义上说,如果你认对了人,其实是可以买到这样的设备的。一千克的物质完全转化为能量——这是2000万吨氢弹的工作定义。爆炸的核武器正在处理大量的信息,它的初始结构提供了输入,它的辐射提供了输出。

从纳米技术到半导体技术*

如果任何物质都可以看作是一台计算机,那么黑洞就是一台被压缩到最小尺寸的计算机。随着计算机的缩小,其组件之间的相互吸引力增加,直到最终增加到没有任何物体可以逃脱。黑洞的大小(称为史瓦西半径)与其质量成正比。

一个质量为一公斤的黑洞半径约为10*-27米(一个质子的半径为10*-15米)。压缩后的计算机没有改变它的能量含量,所以它可以像以前一样每秒执行10*51次运算。只是它的存储容量变了。当重力可以忽略不计时,总存储容量与粒子数量和体积成正比。当引力起主导作用时,它将粒子连接起来,因此它们作为一个整体可以存储更少的信息。黑洞的总存储容量与其表面积成正比。在1970年代,霍金和耶路撒冷希伯来大学的雅各布·贝肯斯坦计算出一个质量为一公斤的黑洞可以记录大约10*16比特的信息,比压缩前少得多。

黑洞是一个更快的处理器,因为它存储的信息更少。传输一个比特需要10*-35秒,等于光从计算机的一边传播到另一边所需的时间。所以,相对于高度并行的极端掌上电脑,黑洞是串行计算机,它的行为就像一个独立的单元。

黑洞计算机实际上会如何运行?输入不是问题:只要把数据以物质或能量的形式编码,然后扔进黑洞。通过适当地准备要放入黑洞的材料,黑客将能够为黑洞编写任何所需的计算程序。物质一旦进入黑洞,就永远消失了——所谓的“事件视界”划分了一去不复返的线。垂直下落的粒子相互作用,在到达黑洞中心之前执行有限时间的操作。这个中心就是引力奇点,在这里粒子不再存在。物质在奇点处被挤压在一起会发生什么,取决于量子引力的细节,目前未知。

黑洞计算机的输出以霍金辐射的形式出现。如果一个质量为一公斤的黑洞发出霍金辐射,为了维持辐射能量,它的质量会在10*-21秒内迅速衰减并完全消失。辐射的峰值波长等于黑洞的半径。对于一个质量为一千克的黑洞来说,这个波长等于极其强烈的伽马射线的波长。粒子探测器可以捕捉并解码这种辐射,供人类使用。

霍金对黑洞辐射的研究把他的名字和这种辐射联系在了一起。他推翻了没有任何东西能从黑洞中逃脱的传统观点。黑洞的辐射率与其大小成反比,因此大黑洞(如星系中心的黑洞)的能量损失比其吞噬物质的速度慢得多。然而,在未来,实验者可能会在粒子加速器中制造一些微小的黑洞,这些黑洞会随着辐射的爆发而爆炸。黑洞不能被视为一个固定的物体,而是以最大可能的速率执行操作的物质的短暂集合。

图片:

/pic/45/11566790940547160 . jpg