一、霍金的科学成就:创立无边界宇宙理论 1985年,第一次来到中国,到中国科技大学和北京师范大学访问。在科大水上讲演厅做天体物理的学术报告。 1988年,霍金的科普著作《时间简史:从大爆炸到黑洞》发行,从研究黑洞出发,探索了宇宙的起源和归宿,该书被译成40余种文字,出版逾1000余万册,但因书中内容极其艰深,在西方被戏称为“读不来的畅销书”,有学者曾指这种书之所以仍可以如此畅销,是因为书本尝试解答过去只有神学才能触及的题材:时间有没有开端,空间有没有边界。 2001年10月,又一部作品《果壳中的宇宙》 出版发行。该书是《时间简史》的姐妹篇,以相对简化的手法及大量图解,诉说宇宙起源。 2002年,第二次来中国,在北京、杭州作主题为《膜的新奇世界》科普报告,向公众阐释他的关于天体演化的“M理论”。 霍金亦试图通过通俗演讲,将自己的思想与整个世界交流,除了常在英国及美国发表演说,他90年代曾两次到访日本。 霍金曾指,大众会好奇一位残障人士,为何会想到这么多宇宙论,令他成了大众媒体的宠儿。事实上,他在《星际迷航(Star Trek)》中的电视系列剧《星际迷航:下一代》中饰演过自己,与爱因斯坦及牛顿一起打桥牌;他亦曾在美国卡通片《辛普森一家》中“演出”,拯救剧中的女孩。 2006年,他在香港透露正与女儿合撰写一套类似于《哈利波特》、但主题是理论物理学而非魔法的小说。 2006年6月,第三次来中国,他带来的仍然是自己关于宇宙学最新的研究,在香港科技大学体育馆主持一个题为"宇宙的起源"的演讲时,轰动一时,被戏称为受到“摇滚巨星”级的接待。2006年6月19日上午,在人民大会堂向北京的公众讲述《宇宙的起源》。 2012年4月6日播出的热播美剧《生活大爆炸》第五季第21集中,史蒂芬·霍金本色出演参与了客串。
约两周前,霍金参加节目,被问,“每个人都想知道,大爆炸前宇宙是什么样的?”他给出答案:“宇宙的边界就是它没有边界,大爆炸前宇宙什么都没有。” 霍金的成就很多,其中几个著名的理论有几个。 第一,奇性定理。爱因斯坦创立的广义相对论被科学界公认为最美丽的科学理论。但是霍金和彭罗斯一道证明了广义相对论是不完备的。他们指出,如果广义相对论是普遍有效的,而宇宙间的物质分布满足非常一般的条件,那么宇宙时空中一定存在一些奇点。在奇点处经典物理的定律失效。人们通常谈论的奇点是宇宙产生元初的大爆炸奇点和黑洞中的奇点。爱因斯坦早先否认过奇点的存在,他甚至还写过论文以论证黑洞(那时还没有这个生动的称呼)的不可能性。霍金和彭罗斯的奇性定理表明了对引力的量子化是不可避免的。 第二,黑洞理论。人们知道,在经典引力论的框架里,黑洞只能吞噬物质,而不能吐出物质。黑洞的表面(视界)犹如地狱的入口,是一个有去无返的单向膜。霍金曾经证明视界的面积是非减的。1974年霍金发表了《黑洞在爆炸吗?》一文。这是20世纪引力物理在爱因斯坦之后的最伟大论文。在论文中,他把量子理论效应引进了黑洞研究,证明了从黑洞视界附近会蒸发出各种粒子,这种粒子的谱犹如来自黑体的辐射。随之黑洞质量降低,温度就会升高,最终导致黑洞的爆炸。在这被称为霍金辐射的场景中,量子理论、引力理论和统计物理得到了完美的统一。黑洞理论是科学史上非常罕见的例子,它首先在数学形式上被详尽的研究,后来才在天文学的许多观测上证实了它的普遍存在。现在,人们的共识是,每个星系的中心都是一颗极其巨大的黑洞。 第三,无边界宇宙理论。霍金在80年代初,创立了量子宇宙学的无边界学说。他认为,时空是有限而无界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始时的第一推动。宇宙的演化甚至创生都单独地由物理定律所决定。这样就把上帝从宇宙的事物中完全摒除出去。上帝便成了无所事事的“造物主”,它再也无力去创造奇迹。亚里士多德、奥古斯丁、牛顿等人曾在宇宙中为上帝杜撰的那个关于“第一推动”的神话,完全是虚幻的。量子宇宙学的主要预言之一是关于宇宙结构的起源。若干年前,宇宙背景辐射探测者对太空背景温度起伏的观察证实了这个预言。 霍金的外星人论 斯蒂芬·霍金在美国探索频道2010年4月25日播出的纪录片《跟随斯蒂芬·霍金进入宇宙》中说,外星人存在的可能性很大,但人类不应主动寻找他们,应尽一切努力避免与他们接触,从而避免黑暗森林打击!(刘慈欣三体中所提到的理论) 霍金认为,鉴于外星人可能将地球资源洗劫一空然后扬长而去,人类主动寻求与他们接触“有些太冒险”。“如果外星人拜访我们,我认为结果可能与克里斯托弗·哥伦布当年踏足美洲大陆类似。那对当地印第安人来说不是什么好事。” 霍金的星际移民论 霍金在2010年8月接受美国知识分子视频共享网站BigThink访谈时,再曝惊人言论,称地球200年内会毁灭,而人类要想继续存活只有一条路:移民外星球。 霍金表示,人类如果想一直延续下去,就必须移民火星或其他的星球,而地球迟早会灭亡。霍金说:“人类已经步入越来越危险的时期,我们已经历了多次事关生死的事件。由于人类基因中携带的‘自私、贪婪’的遗传密码,人类正在一点点掠夺地球资源,人类不能把所有的鸡蛋都放在一个篮子里,所以不能将赌注放在一个星球上。” 去年,霍金还在GMIC 2017开幕式上做主题演讲《让人工智能造福人类及其赖以生存的家园》,谈及对人工智能的看法。主要观点如下: 简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。 也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能的能力转移到最大化人工智能的社会效益上面。 文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。 在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。 人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令,我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,而最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果将使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。 现阶段,我对灾难的探讨可能惊吓到了在座的各位,很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们会团结在一起,共同呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。
|