致:
各國領導人、聯合國秘書長、世界頂級科學家與學者、全球知名媒體負責人。
尊敬的各位領袖:
自十八世紀中葉工業革命以來兩百多年,科學技術一直處在加速發展狀態,今天已經達到相當的高度,一些技術的進一步發展將具備滅絕人類的能力,這一點許多科學家已經清醒地認識到。
2007年我的《拯救人類》一書中文版在中國出版時,我借此第一次向人類領袖致信呼籲全球統一行動控製科學技術的發展。當時,認識到科學技術有可能滅絕人類的人並不多,僅僅過了十多年,科學技術又有了長足的進步,尤其是人工智能在近幾年的飛速發展,更多的科學家認識到,如果再不采取行動,我們人類將會墜入萬劫不複的滅絕深淵。本人做為人類的一份子,對此憂心如焚。在我的《拯救人類》一書的英文版在北美出版之時,再一次致信各位尊敬的人類領袖,呼籲全人類務必要盡快警醒和統一行動起來,留給我們的時間真的已經不多。
一、科學技術有滅絕人類的能力,且在前方不遠。
核武器滅絕不了人類,核大戰能產生核冬天,會導致幾十億人死亡,但總有一部分人可以生存下來,人類還有重新開始的機會。但是,要是人類被滅絕就不可能重新再來。
當前來看,有可能滅絕人類的技術有納米技術、生物工程、人工智能,以及未來的某項技術。
已經有很多科學家就以下問題提出過警示:
納米技術如果失控,有可能會導致納米機器人的無限複製,從而徹底毀滅人類,毀滅地球。
生物工程采用基因技術改造的生物武器,可以製造超級瘟疫,從而滅絕人類。
人工智能研製的智能機器人,如果程序失控,或者自我意識覺醒,會滅絕人類。
科學技術還在高速發展,未來還有許多我們今天看不到的科學高度。200多年人類就把科學技術從一個很低的層級提高到足可以讓我們擔心人類整體被滅絕的高度,科學技術真的要具備滅絕人類的能力絕對不會再需要200多年,很有可能僅僅隻需幾十年!
二、人類不能夠全麵準確地判斷科學技術的安全性。
科學技術具有不可確定性,常常認為很好的恰恰是危害很大的。正如氟利昂的使用導致臭氧層被破壞;正如滴滴涕農藥當初認為很好,使用之後才了解有很多危害一樣。連牛頓和愛因斯坦都有科學研究的重大失誤,因此人類不可能全麵準確地判斷科學技術的安全性。這不是說所有的科學技術都不能準確判斷,是總會有不能準確判斷的科學與技術。隻要有一項能夠滅絕人類的科學與技術不能被判斷和篩選,就會給人類帶來滅絕的災難。
三、人類不能夠普遍理性地使用好科學技術成果
人類不能夠普遍理性地使用好科學技術成果是一個基本事實,最先進的科學技術成果必然優先用於殺戮的武器自不必說,更應強調的是任何時候都有幹極端壞事的人。
在科學技術發展到相當的高度後,隻比他人領先一步獲得某一技術的企業和科學家個人就有可能掌握全人類的生殺大權。正如一個高水平的生物學家就有可能在自己的實驗室獨立研製出具有超級殺戮規模的生物武器;納米機器人和智能機器人也可失控於某個編程人員。國家的行為還好控製一些,人類個體的行為是很難把控的。在科學技術發展到足以具備滅絕人類的層級後,隻要一個有能力掌握其使用權的人(或者企業與國家)失控一次,就是人類的末日。
四、綜上所述
科學技術的繼續發展,必定很快滅絕人類,長則二、三百年,短則就是本世紀,而且我認為多半是後者,因為今天距離獲得滅絕手段隻有一步之遙。
非常令人擔憂的是,當今全球都處於一種發展麻木的狀態,任何關於科學技術安全性的呼籲和警示,聲音都非常微弱。我研究人類問題達四十年,本人一直為此奔波和呼籲自不必說,一些頂級科學家的警示也無濟於事,人們更多是陶醉在科學技術給我們帶來的各種享受之中。
發展麻木就是危機麻木,滔天巨浪到來之前,海麵往往非常平靜,但暗流卻在海底湧動,當什麽科學技術研究都理所當然地去實施,當什麽科學技術成果都理所當然地去接受,當什麽科學技術產品都理所當然地去使用的時候,一個毀滅性的災難說不定就在前方不遠。
我們的每一步都決定著我們的未來,並最終決定著我們的結局,在科學技術發展到今天這樣的高度後,還一味地向前!向前!向前!再向前一步就必定會踩上一顆地雷,那是滅絕人類的地雷,從我們踏上的那一刻起就已經無法回頭,那將是我們的第一次,也是我們的最後一次!
人類學家/企業家/北京市門頭溝區政協委員
胡家奇
2019年4月