地球讲解员2019-04-28 04:20:42

胡家奇先生在《拯救人類》英文版在北美出版之時,寫下《第四次致人類領袖的公開信》,呼籲人類務必要盡快警醒和統一行動起來,限製科學技術的繼續發展。

人類胡家奇先生研究人類問題整整四十年,在信中提到早在2007年《拯救人類》一書中文版在中國出版時,就曾借機第一次向人類領袖致信呼籲全球統一行動控製科學技術的發展。然而在當時,認識到科學技術有可能滅絕人類的人並不多。

僅過了十餘年,科學技術又有了長足的進步,尤其是人工智能近幾年的飛速發展,令更多的科學家認識到,如果再不采取行動,人類將會墜入萬劫不複的滅絕深淵。

  胡家奇先生作為人類的一分子,對此憂心如焚。在《拯救人類》一書的英文版在北美出版之時,再一次致信人類領袖,呼籲全人類務必要盡快警醒和統一行動起來。

  胡家奇先生在信中簡述了研究人類問題四十年得出的一些結論:

  一、科學技術有滅絕人類的能力,且在前方不遠。

  當前來看,有可能滅絕人類的技術有納米技術、生物工程、人工智能,以及未來的某項技術。

  二、人類不能夠全麵準確地判斷科學技術的安全性。

  科學技術具有不可確定性,常常認為很好的恰恰是危害很大的。連牛頓和愛因斯坦都有科學研究的重大失誤,因此人類不可能全麵準確地判斷科學技術的安全性。這不是說所有的科學技術都不能準確判斷,是總會有不能準確判斷的科學與技術。隻要有一項能夠滅絕人類的科學與技術不能被判斷和篩選,就會給人類帶來滅絕的災難。

  三、人類不能夠普遍理性地使用好科學技術成果。

  人類不能夠普遍理性地使用好科學技術成果是一個基本事實,最先進的科學技術成果必然優先用於殺戮的武器自不必說,更應強調的是任何時候都有幹極端壞事的人。

  胡家奇先生的研究成果攸關全人類的生存與幸福,他在信的最後警示:發展麻木就是危機麻木,滔天巨浪到來之前,海麵往往非常平靜,但暗流卻在海底湧動,當什麽科學技術研究都理所當然地去實施,當什麽科學技術成果都理所當然地去接受,當什麽科學技術產品都理所當然地去使用的時候,一個毀滅性的災難說不定就在前方不遠。

  胡家奇先生呼籲:要避免人類的滅絕必須采取統一全人類的行動以嚴格地限製科學技術的發展。