人类学家胡家奇先生:致信人类领袖

  人类学家胡家奇先生,研究人类问题整整四十年,在《拯救人类》英文版在北美出版之时,写下《第四次致人类领袖的公开信》,呼吁人类务必要尽快警醒和统一行动起来,限制科学技术的继续发展。

  胡家奇先生在信中提到,早在2007年《拯救人类》一书中文版在中国出版时,就曾借机第一次向人类领袖致信呼吁全球统一行动控制科学技术的发展。然而在当时,认识到科学技术有可能灭绝人类的人并不多。

  仅过了十余年,科学技术又有了长足的进步,尤其是人工智能近几年的飞速发展,令更多的科学家认识到,如果再不采取行动,人类将会坠入万劫不复的灭绝深渊。

  胡家奇先生作为人类的一分子,对此忧心如焚。在《拯救人类》一书的英文版在北美出版之时,再一次致信人类领袖,呼吁全人类务必要尽快警醒和统一行动起来。

  胡家奇先生在信中简述了研究人类问题四十年得出的一些结论:

  一、科学技术有灭绝人类的能力,且在前方不远。

  当前来看,有可能灭绝人类的技术有纳米技术、生物工程、人工智能,以及未来的某项技术。

  二、人类不能够全面准确地判断科学技术的安全性。

  科学技术具有不可确定性,常常认为很好的恰恰是危害很大的。连牛顿和爱因斯坦都有科学研究的重大失误,因此人类不可能全面准确地判断科学技术的安全性。这不是说所有的科学技术都不能准确判断,是总会有不能准确判断的科学与技术。只要有一项能够灭绝人类的科学与技术不能被判断和筛选,就会给人类带来灭绝的灾难。

  三、人类不能够普遍理性地使用好科学技术成果。

  人类不能够普遍理性地使用好科学技术成果是一个基本事实,最先进的科学技术成果必然优先用于杀戮的武器自不必说,更应强调的是任何时候都有干极端坏事的人。

  胡家奇先生的研究成果攸关全人类的生存与幸福,他在信的最后警示:发展麻木就是危机麻木,滔天巨浪到来之前,海面往往非常平静,但暗流却在海底涌动,当什么科学技术研究都理所当然地去实施,当什么科学技术成果都理所当然地去接受,当什么科学技术产品都理所当然地去使用的时候,一个毁灭性的灾难说不定就在前方不远。

  胡家奇先生呼吁:要避免人类的灭绝必须采取统一全人类的行动以严格地限制科学技术的发展。

本文相关推荐