萬維鋼
多年以后,你面對養(yǎng)老院的 AI 護士,被搶走了酒杯和遙控器,勒令上床休息的時候,可能會想起今天這篇日課。

科幻小說作家暢想未來經(jīng)常會犯兩種錯誤。一種錯誤是他沒有充分考慮 AI,還以為都是人在主導(dǎo)一切。另一種錯誤是他誤判了 AI。像《西部世界》這樣的電視劇里,機器人動不動就活了 —— 有人的意識,但是智力水平居然并不高于人,有時候還挺笨的,比如《終結(jié)者》里的機器人純粹是個怪獸。

真實情況是讓 AI 獲得意識非常非常困難,但是讓 AI 的智能超過人則比較容易。寫小說最難寫的是比作家自己聰明的人,科幻作家很難想象超級 AI 是一種什么樣的存在。
但是科學(xué)家們已經(jīng)想了很多很多。咱們繼續(xù)說泰格馬克的《生命3.0》。未來的人類文明會使用什么樣的手段去獲取能源,用什么樣的方式生活?美國人愛說一句話叫“Sky is the limit”,翻譯成中文大概叫“只有天空是盡頭” —— 如果你考慮到超級 AI 的存在,那天空根本就不是盡頭。物理學(xué)的限制,才是盡頭。
泰格馬克像寫論文一樣做了大量的調(diào)研,等于是把 AI 影響下未來所有的可能性都列舉了一遍。科幻小說作家完全可以把這本書當(dāng)做“未來穿越指南” —— 他們會發(fā)現(xiàn)這些科學(xué)家的設(shè)想比小說家的幻想還奔放。

咱們就從近期到遠期,展望一下 AI 背景下的人類文明。我們說過真實世界并不一定是美好的,你未必會喜歡未來的樣子。
1.AI 聽命于人類
AI 駕駛汽車和 AI 參與醫(yī)療這些技術(shù)現(xiàn)在已經(jīng)幾乎成熟了,當(dāng)前的主要問題是解決可靠性。
從2000年到2013年,美國醫(yī)療手術(shù)機器人事故導(dǎo)致的病人死亡一共有144例,受傷1391例,這個數(shù)字聽起來挺多,但這可是兩百萬個機器人手術(shù)才有這么多事故。對比之下,美國每年因為人類醫(yī)生的錯誤而導(dǎo)致的死亡超過十萬例。自動駕駛汽車也是這樣。絕大多數(shù)交通事故都是因為人的錯誤。有人估計,如果把路面上所有汽車都交給 AI 開,交通事故至少能下降90%。

但問題就在于剩下的這10%算誰的。到底應(yīng)該讓車主負責(zé),讓汽車廠商負責(zé),還是讓開車的 AI 負責(zé)?考慮到這種責(zé)任風(fēng)險,廠商必須把 AI 事故率降低到極限,才敢推向市場。
說到法律問題,也許我們應(yīng)該把法官的判決權(quán)交給 AI。人類法官就算不腐敗也不一定能確保公正,我們知道一個著名的研究發(fā)現(xiàn),以色列法官僅僅因為自己感到有點餓了就會草率地否決犯人的保釋資格。可是如果真讓 AI 主導(dǎo)法律,又有別的道德問題。黑人的犯罪率更高,如果從概率論角度,出了事兒也許就應(yīng)該把黑人作為首要懷疑對象 —— 可是如果 AI 真這么干,那是不是系統(tǒng)性的種族歧視呢?
像這樣的道德困境,最嚴重的是軍事應(yīng)用。以前科幻小說作家阿西莫夫搞了個“機器人三定律”,第一條就是機器人不得傷害人類 —— 他到底想過沒有,很多關(guān)鍵的技術(shù)進步都是軍事應(yīng)用主導(dǎo)的。人們早就已經(jīng)把 AI 用在了武器上,而且考慮到人類指揮官反應(yīng)慢,也許將來會授予 AI 直接開火的權(quán)力。
有人說應(yīng)該設(shè)定國際公約,禁止把 AI 用于武器,而任何一個懂國際政治的人都會告訴他這禁止不了:就算大國能克制自己,小國也會偷偷搞。
還有我們說過多次的,AI 可能讓很多人失業(yè)。所以你看,AI 興起的世界中其實有很多新煩惱。
但那個世界畢竟還是人類說了算。
2.AI 與人類共治天下
再往遠考慮一點,恐怕就不僅僅是 AI 為人類服務(wù)了,人和 AI 之間會有主導(dǎo)權(quán)的斗爭。
比如說,假設(shè)現(xiàn)在有一套遍布全國的監(jiān)控系統(tǒng),由 AI 統(tǒng)一管理。它給每個人身上帶一個身份識別設(shè)備,它知道每個人在干什么,它甚至能根據(jù)一個人的性格和情緒預(yù)測這個人將會干什么。你說這套系統(tǒng)會不會變成獨裁者的統(tǒng)治工具?
可能由不得你。歷史規(guī)律是誰只要有這樣的能力,就會使用這樣的能力。一開始可能都是善意的,系統(tǒng)開啟之后所有人的生活都更安全了。但掌握系統(tǒng)的人會越來越不耐煩,他會覺得要想讓世界更好就需要更多的控制。甚至再進一步,也許 AI 索性接管控制權(quán),干脆讓人類就不要插手……
Google 的拉里·佩奇這些人總是鼓吹 AI 可以人類和睦相處。但 AI 為什么要跟你和睦相處呢?如果你活也干不好,判斷還總出錯,AI 為什么不索性自己干?
人類不就想要幸福嗎?全聽我的你們更幸福。也許人類會被 AI 當(dāng)成寵物,你的任務(wù)就是“幸福”。可是當(dāng)寵物未必幸福。也許你想多生幾個孩子,AI 說現(xiàn)在資源不夠,或者你的基因不行,別生了。也許你想?yún)⒄h政,AI 說你不懂別瞎說了。
你可能說人類應(yīng)該設(shè)定好,不給 AI 主導(dǎo)權(quán)。但泰格馬克說這其實很難。只要 AI 有了足夠的能力,它就會使用自己的辦法擺脫人類的控制 —— 別忘了這可是比人類聰明得多的智能!
專家們開了一些腦洞。比如說,能不能讓 AI 扮演上帝的角色,關(guān)鍵時候出來幫助一下人類,平時就把自己隱藏起來。還有沒有可能用 AI 去監(jiān)管 AI,只要最強的 AI 忠于人類,其余所有的 AI 都會忠于人類。又或者我們能不能控制AI 的進步速度,考慮到讓 AI 做大之后的危險,能不能全面禁止技術(shù)進步,就像《1984》小說里面寫的那樣,所有人互相監(jiān)督,誰也不許再搞科技創(chuàng)新?再或者說,能不能我們干脆來個技術(shù)大倒退,把 AI 技術(shù)封存,所有人過像現(xiàn)在美國的阿米什人那樣的生活?

(Amish 人拒絕使用現(xiàn)代技術(shù),馬車是他們的主要交通工具,人力是他們的主要工作方式。)

所有這些全面限制 AI 的手段都不太現(xiàn)實。除非你有一個統(tǒng)一了全世界的強權(quán),否則就算你們國家限制 AI,別的國家也會發(fā)展 AI。越是弱國就越可能把靈魂賣給 AI,換取自身的強大。
3.AI 主導(dǎo)人類文明
如果我們考慮更遠的尺度,比如說一萬年以后,你幾乎肯定那時候 AI 已經(jīng)完全超越了人類。人類是否還有必要存在,都是個問題。
人是個效率很低的生物。用愛因斯坦的質(zhì)能方程 E=mc^2,看各種獲取能量的方式相當(dāng)于消耗了多少質(zhì)量來算的話,我們吃糖獲得的能量消耗效率,相當(dāng)于0.00000001%。燒煤的效率相當(dāng)于吃糖的三倍。汽油相當(dāng)于吃糖的五倍。這都是非常低效的能源。
如果你使用裂變反應(yīng)的核能,效率一下子達到0.08%。用核聚變,效率能達到0.7%。可是如果將來的 AI 能做到用黑洞發(fā)電,根據(jù)物理學(xué)家的理論,效率可以達到20%以上,甚至達到90%。
我們現(xiàn)在說的節(jié)能減排,對未來的 AI 來說可能就是個笑話。就拿太陽能來說,只要建一個占地相當(dāng)于撒哈拉沙漠0.5%的面積的太陽能發(fā)電站,就足以獲得當(dāng)前人類所需的所有能源。
而未來 AI 要用太陽能,可不是這么用的。咱們以前介紹過的物理學(xué)家弗里曼·戴森,設(shè)想了一個叫做“戴森球”的系統(tǒng),告訴我們將來 AI 會怎么做 ——
AI 會在外層空間造一個巨大的球體,把太陽整個給包圍起來。然后我們?nèi)祟愇拿骶涂梢陨钤谶@個球體上,面積絕對夠用怎么折騰都可以 。這么一來,我們就把所有的太陽光都用上了,一點都不浪費。只要球體足夠大,陽光并不會很刺眼,球的內(nèi)側(cè)永遠都是白天 —— 而如果你想看星空,直接下樓去球的外側(cè)看。建設(shè)這么一個球需要的資源從哪里來呢?也許 AI 可以先把木星拆了。

有了這種規(guī)模的超級能源,AI 的目標(biāo)就是向整個宇宙殖民。現(xiàn)在人類最快的太空探測器速度只有光速的0.1%,而物理學(xué)家設(shè)想的一種激光推進的飛船,理論速度可以是光速的一半。
AI 殖民不需要載人。AI 可以帶著人類的 DNA 信息,用20年的時間飛到十光年以外的一個星球,在那里建設(shè)十年,用 DNA 信息現(xiàn)場組裝出人類來。然后 AI 可以從那里出發(fā)再往前推進。 如果這么算的話,地球文明幾乎就是以光速去殖民整個宇宙,文明擴散的唯一的限制是暗能量導(dǎo)致的宇宙膨脹!
***
這個星辰大海的前景只有兩個問題。
第一個問題是,這一切可能都跟人類無關(guān)了。如果 AI 主導(dǎo)一切,人的位置在哪里?人存在的意義在哪里?
有人設(shè)想,我們應(yīng)該想開一點,干脆就把 AI 當(dāng)成自己的孩子吧。作為父母我們沒什么能耐,但是我們的孩子厲害,這難道不也是一種安慰嗎?沒準(zhǔn) AI 還會哄哄我們,說我永遠是你的孩子,我繼承你的姓氏,我代表你去征服星辰大海……那樣你是不是也有點自豪感。畢竟是地球文明的種子播向了整個宇宙。
如果你說這不行,我不想被 AI 代表,我不想征服十光年以外的地方,我就想老老實實待在地球過日子……那你可能就對地球文明太不負責(zé)任了。因為有些日子不是你想過就能過的,你會遇到各種災(zāi)難的挑戰(zhàn)。
一百年之內(nèi),我們迫在眉睫的災(zāi)難就是核戰(zhàn)爭。一千年之內(nèi),地球很有可能會出現(xiàn)災(zāi)難性環(huán)境。在一萬年的范圍內(nèi),我們很有可能遭到小行星的撞擊,把地球文明毀滅一半。在十萬年內(nèi),我們很有可能遭遇到超級火山的爆發(fā),也把地球文明毀滅一半。在一百萬年或一千萬年的尺度上,我們很有可能遭遇一次巨大的小行星撞擊,把整個地球都給毀滅掉。

就算人類文明躲過了這些,你還要知道太陽的壽命是有限的。十億年之后,太陽會變得特別特別熱;一百億年之后,太陽會變成紅巨星,一直膨脹到把地球給淹沒掉。
沒有 AI,人類文明就不會有未來。把未來交給 AI,我們不但可以躲過地球上的各種災(zāi)難,甚至有可能整體移民外星球,也許文明的壽命可以和宇宙相等 —— 只不過那時候也許就不能叫“人類”文明了。
第二個問題則是,AI 愿意去做這一切嗎?AI 會不會有自己獨立的意志,它還會不會在乎我們這個文明? 這些問題咱們下次再說。
泰格馬克創(chuàng)辦“未來生命研究院”,就是為了在 AI 做大之前,讓人類把這些問題想清楚。
讀讀這本書,再想想咱們國內(nèi)某些專家學(xué)者,不知道什么叫算法,不知道什么叫圖靈機,對 AI 一竅不通,居然還要指點未來社會怎么前進,這不胡鬧嗎?
- 上一篇: 求別人,反而讓你高尚
- 下一篇: 我畢業(yè)了
猜你喜歡
- 2018-10-09什么人不會被人工智能替代
- 2018-10-08為什么中國足球不行?
- 2018-03-10《不充分均衡》4:怎樣用知識和世界相處
- 2018-03-10《不充分均衡》3:大學(xué)教育和吹捧文化的共同原理
- 2018-03-10《不充分均衡》2:壞系統(tǒng)的邏輯
- 2018-03-10《不充分均衡》1:“有效市場”和做大事的機會




本文暫時沒有評論,來添加一個吧(●'?'●)