全文共2466字,預計學習時長5分鐘
圖源:Jon Han
目前我們無法簡單地定義人工智能,領域內的科學家們也無法在“真正的AI”組成成分和純粹運轉高效迅速的計算機程序之間達成一致。但事實是:智能指的是精準感知周圍環(huán)境、采取行動,盡最大可能實現既定目標的能力。它并不意味著聰明,即儲備大量知識或解決復雜數學問題。
計算機已經能比人類更快地處理信息。它們記住的信息量不僅大,且無損無延遲,也不會疲憊、不會出錯。這已經不是新鮮事了。但是近幾年計算機革命已經變成了人工智能領域的革命。AI能在象棋、圍棋這類一貫被視作可靠的智能標志中打敗人類。它們能瞬間識別圖像,錯誤率很低;在股票市場的表現比股票分析師還好;幾乎能像人類一樣用短信交流對話;能做許多人類能做的事——甚至做得更好。
大部分時候,AI在學習如何去學習。這是一項人類特性,但是由于它裝下的數據比人腦要多得多,且處理數據的速度比人腦快太多,它有潛力比人類學習得更快、更全面?,F在學習能力很大程度上局限于狹窄的學科,但如果這項能力擴展的話,人工智能可就名副其實了。如果能做到這點,它就不再只是目前統(tǒng)治地球的兩足猿人的工具,它很快就能與人類平起平坐。之后很快地——如果AI速度不夠快,那它什么也不是——它就能超越人類。人類是智能的——智人歸根結底表示“有智慧的人”。但是AI可以變得超智能。
人類并非比其他動物更強或更快才站到食物鏈的頂端,人類的成功是因為比其他動物更聰明。如果這一領先性被剝奪,那么人類也可能要祈求超智能AI的寬恕,正如瀕危大猩猩祈求人類一樣。人類是為了獲取必需的空間資源,而非故意或出于惡意便將無數種族趕盡殺絕。同樣,超智能的AI也可能僅僅因為人類的存在阻擋了它實現目標的道路,便將人類這一種族滅絕。那么人類將無法抵抗AI,就像瀕危動物無法抵抗人類一樣。。
這些警告可能并不陌生。特斯拉及太空探索技術公司的創(chuàng)始人埃隆·馬斯克曾將AI視為“整個文明世界中人類面對的最大風險”,并認為發(fā)展通用AI是“在召喚惡魔”。已故的史蒂芬·霍金曾說,“全面的人工智能發(fā)展可能會招致人類種族的滅絕?!痹谡嬲腁I還沒影子時,人們用智能機器崛起、推翻人類創(chuàng)造者之類的駭人故事自娛自樂:《終結者》《黑客帝國》《銀河戰(zhàn)星》《西部世界》。
存在風險作為學術性科目而存在,是出于對AI的擔憂。有關存在風險所有中心機構——人類未來研究所(FHI),未來生活研究所(FLI),存在風險研究所(CSER)將AI作為重中之重。舉例來說,CSER在一趟共享的出租車旅程中誕生了,當時網絡電話(Skype)的共同創(chuàng)始人(愛沙)揚·塔林對劍橋哲學家休·普賴斯說,他認為自己死于與AI相關事故的幾率和死于心臟病或癌癥的一樣大,塔林絕非唯一一個這么想的人。
AI將是最終的存在風險,因為人類將由代表人類智慧總和的產物終結。但AI也是一些人口中“存在希望”,即存在風險另一面的最后源泉。
人類面對自然或人為存在威脅時的脆弱性,主要歸結為智力問題。人類可能還沒聰明到能讓一個巨大的行星轉向,也尚不知道如何阻止超級火山的噴發(fā)。人類知道如何阻止一場核戰(zhàn)爭,但也沒有足夠的智慧保證導彈不被發(fā)射。人類也沒有足夠的智能研發(fā)清潔且低價的能源來源,并在保障地球上所有人都享受各自生活的同時消除環(huán)境變化的威脅。人類沒有聰明到鏟除傳染病的威脅,或是設計出能中和任意工程性病菌的生物型防御。人類也絕沒聰明到能戰(zhàn)勝關乎所有人,或人類種族的死亡。
但如果AI變成其最熱忱的布道者希望的那樣——不僅是人工智能,而是超智能——那沒什么是不可能的了。人類能在其他恒星上建立殖民地,通過將人類的意識上傳到虛擬天堂長生不老,消除身為人類時的疾病和痛苦。這絕不是一個存在性浩劫,相反人們能創(chuàng)造一個存在性“大團圓”——突然的價值觀大爆發(fā)。唯一的阻礙是智力——由人類的生理和進化埋下的障礙。但是硅谷的產物沒有這樣的缺陷,它們可能會成功,順便帶著人類。
也難怪如谷歌CEO桑達爾?皮查伊(Sundar Pichai)這樣聰明的硅谷名人會說,AI將比“電或火”更重要。AI專家非常搶手,一畢業(yè)就能掙到高達50萬美元的薪水。由美中兩國主導的軍隊在由AI運行的自動化武器上耗費數億,這就如曾經的核彈,將從根本上改變戰(zhàn)爭的本質。現在每家科技公司都將自己視為AI公司——臉書(Facebook)和優(yōu)步(Uber)從大學里挖了一些最優(yōu)秀的AI天才到公司里,2018年,谷歌將所有研究部門更名為谷歌AI。無論是建造社會網絡或制造藥物、設計自動化汽車,科技研究正演變?yōu)锳I研究——而其他的一切就只是工程而已。
這些公司明白,贏得真正的AI競賽所獲得的回報是不可估量的。毫無疑問,這是一場競賽。研發(fā)出頂尖AI的公司或國家將主宰全世界,這也是為什么直到最近研究領域才出現一些聲音,確保AI安全研發(fā),使存在風險降到最低并使存在希望最大化。這就類似于1940年代,那時候人們正進行核彈競賽。也正如1945年7月16日黎明前聚集在新墨西哥沙漠的科學家一樣,人們也不知道這項發(fā)明會帶來什么,其中也包括摧毀世界的力量。
曼哈頓計劃中的物理學家只能等待三一實驗的結果,但人們還是可以積極地塑造AI發(fā)展的方向。這也是存在風險專家們癡迷于AI的原因——與人類面對的其它風險不同,在AI上人們能做出一些改變。人們能希冀將災難轉為美好結局。這同時也是一場競賽,在AI失控前研發(fā)出控制AI工具的競賽。這種區(qū)別可能就是未來人類的生與死的區(qū)別。
這就是AI——所有存在風險的由頭和解決措施。正如霍金在其死后出版的最后一本書寫道,“于人類而言,超智能AI的降臨要么是解藥,要么是毒藥?!?/p>
留言 點贊 關注
我們一起分享AI學習與發(fā)展的干貨
編譯組:徐粲、溫媛
相關鏈接:
https://onezero.medium.com/a-i-is-the-cause-of-and-solution-to-the-end-of-the-world-2d247d37eccb
如需轉載,請后臺留言,遵守轉載規(guī)范