人妻少妇乱子伦精品_日韩人妻潮喷视频网站_日本最新最全无码不卡免费_日韩AV无码中文

當前位置: 首頁 > 科技新聞 >

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈

時間:2020-04-08 14:55來源:網(wǎng)絡(luò)整理 瀏覽:
導(dǎo)讀:3.14來了,數(shù)據(jù)叔想跟你聊一位大佬、一部電影、一本書。作者:數(shù)據(jù)叔來源:華章科技▲圓周率節(jié)傳統(tǒng)美食——派,圖片作者:Kalki3月1

導(dǎo)讀:3.14來了,數(shù)據(jù)叔想跟你聊一位大佬、一部電影、一本書。

作者:數(shù)據(jù)叔

來源:華章科技

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

▲圓周率節(jié)傳統(tǒng)美食——派,圖片作者:Kalki

3月14日總是很“熱鬧”,這一天是白色情人節(jié),而且這一天跟科技圈有一些特別的緣分。首先,3.14是圓周率節(jié),然后,這一天我們要紀念兩位人類科學史上的重量級大佬:

阿爾伯特·愛因斯坦(Albert Einstein),1879年3月14日出生。斯蒂芬·霍金(Stephen Hawking),2018年3月14日逝世。

盡管因為健康問題被禁錮在輪椅上,霍金的思考范圍卻總是事關(guān)全人類。作為“老本行”的量子引力研究自然不用多說,“課余”時間里,霍金也為人類的未來操碎了心。霍金曾多次發(fā)表“人工智能威脅論”,給風口上的AI潑冷水。

那么霍金具體都說了些什么?為什么值得我們深思?

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

01 霍金:計算機智能與我們沒有本質(zhì)區(qū)別

作為一位嚴謹?shù)目茖W家,霍金總能讓那些沉迷于不靠譜的科幻美夢中的人們清醒一下。比如,他曾搞過一個時空旅行者聚會,邀請那些掌握“穿越”技術(shù)的未來人來參加。約定的時間到了,除了霍金自己,沒有人來,以此證明未來人根本沒有“穿越”能力。

(順便提醒一下,這個聚會你也可以自己家里搞一個,看看是不是也只有你自己參加。)

霍金對外星人的態(tài)度跟對AI的態(tài)度非常相似,他警告人類不要去聯(lián)絡(luò)外星生命,否則會自取滅亡。

對于近些年一直被資本追逐的人工智能,遠離利益關(guān)系的霍金更強調(diào)風險而不是收益。

在2017年的全球移動互聯(lián)網(wǎng)大會(Global Mobile Internet Conference,簡稱GMIC)上,霍金發(fā)表了《讓人工智能造福人類及其賴以生存的家園》的主題演講。他提到:

我相信生物大腦可以達到的和計算機可以達到的,沒有本質(zhì)區(qū)別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。


人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身,人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代,這將給我們的經(jīng)濟帶來極大的破壞。


未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。[1]

為什么如果人工智能跟人類沒有區(qū)別會很可怕?我們可以套用一個句式回答這個問題:比你聰明的人還比你努力,你還有活路嗎?

下面這個電影,能把這個問題說得更明白。

02 通過圖靈測試的AI有多可怕?

電影《機械姬》(Ex_Machina)里有一段經(jīng)典臺詞,也在表達計算機/人工智能跟人類沒有本質(zhì)區(qū)別:

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

人腦是否被programmed,這個討論涉及人類是否有自由意志的哲學問題。讓我們先放過哲學問題(其實是讓哲學問題放過我們),看看這部電影的故事背景:

某知名搜索引擎公司的程序員Caleb幸運地抽中老板Nathan所開出的大獎,他將受邀前往老板的豪宅中度假。事實上,天才老板Nathan邀請Caleb的真正目的是對Nathan開發(fā)的人工智能智能機器人Ava進行圖靈測試。[2]

然后我們再科普一下什么是圖靈測試

圖靈測試指測試者(提問者)在與被測試者(一個人和一臺機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試后,如果有超過30%的測試者不能確定出被測試者是人還是機器,那么這臺機器就通過了測試,并被認為具有人類智能。“圖靈測試”沒有規(guī)定問題的范圍和提問的標準,但為人工智能科學提供了開創(chuàng)性構(gòu)思。


圖靈在計算機出現(xiàn)之前就預(yù)見了具有邏輯思維的機器,并預(yù)言在20世紀末將有電腦可通過“圖靈測試”。[3]

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

▲圖靈測試示意圖,出自《大話機器人》

影片中,Caleb對Ava進行的是一個升級版的圖靈測試,因為傳統(tǒng)版的圖靈測試對Ava來說已經(jīng)毫無挑戰(zhàn)性。也就是說,Nathan直接告知Caleb,Ava是人工智能,并讓Caleb跟Ava直接接觸,相當于拿著放大鏡“找茬”,看看能否發(fā)現(xiàn)Ava的破綻。

注意,圖靈測試并沒有提出一個量化的技術(shù)指標,沒有要求機器智能有多么高的科技含量,而是區(qū)分機器和人類,它在意的是這個機器像不像人。

那么“主考官”們是可以有技巧的。比如,機智的Caleb就選擇了情感路線。冷冰冰的機器是不可能有情感的,如果Ava能夠表現(xiàn)出具有人類相似的情感體系,那么她就通過了圖靈測試。

結(jié)果是,Ava不但通過了圖靈測試,而且還讓Caleb動了真情。

所以當Nathan告訴Caleb,Ava只是一個中間版本,終將結(jié)束“生命”被新版本替換掉時,Caleb難掩失望之情。

在這里,Nathan也又一次表達了人工智能跟人類的相同之處:Ava不是最終版,正如你我也不是人類的最終版一樣,終將被后來者替掉。

看到Caleb仍然處于失望中,Nathan拋出了另一段經(jīng)典臺詞:

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

這跟霍金所說的“人類無法與之競爭,將被取代”差不多是一個意思。

但Caleb仍然選擇站在了Ava一邊。影片的最后,Ava殺死Nathan,囚禁了Caleb,自己逃出與世隔絕的豪宅,去了她向往城市十字路口。

看到這里,作為觀眾的同時,如果你也是“主考官”,你會發(fā)現(xiàn)Ava也通過了你的圖靈測試——Ava跟人類一樣,有自己的欲望、有自己的審美,自私、殘暴、懂得欺騙……

這就是人工智能通過圖靈測試的后果——跟人類一樣,意味著人工智能不但擁有人類的優(yōu)點,也同樣擁有人類的缺點。

所以,把人工智能設(shè)計得跟人類一樣,讓他們通過圖靈測試,是非常危險的。

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

▲穿上看上去有點土的連衣裙、高跟鞋,為成功進入人類世界回眸一笑的Ava

是人工智能錯了嗎?是圖靈錯了嗎?我覺得,錯的可能是人類。人類發(fā)展到今天,雖然已經(jīng)有很多優(yōu)點,但還沒有足夠的智慧找到一種生存之道,跟自己的同胞、跟其他物種、跟這個星球和平共處。

多說一句,這部電影在豆瓣被低估了嗎?我覺得是的。我也翻了翻差評,很多人糾結(jié)于一些不那么重要細節(jié),比如他們開門還要用房卡,這么先進的年代里竟然沒有指紋識別、人臉識別之類的?;蛟S觀眾們的期待是一部充滿炫酷黑科技的科幻片吧,但我覺得這部電影的亮點并不是那些可以靠特效做出來虛擬場景,而是關(guān)于人工智能、關(guān)于人類自己的反思與探討。

03 脆弱的“機器人三定律”

我之所以很喜歡這部電影,也可能是因為我對它的期待不同。前些天看到《大話機器人》這本書推薦了這部電影并簡要介紹了情節(jié),所以我期待的就是一部討論人工智能和人類未來的電影,我期待的也是見識一下通過圖靈測試的人工智能是什么樣的。

《大話機器人》這本書,簡直就是古今中外的機器人大全。從中國古代三國時期諸葛亮發(fā)明的木牛流馬,到如今大熱的波士頓動力狗,都紛紛在書中亮相。書中也盤點了各國影視作品中的機器人,除了上文提到的Ava之外,還有哆啦A夢、阿拉蕾、鋼鐵俠、終結(jié)者……滿滿的童年回憶,總有一款是你的最愛。

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

回到現(xiàn)實中,《大話機器人》介紹了從工業(yè)到家庭,不同類型、不同功能的各種機器人的應(yīng)用??梢哉f,機器人已經(jīng)無處不在,你的生活每天都會被機器人影響。

機器人和人工智能本來是兩個概念,但兩者相結(jié)合的部分往往最精彩。Ava就是一個人工智能人形機器人,人類對于跟自己相似的機器人總有特殊的偏好。這種相似既包括外貌——人形,又包括思維方式——人工智能。這種偏好也不難理解:

塑造一種類似我們自己的生物,是人類自我認可的一種明證。但幻想終究是幻想,不能成為現(xiàn)實,在現(xiàn)實的科學技術(shù)面前,幻想也會打折扣,而折扣的結(jié)果就是制造不出自我,就制造一種可以替代自我的機器。如此說來,機器人便是人類幻想與科學技術(shù)現(xiàn)實妥協(xié)的一個產(chǎn)物。[3]

但是我們看到,Ava并沒有給人類帶來什么好處,反而很危險。《機械姬》的差評中有人提到了Ava不符合“機器人三定律”。1942年,科幻小說作家阿西莫夫在他的作品中提出了“機器人三定律”:

定律1:機器人不能傷害人類,或因不作為而使人類受到傷害。


定律2:機器人必須執(zhí)行人類的命令,除非這些命令與第一條定律相抵觸。


定律3:在不違背第一、二條定律的前提下,機器人必須保護自己不受傷害。[3]

但你會發(fā)現(xiàn)這三定律是不夠完善的。假設(shè)機器人正目睹一場人類之間的犯罪事件,按照定律1,它只能拼死保護受害者,卻不能對施暴者進行正當防衛(wèi)。這樣它自己終將受到傷害,從而失去保護受害者的能力。所以后來,阿西莫夫又補充了第0定律:

定律0:機器人不能傷害人類,除非他發(fā)現(xiàn)能夠證明所做傷害將有益于人類。[3]

“機器人三定律”不但影響了一大批科幻作品,在現(xiàn)實中,一些機器人和人工智能的設(shè)計也把它當作倫理基礎(chǔ)。

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

雖然叫“定律”,但其實這些定律并不是像牛頓定律那樣客觀存在的自然規(guī)律。這些定律是否有效,很大程度上是由人類決定的,有時候,人類智慧有限,又決定不了。

比如,《大話機器人》最后一章中提到了幾起工廠中的機器人傷人、殺人事件。我想,這些機器人的設(shè)計者肯定是沒有想讓自己設(shè)計的產(chǎn)品去傷人的,但程序會出錯,機器人“以為”它正在切割的是鋼板,其實是活人。

還有就是,像Ava那樣的人工智能機器人,首先Nathan在設(shè)計她的時候,很可能就選擇忽略“機器人三定律”;另外,人工智能具有學習能力,她先進到了一定程度,能學到什么,就很可能不再受到人類的控制。所以即便是Nathan很有良心地遵守了“機器人三定律”,Ava在“進化”過程中也可以選擇不遵守。

04 一點點小結(jié)

Nathan說奇點(singularity)就要來了,我們不知道現(xiàn)實中的奇點離我們還有多遠。遺憾的是,替全人類操心的霍金先生沒有等到這一天,現(xiàn)在,我們只能替自己多操操心了。

無論是機器人還是人工智能,不可否認的是,在當今,它們都在為人類創(chuàng)造財富、輸出價值,讓我們的生活變得更美好。但我們不能因此而忽略一些潛在的威脅。

最后,用霍金的警告結(jié)束本文:

成功創(chuàng)造人工智能將是人類歷史上最重大的事件。但這也可能是人類歷史上最后的事件,除非我們學會如何規(guī)避風險。


(Success in creating AI would be the biggest event in human history. It might also be the last, unless we learn how to avoid the risks.)[4]

相關(guān)參考:

[1]虎嗅 - 霍金再拋人工智能威脅論:人腦和電腦沒區(qū)別

https://www.huxiu.com/article/192315.html

[2]豆瓣 - 機械姬

https://movie.douban.com/subject/4160540/

[3]《大話機器人》,高德東編著,機械工業(yè)出版社,ISBN:978-7-111-62842-2

[4] BBC - Stephen Hawking warns artificial intelligence could end mankind

https://www.bbc.com/news/technology-30290540

豆瓣7.6,這部被低估的科幻片告訴你,通過圖靈測試的AI有多可怕

延伸閱讀《大話機器人》

推薦語:適合每個人的機器人知識科普書!跳出機器人學的枯燥理論,以豐富的資料、獨特的視角來闡述機器人的前世今生。

推薦內(nèi)容