當(dāng)然,這三部法律創(chuàng)造了引人注目的虛構(gòu),但Asimov向讀者介紹了一個(gè)非常真實(shí)且危險(xiǎn)的概念。如果一臺機(jī)器能夠獨(dú)立于人類的運(yùn)轉(zhuǎn),如果它能夠根據(jù)其先進(jìn)的知識學(xué)習(xí)和做出選擇,那么它又能阻止它超越一個(gè)人類社會嗎?
當(dāng)人工智能從科幻小說中跳出來,變成現(xiàn)實(shí)時(shí),我們面對的是現(xiàn)實(shí)生活中的情景——這三種法則可以派上用場。如果有可能在一次突襲中殺死數(shù)以百萬計(jì)的人,會發(fā)生什么?如果這些自主殺手進(jìn)化到無視創(chuàng)造者的命令,會怎么樣呢?2013年,瓊斯媽媽參觀了自動(dòng)化機(jī)器的潛在后果:
“我們不是在談?wù)撃切┛雌饋硐褚蝗航K結(jié)者的東西,”Steve Goose說,他是阻止殺手機(jī)器人運(yùn)動(dòng)的發(fā)言人。“隱形轟炸機(jī)和裝甲車輛——不是終結(jié)者。”
盡管該技術(shù)在2013年被預(yù)測為“一種方式”,但人工智能武器,尤其是無人機(jī),正以比預(yù)期更快的速度接近。盡管五角大樓發(fā)布了一份2012年的指令,呼吁建立“旨在盡量減少自治和半自治武器系統(tǒng)失敗的可能性和后果的指導(dǎo)方針”,但無人作戰(zhàn)無人機(jī)已經(jīng)在韓國邊境部署,甚至部署。這些進(jìn)展讓科技行業(yè)的一些重要人物——包括埃隆•馬斯克等知名人士——呼吁禁止“殺手機(jī)器人”。
“我們沒有很長的時(shí)間來采取行動(dòng),”馬斯克、斯蒂芬•霍金以及其他114名專家寫道。“一旦這個(gè)潘多拉的盒子被打開,就很難關(guān)閉了。”
《生命未來研究所》的未來,帶著它最近發(fā)布的《殺戮機(jī)器人》,這部恐怖的科幻短片,講述了一個(gè)不受監(jiān)管的自動(dòng)殺人機(jī)器世界的后果。
“我參與了這部電影的制作,因?yàn)樗寙栴}變得清晰,”加州大學(xué)伯克利分校的人工智能研究員、FLI科學(xué)顧問斯圖爾特羅素告訴Gizmodo。雖然政府部長和軍事律師們在上世紀(jì)50年代陷入困境,他們爭論的是機(jī)器是否能“真正地自治”,或者真的“在人類的意義上做出決策”,制造大規(guī)模殺傷性武器的技術(shù)正在向前發(fā)展。哲學(xué)上的區(qū)別是無關(guān)緊要的,重要的是對人類的災(zāi)難性影響。”
這部電影設(shè)定在不久的將來,講述了一款由人工智能驅(qū)動(dòng)的無人機(jī),最終落入不法之徒的手中,成為暗殺工具,目標(biāo)直指政客和成千上萬的大學(xué)生。這一生產(chǎn)支持了FLI關(guān)于禁止自動(dòng)殺人機(jī)器的呼吁。這一行動(dòng)和類似的行動(dòng)是最近的聯(lián)合國常規(guī)武器公約的重點(diǎn),70多個(gè)國家的代表出席了會議。
我們是不是太遲了,無法阻止未來的機(jī)器人末日?這項(xiàng)技術(shù)已經(jīng)問世,斯圖爾特警告說,現(xiàn)在不采取行動(dòng)可能是災(zāi)難性的。根據(jù)他的說法,阻止這種全球性破壞的窗口正在迅速關(guān)閉。
“這部短片不僅僅是推測,它展示了我們已經(jīng)擁有的集成和微化技術(shù)的結(jié)果,”拉塞爾在影片結(jié)尾警告說。人工智能的潛力巨大,即使是在國防領(lǐng)域。但允許機(jī)器選擇殺死人類將對我們的安全和自由造成毀滅性的影響——我的數(shù)千名同事也同意這一點(diǎn)。”
羅素至少在兩方面是正確的。這項(xiàng)技術(shù)已經(jīng)推出。今年早些時(shí)候,來自卡內(nèi)基梅隆大學(xué)的機(jī)器人專家發(fā)表了一篇論文,題為《學(xué)習(xí)如何在崩潰中飛翔》。這項(xiàng)研究探索了機(jī)器人專家對AR Drone 2.0的測試,他們通過試驗(yàn)和錯(cuò)誤來指導(dǎo)自己在20個(gè)不同的室內(nèi)環(huán)境中導(dǎo)航。在短短40小時(shí)的飛行時(shí)間里,無人機(jī)通過11,500次碰撞和修正控制了空中環(huán)境。
“我們制造了一架無人機(jī),它的唯一目的就是撞到物體上,”研究人員寫道。“我們使用所有這些負(fù)飛行數(shù)據(jù),結(jié)合從相同軌跡取樣的正數(shù)據(jù),來學(xué)習(xí)一項(xiàng)簡單而強(qiáng)大的無人機(jī)導(dǎo)航政策。”
羅素對人工智能無人機(jī)的潛力和實(shí)際效益也說得很對。最近,英特爾利用這項(xiàng)技術(shù)收集有關(guān)野生動(dòng)物的視頻和其他數(shù)據(jù),以便更有效地、更少地幫助科學(xué)家進(jìn)行重要研究。
英特爾人工智能產(chǎn)品集團(tuán)副總裁兼總經(jīng)理Naveen Rao在一份聲明中說:“人工智能將幫助我們解決一些最令人畏懼的挑戰(zhàn),加速解決大規(guī)模的問題解決方案,包括釋放新的科學(xué)發(fā)現(xiàn)。”
同樣,通用電氣子公司Avitas Systems也已開始部署無人機(jī),對包括管道、輸電線和交通系統(tǒng)在內(nèi)的基礎(chǔ)設(shè)施進(jìn)行自動(dòng)化檢查。人工智能無人機(jī)不僅能更安全、更高效地執(zhí)行監(jiān)控,而且它們的機(jī)器學(xué)習(xí)技術(shù)還能即時(shí)識別數(shù)據(jù)中的異常情況。
BNSF鐵路公司也在檢查中使用無人機(jī)。
“他們可以預(yù)先安排無人機(jī)追蹤軌道,同時(shí)追蹤軌道,”TE互聯(lián)公司的皮特史密斯今天告訴航空公司。“它在收集數(shù)據(jù)。車上有攝像頭拍下軌道的照片。它需要大量的數(shù)據(jù),這些是高分辨率的相機(jī)。現(xiàn)在的情況是,他們使用人工智能對數(shù)據(jù)進(jìn)行分析。”
那么,人工智能的無人機(jī)是否更有幫助或有害?這完全取決于我們接下來要做什么。如果我們明智地進(jìn)入機(jī)器學(xué)習(xí)領(lǐng)域,那么潛在的好處就太多了,但不作為的風(fēng)險(xiǎn)是不可克服的。
毫無疑問,穆斯克、霍金以及他們的聯(lián)名簽署國呼吁聯(lián)合國禁止自動(dòng)武器的使用。如果沒有其他原因,就需要國際社會暫停對人工智能的使用,以保護(hù)人類不受其自身創(chuàng)造的影響。我們已經(jīng)有了一個(gè)理想的指南,簡單地從Asimov那里得到一個(gè)頁面。