最近,京東宣布拿到了陜西全境無人機空域的書面批文,這意味著無人機送貨的時代即將到來。在人工智能時代來臨之際,應當審慎省察人工智能的倫理尺度,使人工智能不僅免于扮演人類宰制者乃至文明終結者的魔咒,更能以其超卓而與人性合一的普遍智能推進人的自由與全面發(fā)展,共同創(chuàng)建文明有序的和諧社會。
倫理一般是指一系列指導行為的觀念,是從概念角度上對道德現(xiàn)象的哲學思考。它不僅包含著對人與人、人與社會和人與自然之間關系處理中的行為規(guī)范,而且也深刻地蘊涵著依照一定原則來規(guī)范行為的深刻道理。
近日,100多名行業(yè)精英發(fā)表了一份給聯(lián)合國(United Nations,UN)的公開信,主要內容是關于危險系數(shù)極高的人工智能武器,或者說是“機器人殺手”。這些人中包括世界著名企業(yè)家伊隆·馬斯克(ElonMusk)和幾家機器人公司的創(chuàng)始人。從2015年開始,他們就給聯(lián)合國發(fā)送公開信,最初的目的是結束軍備競賽。在此次公開信中稱人工智能武器為“繼火藥和核武器之后的第三次革命”。
對人工智能和自主系統(tǒng)的研究,聯(lián)合國理應有所作為。但從未來發(fā)展的角度來講,實驗室應起到主要的作用。在培養(yǎng)人工智能研究人員時,道德觀念和程序編碼一樣重要。
人工智能的自主性
自主系統(tǒng)在沒有人類輸入指令的情況下,可以自己做出決定,這大大增加了機器人和類似設備的實用性。例如,交付無人機(Delivery Drone)只需要確定送貨地址,就可以自行規(guī)劃最佳路線,克服在途中遇到的任何障礙,如惡劣天氣或一群路過的海鷗等。
研究人員已經花費了大量時間和精力研究自主系統(tǒng),目前亞馬遜(Amazon)等公司正致力于開發(fā)交付無人機。顯然,相同的技術可以很容易地應用到各個行業(yè),而不是僅僅用來運輸食品或書籍。
無人機越來越小,越來越耐用,成本也越來越低。這意味著生產和部署數(shù)以千計的無人機飛行部隊是可行的。正是部署自主系統(tǒng)武器的可能性,促成了發(fā)給聯(lián)合國的這封公開信,目的是希望“尋求一種避免人工智能武器所帶來的危險的方式”。
自主系統(tǒng)需要道德準則
且不論自主系統(tǒng)武器的危險性如何,先來談一談人工智能研究中的倫理問題。在大多數(shù)科學領域中,如果要對世界知識做出突出貢獻,研究人員一般需要側重于某一特定主題。但是他們通常在相對狹窄的領域是專家,對于道德準則或道德推理,卻缺少相應的規(guī)范。
道德準則越來越受到人們的重視。例如,測試中的無人駕駛汽車需要能夠對潛在的危險情況做出判斷。當一只貓突然穿過馬路時,它應該如何反應?是應該不管貓的死活繼續(xù)前行呢,還是要急轉彎以免對貓或者車上的乘客造成傷害?
當然,這種情況誰都不希望發(fā)生,但是在設計無人駕駛汽車時需要設計一些具體的原則來指導其決策。正如維吉尼亞·迪格納穆(Virginia Dignum)在墨西哥舉行的國際人工智能聯(lián)合會議(InternationalJoint Conference on Artificial
Intelligence,IJCAI)上發(fā)表“自主系統(tǒng)需要責任感”(ResponsibleAutonomy)演講時所說:“無人駕駛汽車需要道德準則,這件事應當由誰來做呢?”
在納溫·孫達爾·戈文達拉朱魯(Naveen Sundar Govindarajulu)和塞爾默·布林斯約爾德(Selmer Bringsjord)的論文《自主系統(tǒng)的雙重效應》( Automating theDoctrineof Double Effect)中也對類似主題進行了探討。雙重效應原則是對特定情況下的自衛(wèi)權等道德問題的一種推理方式,在13世紀被天主教學者托馬斯·阿奎那(Thomas Aquinas)記載并流傳至今。
托馬斯·阿奎那
雙重效應的名稱來源于處理道德問題過程中會獲得好的效果(例如拯救某人的生命)以及不良影響(在過程中傷害他人)。它可以為無人駕駛汽車在道路行進過程中出現(xiàn)的問題提供一種道德準則。
對教育的意義
倫理問題儼然成為人工智能研究的一個主題,那么當人工智能產品越來越普及時,教育體系也要順應時代發(fā)展做出改變。
當今社會最需要的人才是“T型”人才。公司在招聘新員工時,不僅僅是尋找在特定領域有深入研究的人才(T的垂直筆畫),還需要具有良好的專業(yè)技能和個人素養(yǎng)(T的水平筆畫)。總的來講,“T型”人才能夠從多種角度看待問題,并能夠有效的適應多元化團隊。
大多數(shù)計算機科學和類似學科的本科課程包括職業(yè)道德和實踐課程,這些通常側重于知識產權,版權,專利和隱私問題等。但這些在處理人工智能問題上是遠遠不夠的。在國際人工智能聯(lián)合會議上,科學家們的討論重點是關于“現(xiàn)在越來越需要更廣泛的道德問題的補充材料”。這些補充材料的主題可以包括確定兩個錯誤行為中影響較小的方法,明確法律概念如過失犯罪,以及技術對社會的歷史影響等。
最關鍵的一點是使畢業(yè)生從一開始就能夠將道德問題和社會觀點融入他們的工作。當然,還需要進一步研究確定如何將道德問題納入教育體制。
隨著人工智能越來越深入日常生活,研究人員必須明確他們的發(fā)明對所處的社會可能帶來的影響。倫理問題是科學研究的附加問題,為了科研的順利展開,為了社會安全和人類利益,倫理問題已經是一個科學工作者必須考慮的問題。