終于,Google亮明了態(tài)度。
在經(jīng)歷了數(shù)個月的風(fēng)波之后,在數(shù)千員工發(fā)起聯(lián)名抗議之后,在學(xué)界大牛紛紛聯(lián)署反對之后,在各大媒體深入曝光內(nèi)幕之后,Google終于調(diào)整了自己政策。
今天早間,Google CEO正式發(fā)布了使用AI的七項原則。其中包括不會將AI技術(shù)應(yīng)用于開發(fā)武器,不會違反人權(quán)準(zhǔn)則將AI用于監(jiān)視和收集信息,避免AI造成或加劇社會不公等。
不過,Google也表示,將會繼續(xù)與政府和軍方展開AI合作,例如網(wǎng)絡(luò)安全、培訓(xùn)以及征兵等領(lǐng)域。
“我們認(rèn)識到,這種強大的技術(shù)引發(fā)了同樣強大的問題,AI的開發(fā)和使用將會對未來多年的社會產(chǎn)生重大影響。”Google CEO皮查伊(Sundar Pichai)寫道。
另外,Google制定的原則還要求公司職員及客戶“避免給人帶來不公正的影響”,尤其是與種族、性別、性向以及政治或宗教信仰有關(guān)的影響。
皮查伊稱,對于違反上述原則的應(yīng)用,Google保留封禁的權(quán)利。
同時,Google云CEO戴安·格林(Diane Greene)也在官方博客上發(fā)布了一篇文章,來介紹如何在Google Cloud上踐行Google的AI原則。
她特別提到,Google將不再延續(xù)Project Maven的合同。但是“正在與‘我們的客戶’合作,以求用對他們來說長期有效、又不和我們的AI原則沖突的方式,負(fù)責(zé)地履行我們的義務(wù),”
各方評價
看見這份《原則》,不少Google員工給出了很愉快的評價。
Google現(xiàn)任AI負(fù)責(zé)人Jeff Dean除了在Twitter上分享Google發(fā)表的這份原則之外,還提到為了真正踐行這些原則,他們還提出了一套技術(shù)實踐指南Responsible AI Practices,指導(dǎo)科學(xué)家和工程師們在構(gòu)建AI產(chǎn)品的時候應(yīng)該注意什么。就是這個:
https://ai.google/education/responsible-ai-practices
DeepMind聯(lián)合創(chuàng)始人穆斯塔法(Mustafa Suleyman)自己沒有發(fā)表觀點,而是在Twitter上轉(zhuǎn)發(fā)了人權(quán)觀察組織(Human Rights Watch)Mary Wareham的話:各國政府應(yīng)該關(guān)注到科技行業(yè)的最新動態(tài),開始就禁止全自動武器展開協(xié)商,制定新的國際法規(guī)。
Keras作者François Chollet說,對于AI創(chuàng)業(yè)公司來說,這個是一個很好的例子,表明你可以對產(chǎn)品中道德問題的潛在影響進行前瞻,每個AI創(chuàng)業(yè)公司都應(yīng)該起草一份這樣的東西,不要等到危機四起才動手。
Google大腦研究員Dumitru Erhan評價得非常簡短,簡單說了一句“看見這個出來了好開心”,大概代表了很多Googler的心聲,二進宮的Ian Goodfellow也轉(zhuǎn)發(fā)了。
但是對于這份原則,并不是所有人都買賬。
《紐約時報》認(rèn)為,由于Google此前一再強調(diào)自己為國防部所做的工作并非出于“進攻目的”,這些指導(dǎo)原則能否將該公司排除在類似Project Maven的合同之外,尚不清楚。
ZDNet也在評論中指出,即便Google說不讓自己的技術(shù)用于武器開發(fā),但一旦變成開源項目,這些技術(shù)和代碼就有可能用于作惡,就像其他的工具與技術(shù)一樣。
原則全文
皮查伊在名為《Google人工智能:我們的原則》的博文中寫到:從垃圾郵件篩查到醫(yī)療診斷,人工智能可以幫助人們完成許多事情,這是我們致力于AI研發(fā)的原因。但這種強大的技術(shù)也會帶來問題,人工智能的應(yīng)用將會對未來社會帶來深遠(yuǎn)影響。
然后他公布了七項人工智能指導(dǎo)原則:
AI應(yīng)用目標(biāo):
我們相信AI應(yīng)當(dāng)
1、對社會有益。
2、避免制造或加劇偏見。
3、提前測試以保證安全。
4、由人類擔(dān)責(zé)。
5、保證隱私。
6、堅持科學(xué)高標(biāo)準(zhǔn)。
7、從主要用途、技術(shù)獨特性、規(guī)模等方面來權(quán)衡。
我們不會將AI應(yīng)用于:
1.制造整體傷害之處。如一項技術(shù)可能造成傷害,我們只會在其好處大大超過傷害的情況下進行,并提供安全措施;
2.武器或其他用于直接傷害人類的產(chǎn)品;
3.收集使用信息,以實現(xiàn)違反國際規(guī)范的監(jiān)控的技術(shù);
4.目標(biāo)違反被廣泛接受的國際法與人權(quán)原則的技術(shù)。
在博文最后,Google CEO寫道:我們相信這些原則是Google和AI未來發(fā)展的正確基礎(chǔ),這與我們2004年發(fā)布的價值觀一致。我們在此明確表示Google更看重AI的長遠(yuǎn)發(fā)展,即便需要為此付出短期的權(quán)衡。
“We said it then, and we believe it now.”
風(fēng)波回顧
去年秋天,Google開始秘密與美國國防部接洽,合作Project Maven項目,根據(jù)雙方的秘密協(xié)議,Google原本要為美軍無人機提供頂尖AI技術(shù)。
包括李飛飛在內(nèi)的高管團隊,當(dāng)時就此事展開了激烈的內(nèi)部討論。討論的核心就是,不能讓外界獲知此事,否則會影響Google的聲譽。
不過紙終究包不住火。
這一項目在內(nèi)部開展后,Google員工們開始發(fā)起抵制。
3月,Google內(nèi)部3000多名員工聯(lián)名上書,抵制與五角大樓的合作。4月,事件進一步發(fā)酵,包括Bengio等上百名學(xué)者、科學(xué)家二次上書,數(shù)十名員工因此離職,要求Google退出Maven項目,并且起草政策聲明Google永遠(yuǎn)不會開發(fā)戰(zhàn)爭技術(shù)。
隨后媒體也介入,深扒此事。