2022年5月11日,蘭德公司網(wǎng)站發(fā)布報告,題為《Exploring the Civil-Military Divide over Artificial Intelligence》,作者是詹姆斯·瑞瑟夫(技術(shù)分析師)和埃里克·蘭德里等8人。報告要點如下:
研究的問題
(1)哪些因素會在美軍人工智能(AI)潛在應(yīng)用方面對軟件工程師的感受產(chǎn)生影響?
(2)軟件工程師對社會機構(gòu)(特別是對國防部)的信任程度與其在為國防部構(gòu)建人工智能應(yīng)用程序的可接受性方面的看法之間是否存在相關(guān)性?
(3)軟件工程師是否認(rèn)為已被國防部確定為戰(zhàn)略競爭對手的那些國家對美國構(gòu)成重大威脅?
(4)軟件工程師依賴哪些類型的新聞媒體和其它信息源來獲知與國防部相關(guān)的事件?
人工智能預(yù)計將成為美軍維持其軍事主宰地位的關(guān)鍵能力。美國國防部與領(lǐng)先的高科技私營企業(yè)合作,而在其客戶群中軍方所占比例相對較小,這為實現(xiàn)尖端的人工智能賦能能力和獲得領(lǐng)先人工智能軟件開發(fā)人員和工程師提供了有價值的渠道。為了評估私營部門的軟件工程師和其他技術(shù)人員對國防部人工智能潛在應(yīng)用的看法,一個研究團(tuán)隊進(jìn)行了一項調(diào)查,該調(diào)查提出了描述美軍人工智能使用方式的各種想定,并且要求受訪者針對這些人工智能的使用方式描述其感受。這些想定涉及幾個變量,包括與戰(zhàn)場距離的遠(yuǎn)近、行動的破壞性以及對人工智能算法的人工監(jiān)督程度。這項調(diào)查的結(jié)果發(fā)現(xiàn),大多數(shù)美國人工智能專家并不反對國防部的基本任務(wù)或人工智能的許多軍事應(yīng)用。
重要發(fā)現(xiàn)
(1)硅谷和國防部之間似乎不存在不可逾越的鴻溝
• 來自硅谷科技公司和擁有一流計算機學(xué)科的那些大學(xué)的受訪者對人工智能的各種軍事應(yīng)用感到滿意。
(2)對涉及使用致命武力的人工智能應(yīng)用程序的感受存在顯著差異
• 在3家接受調(diào)查的硅谷科技公司中,約有1/3的受訪者對人工智能的致命用例感到不安。
(3)科技工作者對領(lǐng)導(dǎo)者的信任程度很低——他們相互之間甚至也不信任
• 軟件工程師和其他技術(shù)工作者對擔(dān)任領(lǐng)導(dǎo)職務(wù)的個人缺乏信任。
• 科技工作者對科技公司CEO的信任幾乎與其對民選官員或聯(lián)邦機構(gòu)負(fù)責(zé)人的信任程度一樣低。
(4)科技工作者最擔(dān)心美國受到賽博威脅
• 在所有3個群體中,超過75%的受訪者還認(rèn)為中國和俄羅斯對美國構(gòu)成嚴(yán)重威脅。
(5)科技工作者支持使用武力防御外國侵略
• 調(diào)查受訪者強烈支持使用武力保衛(wèi)美國及其北約盟國免受外國侵略,近90%的參與者認(rèn)為在這種情況下使用武力是合理的。
(6)硅谷科技工作者與軍方幾乎沒有個人聯(lián)系
• 硅谷受訪者只有不到2%曾在美國武裝部隊服役。
• 在國防承包商工作的軟件工程師中,只有近20%曾在美軍服役。
建議
• 應(yīng)探索擴大國防部與硅谷公司之間合作的機制,共同應(yīng)對賽博攻擊所構(gòu)成的威脅,賽博攻擊是人工智能的潛在應(yīng)用,硅谷工程師將其視為關(guān)鍵的全球威脅。
• 應(yīng)探索擴大參與軍事行動的人員、國防部技術(shù)專家和在技術(shù)崗位上工作的硅谷個人貢獻(xiàn)者(非管理人員)之間的接觸,以評估在各組織之間建立更大信任的可能渠道。
• 應(yīng)探索國防部與硅谷工程師就國防部如何使用人工智能的一些細(xì)節(jié)進(jìn)行合作的潛在好處;此外,闡述軍方在微妙和復(fù)雜的情況下如何考慮使用人工智能。
• 應(yīng)調(diào)查為國防部和硅谷員工提供參與共享價值觀和原則之機遇的價值以及這樣做的潛在益處。最近發(fā)布的國防部人工智能倫理原則表明,國防部本身對人工智能的一些潛在用途感到不安:這可以作為與硅谷工程師討論如何應(yīng)用人工智能的基礎(chǔ)。
• 另一個可能富有成果的調(diào)查領(lǐng)域是評估收益并調(diào)整各類接觸,以幫助最具創(chuàng)新性和經(jīng)驗的美國人工智能專家了解國防部如何完成其使命,并發(fā)現(xiàn)他們的才能和專業(yè)知識如何有助于解決國防部和國家的問題。