美國(guó)《華盛頓郵報(bào)》6月報(bào)道,美國(guó)谷歌(Google)公司的一名工程師稱,該公司研發(fā)的人工智能聊天機(jī)器人(LaMDA)作為一種優(yōu)化對(duì)話的自然語(yǔ)言處理模型,已具備感知能力。但谷歌公司并不同意這一說(shuō)法,還為該工程師安排了“帶薪行政休假”,此事件在全球引發(fā)討論。7月,英國(guó)皇家國(guó)際事務(wù)研究所國(guó)際安全項(xiàng)目研究分析師亞斯米·艾菲娜(Yasmin Afina)于該機(jī)構(gòu)官網(wǎng)發(fā)表文章認(rèn)為,過(guò)度炒作人工智能技術(shù)不僅危言聳聽(tīng),而且具有誤導(dǎo)性,有可能會(huì)轉(zhuǎn)移公眾對(duì)重大道德、法律等風(fēng)險(xiǎn)的注意力,使相關(guān)從業(yè)人員以一種對(duì)人工智能可靠性過(guò)度自信的態(tài)度開(kāi)發(fā)新技術(shù)。只有聚焦法律與道德維度,人工智能的發(fā)展才會(huì)以人類(lèi)社會(huì)的穩(wěn)定與福祉為前提。
(資料圖片僅供參考)
人工智能的內(nèi)在風(fēng)險(xiǎn)
從協(xié)助推進(jìn)癌癥篩查研究到支持應(yīng)對(duì)氣候變化的相關(guān)行動(dòng),人們看到了人工智能在推動(dòng)社會(huì)各領(lǐng)域進(jìn)步方面存在的巨大潛力。但這一切都建立在人工智能技術(shù)以可靠方式運(yùn)行的基礎(chǔ)上,而且還要保證研究人員和終端用戶都能意識(shí)到技術(shù)的局限性,及其存在的法律、道德和社會(huì)風(fēng)險(xiǎn),并積極尋求將風(fēng)險(xiǎn)帶來(lái)的傷害降至最低。然而,當(dāng)前的媒體和人工智能行業(yè)存在一種不良傾向,就是對(duì)人工智能技術(shù)性質(zhì)和功能的描述過(guò)于夸張,隨之造成公眾對(duì)這些技術(shù)及其帶來(lái)的道德和法律風(fēng)險(xiǎn)的關(guān)注失焦。
事實(shí)上,已有越來(lái)越多的文獻(xiàn)記錄了這些普遍存在的技術(shù)帶來(lái)的危害,其中包括性別歧視、種族主義、能力歧視、權(quán)力集中、缺乏明確的民主監(jiān)督和問(wèn)責(zé)機(jī)制以及侵犯隱私。例如,像谷歌的LaMDA這種大型語(yǔ)言模型,有可能協(xié)助完成諸如使用聊天機(jī)器人為客戶服務(wù)提供支持、以更快的速度和更高的準(zhǔn)確性提高翻譯服務(wù)水平等過(guò)程,甚至可以收集和整理來(lái)自大型數(shù)據(jù)庫(kù)的關(guān)鍵模型和重要發(fā)現(xiàn)。然而,此類(lèi)模型也存在固有的道德和法律風(fēng)險(xiǎn)。
第一,在吸收霸權(quán)世界觀的同時(shí)輸出有害偏見(jiàn)。研究人員發(fā)現(xiàn),從互聯(lián)網(wǎng)中收集的來(lái)自美國(guó)和英國(guó)的英語(yǔ)文本,過(guò)度凸顯了白人至上主義、厭惡女性、年齡歧視等觀點(diǎn)。如果將這些數(shù)據(jù)用于訓(xùn)練大型語(yǔ)言模型,會(huì)不可避免地導(dǎo)致此類(lèi)有害偏見(jiàn)的輸入。第二,惡意生產(chǎn)和傳播虛假信息,從而對(duì)個(gè)體和社會(huì)造成嚴(yán)重傷害。第三,與語(yǔ)言加速消失現(xiàn)象息息相關(guān)。大多數(shù)大型語(yǔ)言模型是通過(guò)英語(yǔ)和其他主要語(yǔ)言進(jìn)行開(kāi)發(fā)和訓(xùn)練的,此類(lèi)模型部署得越多、越普遍可靠,就越會(huì)導(dǎo)致地方性語(yǔ)言的破壞甚至消失。
正確敘事的重要性
人工智能技術(shù)對(duì)現(xiàn)實(shí)生活造成的嚴(yán)重影響,揭示了采用批判性方法看待這一問(wèn)題的重要性。聳人聽(tīng)聞的敘事方法不僅與現(xiàn)實(shí)脫節(jié),而且還會(huì)引發(fā)以下潛在風(fēng)險(xiǎn)。首先,對(duì)這些技術(shù)產(chǎn)生過(guò)度自信的情緒,并隨之導(dǎo)致對(duì)技術(shù)的過(guò)度依賴以及缺乏適當(dāng)?shù)谋O(jiān)督。這主要是因?yàn)槿斯ぶ悄芗夹g(shù)的能力和可靠性在無(wú)意中被夸大了,導(dǎo)致人們對(duì)其不足方面認(rèn)識(shí)不到位。例如,對(duì)自動(dòng)駕駛汽車(chē)和導(dǎo)航系統(tǒng)的過(guò)度自信,可能會(huì)對(duì)駕駛員和乘客的安全造成嚴(yán)重甚至致命的傷害。
其次,人工智能的擬人化可能會(huì)誤導(dǎo)政策制定者和公眾提出錯(cuò)誤的問(wèn)題。當(dāng)前,主流的媒體和新聞敘事,將人工智能概念描繪得與人們的關(guān)聯(lián)性很強(qiáng),而不僅僅是一些無(wú)形的、充滿代碼的程序,其實(shí)后者才更接近人工智能的本質(zhì)。隨著該領(lǐng)域的進(jìn)一步發(fā)展,甚至有人認(rèn)為人工智能越來(lái)越接近通用人工智能,即具有與人類(lèi)相似智能水平的程序。這極有可能誤導(dǎo)公眾和政策制定者提出錯(cuò)誤的問(wèn)題,進(jìn)而衍生出無(wú)意義的辯論方向,如機(jī)器人是否有法律責(zé)任,而非聚焦開(kāi)發(fā)人員在致命事故中是否負(fù)有刑事責(zé)任等有意義的討論。
最后,關(guān)于人工智能的夸張描述,加上人工智能的擬人化,導(dǎo)致何為重要技術(shù)的門(mén)檻大幅提高。軍事領(lǐng)域的“殺手機(jī)器人”和“致命性自主武器系統(tǒng)”(LAWS)這兩個(gè)術(shù)語(yǔ)都是類(lèi)似情況的產(chǎn)物,低于這種高門(mén)檻的技術(shù)有可能遭到忽視。有人為此爭(zhēng)辯,認(rèn)為人工智能領(lǐng)域的絕大多數(shù)軍事投資不會(huì)用于致命性自主武器的開(kāi)發(fā)。但這并不意味著低于“殺手機(jī)器人”和“致命性自主武器系統(tǒng)”的技術(shù)帶來(lái)的問(wèn)題會(huì)有所減少,比如,那些為大規(guī)模監(jiān)視和情報(bào)收集而開(kāi)發(fā)的程序也存在潛在風(fēng)險(xiǎn)。
重新定義討論范圍
如果不重新定義人工智能的討論范圍,包括國(guó)家和大型科技公司在內(nèi)的參與者,將有意避開(kāi)法律和道德領(lǐng)域的討論,特別是正在開(kāi)發(fā)和部署的技術(shù)領(lǐng)域,目的是為其技術(shù)合規(guī)鋪平道路。雖然主要利益相關(guān)者建立了應(yīng)對(duì)關(guān)鍵道德和法律風(fēng)險(xiǎn)的流程,但過(guò)程不透明,缺乏適當(dāng)?shù)谋O(jiān)督,最終還是無(wú)法解決這些技術(shù)的內(nèi)在風(fēng)險(xiǎn)。為此,應(yīng)從以下幾方面著手避免人工智能技術(shù)帶來(lái)的傷害。
第一,來(lái)自公共和私營(yíng)部門(mén)的主要利益相關(guān)者,要著力推動(dòng)各界對(duì)人工智能技術(shù)的開(kāi)發(fā)、部署和應(yīng)用,及其社會(huì)影響和內(nèi)在風(fēng)險(xiǎn)進(jìn)行有意義的討論。同時(shí),討論要以多樣性、包容性和交叉性為基礎(chǔ),在此過(guò)程中,將邊緣化人群和“非西方”的觀點(diǎn)融入合作與跨學(xué)科研究。
第二,增強(qiáng)評(píng)估意愿與開(kāi)放態(tài)度,重新評(píng)估人工智能技術(shù)對(duì)政府和企業(yè)之間關(guān)系的影響,以及對(duì)人類(lèi)的整體影響;判斷存在哪些特殊權(quán)利,使得部分人群因人工智能技術(shù)受益以及部分人群受到傷害;采取適當(dāng)?shù)恼叽胧┯枰詰?yīng)對(duì)。
第三,鑒于人機(jī)協(xié)作的范圍越來(lái)越廣以及人類(lèi)愈加依賴人工智能,終端用戶及其他相關(guān)方必須清楚技術(shù)開(kāi)發(fā)和部署背后的邏輯與限制,提高這種透明度至關(guān)重要。也就是說(shuō),必須形成開(kāi)放且可以隨時(shí)訪問(wèn)的機(jī)制,讓人們能夠驗(yàn)證有關(guān)人工智能開(kāi)發(fā)的聲明。
第四,提高政策制定者的技術(shù)素養(yǎng),將有助于作出有意義的決策,并防止因人工智能過(guò)度炒作和聳人聽(tīng)聞的敘事方式而導(dǎo)致焦點(diǎn)偏移。當(dāng)前,機(jī)器學(xué)習(xí)領(lǐng)域的研究迫切需要做出更大的努力,從道德和法律的視角出發(fā),重塑人工智能技術(shù)的開(kāi)發(fā)和部署過(guò)程。
(龍豪/編譯)
標(biāo)簽: 人工智能 人工智能技術(shù) 語(yǔ)言模型
熱門(mén)