美國《華盛頓郵報》6月報道,美國谷歌(Google)公司的一名工程師稱,該公司研發(fā)的人工智能聊天機(jī)器人(LaMDA)作為一種優(yōu)化對話的自然語言處理模型,已具備感知能力。但谷歌公司并不同意這一說法,還為該工程師安排了“帶薪行政休假”,此事件在全球引發(fā)討論。7月,英國皇家國際事務(wù)研究所國際安全項(xiàng)目研究分析師亞斯米·艾菲娜(Yasmin Afina)于該機(jī)構(gòu)官網(wǎng)發(fā)表文章認(rèn)為,過度炒作人工智能技術(shù)不僅危言聳聽,而且具有誤導(dǎo)性,有可能會轉(zhuǎn)移公眾對重大道德、法律等風(fēng)險的注意力,使相關(guān)從業(yè)人員以一種對人工智能可靠性過度自信的態(tài)度開發(fā)新技術(shù)。只有聚焦法律與道德維度,人工智能的發(fā)展才會以人類社會的穩(wěn)定與福祉為前提。
(資料圖片僅供參考)
人工智能的內(nèi)在風(fēng)險
從協(xié)助推進(jìn)癌癥篩查研究到支持應(yīng)對氣候變化的相關(guān)行動,人們看到了人工智能在推動社會各領(lǐng)域進(jìn)步方面存在的巨大潛力。但這一切都建立在人工智能技術(shù)以可靠方式運(yùn)行的基礎(chǔ)上,而且還要保證研究人員和終端用戶都能意識到技術(shù)的局限性,及其存在的法律、道德和社會風(fēng)險,并積極尋求將風(fēng)險帶來的傷害降至最低。然而,當(dāng)前的媒體和人工智能行業(yè)存在一種不良傾向,就是對人工智能技術(shù)性質(zhì)和功能的描述過于夸張,隨之造成公眾對這些技術(shù)及其帶來的道德和法律風(fēng)險的關(guān)注失焦。
事實(shí)上,已有越來越多的文獻(xiàn)記錄了這些普遍存在的技術(shù)帶來的危害,其中包括性別歧視、種族主義、能力歧視、權(quán)力集中、缺乏明確的民主監(jiān)督和問責(zé)機(jī)制以及侵犯隱私。例如,像谷歌的LaMDA這種大型語言模型,有可能協(xié)助完成諸如使用聊天機(jī)器人為客戶服務(wù)提供支持、以更快的速度和更高的準(zhǔn)確性提高翻譯服務(wù)水平等過程,甚至可以收集和整理來自大型數(shù)據(jù)庫的關(guān)鍵模型和重要發(fā)現(xiàn)。然而,此類模型也存在固有的道德和法律風(fēng)險。
第一,在吸收霸權(quán)世界觀的同時輸出有害偏見。研究人員發(fā)現(xiàn),從互聯(lián)網(wǎng)中收集的來自美國和英國的英語文本,過度凸顯了白人至上主義、厭惡女性、年齡歧視等觀點(diǎn)。如果將這些數(shù)據(jù)用于訓(xùn)練大型語言模型,會不可避免地導(dǎo)致此類有害偏見的輸入。第二,惡意生產(chǎn)和傳播虛假信息,從而對個體和社會造成嚴(yán)重傷害。第三,與語言加速消失現(xiàn)象息息相關(guān)。大多數(shù)大型語言模型是通過英語和其他主要語言進(jìn)行開發(fā)和訓(xùn)練的,此類模型部署得越多、越普遍可靠,就越會導(dǎo)致地方性語言的破壞甚至消失。
正確敘事的重要性
人工智能技術(shù)對現(xiàn)實(shí)生活造成的嚴(yán)重影響,揭示了采用批判性方法看待這一問題的重要性。聳人聽聞的敘事方法不僅與現(xiàn)實(shí)脫節(jié),而且還會引發(fā)以下潛在風(fēng)險。首先,對這些技術(shù)產(chǎn)生過度自信的情緒,并隨之導(dǎo)致對技術(shù)的過度依賴以及缺乏適當(dāng)?shù)谋O(jiān)督。這主要是因?yàn)槿斯ぶ悄芗夹g(shù)的能力和可靠性在無意中被夸大了,導(dǎo)致人們對其不足方面認(rèn)識不到位。例如,對自動駕駛汽車和導(dǎo)航系統(tǒng)的過度自信,可能會對駕駛員和乘客的安全造成嚴(yán)重甚至致命的傷害。
其次,人工智能的擬人化可能會誤導(dǎo)政策制定者和公眾提出錯誤的問題。當(dāng)前,主流的媒體和新聞敘事,將人工智能概念描繪得與人們的關(guān)聯(lián)性很強(qiáng),而不僅僅是一些無形的、充滿代碼的程序,其實(shí)后者才更接近人工智能的本質(zhì)。隨著該領(lǐng)域的進(jìn)一步發(fā)展,甚至有人認(rèn)為人工智能越來越接近通用人工智能,即具有與人類相似智能水平的程序。這極有可能誤導(dǎo)公眾和政策制定者提出錯誤的問題,進(jìn)而衍生出無意義的辯論方向,如機(jī)器人是否有法律責(zé)任,而非聚焦開發(fā)人員在致命事故中是否負(fù)有刑事責(zé)任等有意義的討論。
最后,關(guān)于人工智能的夸張描述,加上人工智能的擬人化,導(dǎo)致何為重要技術(shù)的門檻大幅提高。軍事領(lǐng)域的“殺手機(jī)器人”和“致命性自主武器系統(tǒng)”(LAWS)這兩個術(shù)語都是類似情況的產(chǎn)物,低于這種高門檻的技術(shù)有可能遭到忽視。有人為此爭辯,認(rèn)為人工智能領(lǐng)域的絕大多數(shù)軍事投資不會用于致命性自主武器的開發(fā)。但這并不意味著低于“殺手機(jī)器人”和“致命性自主武器系統(tǒng)”的技術(shù)帶來的問題會有所減少,比如,那些為大規(guī)模監(jiān)視和情報收集而開發(fā)的程序也存在潛在風(fēng)險。
重新定義討論范圍
如果不重新定義人工智能的討論范圍,包括國家和大型科技公司在內(nèi)的參與者,將有意避開法律和道德領(lǐng)域的討論,特別是正在開發(fā)和部署的技術(shù)領(lǐng)域,目的是為其技術(shù)合規(guī)鋪平道路。雖然主要利益相關(guān)者建立了應(yīng)對關(guān)鍵道德和法律風(fēng)險的流程,但過程不透明,缺乏適當(dāng)?shù)谋O(jiān)督,最終還是無法解決這些技術(shù)的內(nèi)在風(fēng)險。為此,應(yīng)從以下幾方面著手避免人工智能技術(shù)帶來的傷害。
第一,來自公共和私營部門的主要利益相關(guān)者,要著力推動各界對人工智能技術(shù)的開發(fā)、部署和應(yīng)用,及其社會影響和內(nèi)在風(fēng)險進(jìn)行有意義的討論。同時,討論要以多樣性、包容性和交叉性為基礎(chǔ),在此過程中,將邊緣化人群和“非西方”的觀點(diǎn)融入合作與跨學(xué)科研究。
第二,增強(qiáng)評估意愿與開放態(tài)度,重新評估人工智能技術(shù)對政府和企業(yè)之間關(guān)系的影響,以及對人類的整體影響;判斷存在哪些特殊權(quán)利,使得部分人群因人工智能技術(shù)受益以及部分人群受到傷害;采取適當(dāng)?shù)恼叽胧┯枰詰?yīng)對。
第三,鑒于人機(jī)協(xié)作的范圍越來越廣以及人類愈加依賴人工智能,終端用戶及其他相關(guān)方必須清楚技術(shù)開發(fā)和部署背后的邏輯與限制,提高這種透明度至關(guān)重要。也就是說,必須形成開放且可以隨時訪問的機(jī)制,讓人們能夠驗(yàn)證有關(guān)人工智能開發(fā)的聲明。
第四,提高政策制定者的技術(shù)素養(yǎng),將有助于作出有意義的決策,并防止因人工智能過度炒作和聳人聽聞的敘事方式而導(dǎo)致焦點(diǎn)偏移。當(dāng)前,機(jī)器學(xué)習(xí)領(lǐng)域的研究迫切需要做出更大的努力,從道德和法律的視角出發(fā),重塑人工智能技術(shù)的開發(fā)和部署過程。
(龍豪/編譯)
標(biāo)簽: 人工智能 人工智能技術(shù) 語言模型
熱門