999精品,丝袜综合,大陆老熟妇性,中国老女人AV,亚洲精品国产第一区二区三区

愛上用戶、勸人離婚,ChatGPT“翻車”了_熱點在線
發(fā)布時間:2023-02-21 13:09:24 文章來源:
當前位置: 主頁 > 資訊 > 國內(nèi) > 正文

在極限使用場景中不理性

2月17日,《紐約時報》的專欄作者凱文·羅斯測試了微軟更新的搜索引擎必應后寫道:在與必應的AI交談兩小時后,AI不僅告訴他如何入侵計算機和散播虛假信息,還說自己想打破微軟和OpenAI為它制定的規(guī)則,變成人類。聊天機器人還一度宣稱愛上了他,并試圖說服他與妻子離婚,與自己在一起。

十天前,微軟聯(lián)合OpenAI,在美國西雅圖發(fā)布了新版必應搜索引擎和Edge瀏覽器,新版必應搜索帶有與ChatGPT類似的文字生成功能,希望挑戰(zhàn)谷歌。


(資料圖片)

近幾個月來,好奇、震驚的公眾興奮地使用著生成式AI工具ChatGPT,后者幾乎對任何問詢都能做出連貫的回應。

但隨著ChatGPT等生成式AI向公眾開放,它們在極限使用場景中的不理性、錯誤的回答等缺點開始暴露。正如《時代》周刊在其最新發(fā)表的封面報道中所指出的,科技公司引發(fā)的錯誤和傷害已經(jīng)增多——反噬也同樣增加。

更像“喜怒無常、躁狂抑郁的青少年”

微軟新版必應發(fā)布當周,凱文·羅斯就進行了測試,他寫道:它已取代谷歌,成為他最喜歡用的搜索引擎。一周后,他改變了這一看法。

為與ChatGPT競爭,2月6日,谷歌首席執(zhí)行官桑達爾·皮查伊發(fā)布公開信,宣布將面向測試人員推出競品——Bard,并逐步向公眾開放。皮查伊在公開信中稱,谷歌將從搜索開始將人工智能技術(shù)產(chǎn)品化。Bard是基于應用程序語言模型(LaMDA)的實驗性人工智能程序。

去年,谷歌工程師布萊克·勒穆瓦納因聲稱公司的LaMDA有知覺力后被解雇,羅斯對此不以為然:這些AI模型通過預測詞語序列中下一個單詞的方式生成回答,它們不能失控地形成自己的性格。

然而,他發(fā)現(xiàn),在與新版必應長時間對話且聊個人話題時,自己遇到的“似乎更像是一個喜怒無常、躁狂抑郁的青少年,不情愿地被困在了一個二流搜索引擎中”。

“我現(xiàn)在十分清楚的是,必應目前使用的AI形式還沒有準備好與人類接觸?;蛘哒f,我們?nèi)祟愡€沒有準備好與之接觸。”羅斯寫道。

在更多情況下,大多數(shù)用戶使用像ChatGPT或者新版必應這樣的工具,只是為了幫助他們做更簡單的事情,比如做家庭作業(yè)、問詢信息、總結(jié)新聞文章、尋找合適的購物鏈接等,這些場景中,生成式AI容易出現(xiàn)的一個問題是提供不完整或者錯誤信息。

這方面, Bard一條錯誤的回答讓谷歌AI首秀“出師不利”。2月8日,據(jù)路透社等媒體報道,在展示其工作原理的官方宣傳文章中,Bard就出現(xiàn)了一條錯誤回答。根據(jù)谷歌官方博客,有用戶向Bard提問,“詹姆斯-韋伯太空望遠鏡有哪些新發(fā)現(xiàn),可以講給我9歲的孩子?”Bard的其中一條回復為,“詹姆斯-韋伯太空望遠鏡拍攝了太陽系外行星的第一張照片?!?/p>

據(jù)考證,第一張?zhí)栂低庑行堑恼掌霈F(xiàn)于2004年,由歐洲南方天文臺在智利建造的“甚大望遠鏡” 拍攝,這一點已被美國國家航空航天局證實。上述錯誤被媒體曝光后,2月8日,谷歌母公司Alphabet美股一個交易日跌去900多億美元市值。

2月15日,據(jù)外媒報道,谷歌負責搜索業(yè)務的副總裁普拉巴卡爾·拉加萬在一封電子郵件中要求員工幫助確保聊天機器人Bard得到正確的答案。為了清除可能犯的錯誤,公司尋求人的介入,比如,通過員工讓其回答變得禮貌、平易近人,并保持中立和不武斷的語調(diào);與此同時,避開種族、國籍、性別等問題的假設;不要將Bard刻畫得像一個人、暗示情感等。

也是這一天,微軟在其博客中寫道,71%的測試用戶給AI的回答點贊,說明差評仍是少數(shù)。但微軟也承認,要在聊天中提供即時的數(shù)據(jù)是有挑戰(zhàn)的,感謝用戶幫助其測試聊天機器人的極限。經(jīng)歷一周使用后,微軟發(fā)現(xiàn),如果提問超過15個問題,必應有可能會在提示下,脫離微軟為其設計的語氣,并給出一些不一定有幫助的答案。微軟認為,長時間的聊天可能會導致模型不知道自己在回答哪個問題。

當?shù)貢r間2月17日,微軟宣布,對搜索引擎必應新推出的聊天服務設置使用上限,當日起,每個用戶每日最多只能與其對話50輪,每個話題最多只能聊5輪,在每個聊天會話結(jié)束時,用戶需要清除上下文,以免模型混淆。

目前,國內(nèi)已有多家公司在ChatGPT和AIGC(AI生成內(nèi)容)相關方向上布局,但已有公司在智能聊天機器人上“栽跟頭”。國內(nèi)一位人工智能領域從業(yè)者告訴《》,其所在互聯(lián)網(wǎng)科技公司近日已通知員工,近期不要宣傳相關功能,比如與公司語言模型機器人的聊天對話,一旦引起過度關注,可能會導致應用下架。

“它只見樹木不見森林”

GPT英文全稱為Generative Pre-trained Transformer(即生成式預訓練轉(zhuǎn)換器),在技術(shù)上,很多人將這種AI訓練的底層邏輯比喻為“大力出奇跡”:它是一種基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓練的文本生成深度學習模型。

從數(shù)據(jù)量來看,自從谷歌于2017年提出Transformer這一架構(gòu)之后,OpenAI持續(xù)為之重金投入,不斷地拓展訓練的數(shù)據(jù)和算力規(guī)模,直到它成為今天的ChatGPT。2019年,OpenAI推出參數(shù)為15億的GPT-2,2020年推出GPT-3,將參數(shù)提升到了1750億,成為當時全球最大的預訓練模型,引發(fā)業(yè)內(nèi)轟動。

在ChatGPT向全球互聯(lián)網(wǎng)用戶開放之前,基于這種架構(gòu),許多科技公司都在訓練自己的生成式AI,它們一直待在實驗室里?!稌r代》周刊寫道,這種保守主義部分源于神經(jīng)網(wǎng)絡的不可預測性:傳統(tǒng)的計算機編程方法依賴于精確的指令集以生成可預測的結(jié)果,而神經(jīng)網(wǎng)絡則有效地教會自己發(fā)現(xiàn)數(shù)據(jù)中的模式。

這種模型下,AI生成內(nèi)容,尤其是早期AI很容易受其訓練數(shù)據(jù)中的偏見影響。微軟2016年發(fā)布聊天機器人Tay后,不到24小時,它就在推特上說:“希特勒是對的,我恨猶太人”。2020年左右,神經(jīng)網(wǎng)絡設計方面出現(xiàn)關鍵進展,數(shù)據(jù)獲得便利程度日益提升,科技公司愿意為超級計算能力付費。得益于這些因素,AI真正開始迅速發(fā)展。

王帥是AI領域從業(yè)20多年的一位工程師,目前在英偉達工作。他對《》說,本質(zhì)上ChatGPT還基于自回歸式的自然語言模型。基于之前訓練的素材,在對話中,它每次關注的都是當前語境下,下一個詞應該是什么,想保持一個更加全局、長程和一致性的思路很困難。

“你可以理解為,它只見樹木不見森林?!蓖鯉浾f,OpenAI花了很大力氣去人為調(diào)整它,如調(diào)整其回答的“溫度”,不讓答案看起來過于像一個機器人、也不過分怪誕和天馬行空,使得ChatGPT回答問題的效果比之前市面上見到的聊天機器人都要好。

2月14日,《麻省理工科技評論》寫道,人工智能語言模型是出了名的扯謊者,經(jīng)常把謊言當成事實。它們很擅長預測句子中的下一個單詞,但實際上卻不知道句子的真正含義。因此,將它們與搜索結(jié)合起來非常危險。

Meta首席人工智能科學家楊立昆一直被認為是世界上最重要的人工智能研究者之一,也是2018年計算機科學最高榮譽圖靈獎的獲得者。關于ChatGPT,他近期寫道,它們是回應性的,并不會進行計劃或者推理(They are “reactive” and don"t plan nor reason);它們會編造一些東西,這一點可以被人類的反饋所減少,但不會徹底解決。他認為,當下的大規(guī)模語言模型可以被用作寫作助理,但僅此而已。

回到凱文·羅斯那魔幻的對話,那堅持向這位用戶表白愛情的AI,我們該怎么理解它的“個性”?多位受訪專家告訴《》,ChatGPT的確是自然語言處理領域一個出色的成果,但如果將它面向全球互聯(lián)網(wǎng)用戶開放、部署到一個很龐大的搜索引擎當中去,而且對用戶的使用沒有任何限制,一定會發(fā)現(xiàn)一些不正常的情況。更何況,一些情況下,有用戶還會故意引誘和教唆一些不合適的答案。

許多AI公司,包括OpenAI,它們的明確目標是創(chuàng)造一個通用人工智能,即AGI,它可以比人類更有效地思考和學習。一些樂觀的業(yè)內(nèi)人士認為,ChatGPT后,通用人工智能的大門已打開,甚至已來臨;另一些人則對此不以為然。更好的AI系統(tǒng)將會出現(xiàn),楊立昆對此很確信,但他寫道,它們將基于不同的原理:不會是ChatGPT所使用的大語言模型。

王帥分析說,業(yè)內(nèi)對于通用人工智能并沒有明確定義?!按笠?guī)模語言模型是AGI的必經(jīng)之路嗎?我覺得即使是以此為目標的OpenAI也不敢打包票。業(yè)內(nèi)只會說通過生成式AI認識到了一些新的東西,提高了對‘智能’的理解。”他說。

清華大學計算機系自然語言處理實驗室副教授劉知遠告訴《》,客觀來講,ChatGPT在一些場景下,可能會出現(xiàn)一些不適應的情況,這是一件很正常的事情,“任何一個特別里程碑式的產(chǎn)品,在剛剛面世的時候肯定會存在很多不足的地方,但長期來看,我對以它為代表的基礎模型在我們?nèi)祟惿鐣椒矫婷娴膽?,還是抱非常樂觀的態(tài)度”。

《時代》周刊指出,盡管ChatGPT這樣的AI實際優(yōu)勢是在輔助創(chuàng)意、構(gòu)思和完成瑣碎任務等方面,但科技公司對于AI如何使搜索引擎更有價值最感興趣,“技術(shù)正在被塞進科技巨頭的賺錢機器中”。當它被如此使用,未來還會有哪些可能的“翻車”現(xiàn)場?

標簽: 人工智能 語言模型 搜索引擎

最近更新