6月20日消息,人工智能領(lǐng)域的專(zhuān)家們預(yù)測(cè),隨著人工智能生成的內(nèi)容在網(wǎng)絡(luò)上的廣泛發(fā)布,未來(lái)接受這些數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng)可能會(huì)陷入混亂。
英國(guó)和加拿大的科學(xué)家們?cè)谧罱l(fā)表的一篇論文中,試圖研究經(jīng)過(guò)多代人工智能相互訓(xùn)練后會(huì)發(fā)生什么。他們提供了一個(gè)例子,通過(guò)九次迭代,人工智能系統(tǒng)從最初關(guān)于中世紀(jì)建筑的原始材料變成了不停地談?wù)撘巴玫膬?nèi)容。
研究論文的作者之一、劍橋大學(xué)教授羅斯·安德森在一篇博客文章中指出,數(shù)據(jù)顯示經(jīng)過(guò)多次迭代后,人工智能生成的文本變得毫無(wú)意義,圖像也變得難以理解。盡管該研究尚未經(jīng)過(guò)同行評(píng)審,但研究人員將這種現(xiàn)象稱(chēng)為"模型崩潰"。
ChatGPT這樣的聊天機(jī)器人背后的大型語(yǔ)言模型通常需要從互聯(lián)網(wǎng)上抓取大量人類(lèi)生成的數(shù)據(jù)進(jìn)行訓(xùn)練。然而,隨著人們對(duì)這些工具的使用越來(lái)越多,人工智能生成的內(nèi)容也大量涌現(xiàn)并被添加到在線(xiàn)數(shù)據(jù)集中,這些數(shù)據(jù)將成為未來(lái)語(yǔ)言模型的學(xué)習(xí)素材。
科學(xué)家們擔(dān)心,通過(guò)使用人工智能生成的內(nèi)容來(lái)迭代訓(xùn)練人工智能系統(tǒng),會(huì)導(dǎo)致錯(cuò)誤和無(wú)意義的示例不斷增加,從而使后代人工智能無(wú)法區(qū)分真實(shí)和虛構(gòu)的內(nèi)容。他們擔(dān)憂(yōu)地表示,人工智能可能會(huì)"通過(guò)強(qiáng)化自身的信念,開(kāi)始曲解其所認(rèn)為的真實(shí)之物"。
羅斯·安德森以莫扎特和安東尼奧·薩列里的作品為例來(lái)解釋這個(gè)問(wèn)題。他表示:"如果我們使用莫扎特的作品來(lái)訓(xùn)練某個(gè)音樂(lè)模型,我們可以期望輸出的音樂(lè)風(fēng)格有些類(lèi)似莫扎特,但不會(huì)有太多亮點(diǎn),我們可以稱(chēng)之為'薩列里'。然后,再用'薩列里'來(lái)訓(xùn)練下一代人工智能系統(tǒng),如此循環(huán)下去,第五代或第六代模型會(huì)是怎樣的?"
這項(xiàng)研究的第一作者、牛津大學(xué)教授伊利亞·舒馬伊洛夫表示,問(wèn)題在于人工智能在接受早期人工智能生成內(nèi)容的訓(xùn)練后對(duì)概率的感知。不太可能發(fā)生的事件在它的輸出中越來(lái)越不可能出現(xiàn),這就限制了下一代人工智能(根據(jù)這些輸出進(jìn)行訓(xùn)練)所能理解的可能性。
據(jù)ITBEAR科技資訊了解,論文中舉了一個(gè)例子,將人類(lèi)生成的關(guān)于中世紀(jì)建筑的文本輸入到人工智能語(yǔ)言模型中,然后使用該模型的輸出來(lái)訓(xùn)練下一代人工智能。最初的文本巧妙地處理了相互競(jìng)爭(zhēng)的建筑理論,并經(jīng)過(guò)多次迭代。到了第九次迭代,這些文字就變成了毫無(wú)意義的胡言亂語(yǔ),其中寫(xiě)道:"建筑是世界上最大的黑長(zhǎng)耳大野兔、白長(zhǎng)耳大野兔、藍(lán)長(zhǎng)耳大野兔、紅長(zhǎng)耳大野兔、黃長(zhǎng)耳大野兔的家園。"
羅斯·安德森將這種"模型崩潰"現(xiàn)象類(lèi)比為大規(guī)模污染,他寫(xiě)道:"就像我們?cè)诤Q笾谐錆M(mǎn)了塑料垃圾,在大氣中充滿(mǎn)了二氧化碳,我們即將讓互聯(lián)網(wǎng)充斥著胡言亂語(yǔ)。"
越來(lái)越多的人工智能生成的內(nèi)容在網(wǎng)絡(luò)上大量涌現(xiàn)。今年5月,在線(xiàn)虛假信息監(jiān)管機(jī)構(gòu)NewsGuard警告稱(chēng),他們發(fā)現(xiàn)有49個(gè)新聞網(wǎng)站似乎完全由人工智能撰寫(xiě)內(nèi)容。
據(jù)報(bào)道,市場(chǎng)營(yíng)銷(xiāo)和公關(guān)機(jī)構(gòu)越來(lái)越多地將文案外包給聊天機(jī)器人,這導(dǎo)致人類(lèi)創(chuàng)作者的工作受到搶奪。然而,根據(jù)舒馬伊洛夫和安德森的發(fā)現(xiàn),人類(lèi)創(chuàng)作者們希望不被人工智能擊敗的愿望可能還為時(shí)過(guò)早。
舒馬伊洛夫表示,對(duì)于訓(xùn)練人工智能來(lái)說(shuō),并不絕對(duì)需要人工生成的數(shù)據(jù)。盡管這些數(shù)據(jù)具有重要價(jià)值,因?yàn)樗鼈冋故玖苏Z(yǔ)言中大量的自然變化、錯(cuò)誤和不可預(yù)測(cè)的結(jié)果,但"這表明在訓(xùn)練人工智能時(shí),并不需要過(guò)多依賴(lài)人類(lèi)數(shù)據(jù)。"
本文鏈接:http://www.yifxia.cn/showinfo-45-1122-0.html研究揭示:人工智能系統(tǒng)迭代訓(xùn)練可能導(dǎo)致"模型崩潰"
聲明:本網(wǎng)頁(yè)內(nèi)容旨在傳播知識(shí),若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com