2024-04-10 18:27 來源:本站編輯
去年12月,紅迪網(wǎng)上流行的r/AskHistorians論壇的版主注意到,出現(xiàn)了一些帶有人工智能生成文本特征的帖子。
“他們很容易被發(fā)現(xiàn),”該論壇的主持人之一、康奈爾大學(xué)(Cornell University)博士后薩拉·吉爾伯特(Sarah Gilbert)說?!八鼈儾粔蛏钊耄粔蛉?,而且經(jīng)常包含虛假信息?!痹搱F隊很快意識到,他們在互聯(lián)網(wǎng)上的小角落已經(jīng)成為chatgpt創(chuàng)建內(nèi)容的目標(biāo)。
當(dāng)ChatGPT去年推出時,它引發(fā)了一場似乎永無止境的炒作。根據(jù)布道者的說法,ChatGPT背后的技術(shù)可能會消滅數(shù)億個工作崗位,展示奇點式人工通用智能的“火花”,很可能會毀滅世界,但在某種程度上,這意味著你必須馬上購買它。到目前為止,不那么引人注目的影響,比如在互聯(lián)網(wǎng)上釋放人工智能產(chǎn)生的惡臭浪潮,還沒有引起同樣的關(guān)注。
這個擁有200萬會員的AskHistorians論壇允許非專家用戶提交有關(guān)歷史話題的問題,并從歷史學(xué)家那里得到深入的回答。最近流行的帖子探討了“準(zhǔn)時”的壓力是否是一個現(xiàn)代概念的蜂群思維;如果修道院的貓在他們的牛皮紙上留下墨跡,中世紀(jì)的抄寫員會怎么做;以及成吉思汗是如何在飲食中攝入纖維的。
吉爾伯特說,在ChatGPT推出后不久,該論壇每天有5到10個ChatGPT帖子,隨著越來越多的人發(fā)現(xiàn)這個工具,這個數(shù)字很快就上升了?,F(xiàn)在這種頻率已經(jīng)逐漸減少,該團隊認(rèn)為這可能是他們嚴(yán)格處理人工智能生成內(nèi)容的結(jié)果:即使帖子沒有因為是由ChatGPT寫的而被刪除,它們也往往違反了sub的質(zhì)量標(biāo)準(zhǔn)。
版主懷疑一些ChatGPT帖子旨在“測試”這些mod,或者看看用戶能逃脫什么。其他評論顯然是造勢和垃圾郵件活動的一部分,或參與“業(yè)力耕種”,這些賬戶的建立是為了隨著時間的推移積累贊數(shù),讓它們看起來是真實的,這樣它們就可以在以后被用于更邪惡的目的。
但遇到這個問題的不只是一個精心策劃的論壇。事實上,Reddit的chatgpt機器人問題目前“相當(dāng)嚴(yán)重”,據(jù)一位了解該平臺更廣泛的審核系統(tǒng)的匿名版主表示。他們表示,該網(wǎng)站已經(jīng)刪除了數(shù)百個賬戶,每天還會有更多賬戶被發(fā)現(xiàn),并補充說,大多數(shù)刪除都是手動完成的,因為Reddit的自動系統(tǒng)難以處理人工智能創(chuàng)建的內(nèi)容。Reddit拒絕對此發(fā)表任何評論。
今年2月,AskHistorians和其他幾個reddit子版塊遭到了一次使用ChatGPT的協(xié)同機器人攻擊。吉爾伯特說,機器人的自動化系統(tǒng)被發(fā)現(xiàn)是將在AskHistorians上提出的問題輸入到ChatGPT,然后通過大量的托詞賬戶輸出回答。同一個僵尸網(wǎng)絡(luò)發(fā)布了很多“問”的帖子,例如r/AskWomen, r/AskEconomics和r/AskPhilosophy。
吉爾伯特說,發(fā)現(xiàn)機器人的垃圾答案是用ChatGPT生成的不是問題,問題是“它們來得太快了?!痹诠糇顕?yán)重的時候,該論壇在三天內(nèi)每天封禁75個賬號。雖然他們不能確定攻擊的目的,但他們確實注意到一些宣傳電子游戲的帖子。
Reddit最近的一份透明度報告強調(diào)了垃圾郵件和“虛假賬戶”的巨大問題,這些虛假賬戶的目的是推廣產(chǎn)品,但像ChatGPT這樣的生成式人工智能可能會大大加劇這一問題。雖然“垃圾郵件”過去依賴于由許多不同賬戶共享的復(fù)制粘貼文本,但現(xiàn)在像ChatGPT這樣的網(wǎng)站只需按一下按鈕就可以創(chuàng)建完全新穎的垃圾郵件。
r/Technology是Reddit最大的論壇之一,擁有超過1400萬訂閱者,其主持人u/ brownn評論道:“機器人的問題已經(jīng)非常嚴(yán)重,Reddit的自動反垃圾郵件系統(tǒng)幾乎不起作用,當(dāng)他們這樣做的時候,已經(jīng)太晚了,機器人的存在已經(jīng)達(dá)到了它的目的。”
“Reddit上的機器人絕大多數(shù)是用于簡單的廣告目的,而不是像每個人都喜歡聲稱的那樣進(jìn)行政治操縱。這些機器人賬戶發(fā)布的大部分廣告都是面向成人的:大麻/Delta8廣告、色情廣告、賭博廣告,或者出售或運營這些機器人是為了大規(guī)模宣傳運費下降的商品,其中大多數(shù)是信用卡詐騙,或者提供與訂購的商品不同的商品,或者根本就不送貨。”
除了r/AskHistorians之外,包括r/AskPhilosophy、r/AskEconomics和r/Cybersecurity在內(nèi)的訂閱用戶表示,他們在ChatGPT上遇到了問題,但目前頻率在可控范圍內(nèi)?!癈hatGPT的風(fēng)格很容易識別,但真正的測試是質(zhì)量,看起來ChatGPT在哲學(xué)方面很糟糕,”來自AskPhilosophy的一位版主說。
但關(guān)于機器人攻擊,AskPhilosophy的主持人說:“其他人嘗試這只是時間問題,而且他們可能會更好地逃避我們的質(zhì)量控制工作?!彼麄冋J(rèn)為ChatGPT評論現(xiàn)在在論壇上已經(jīng)變得相對少見了。“要么是這樣,要么就是他們越來越擅長愚弄我們了?!?/p>
一位網(wǎng)絡(luò)安全版主表示,當(dāng)ChatGPT內(nèi)容明確用于營銷時,該子具有很好的檢測率。然而,將假賬戶偽裝成真實賬戶的“業(yè)力耕種”帶來了一個更棘手的問題。他們說:“用戶報告偶爾會發(fā)現(xiàn)這些內(nèi)容,但我們自己的審核工具坦白說沒用,我們不知道目前在這類內(nèi)容中發(fā)現(xiàn)的不真實內(nèi)容的比例是多少?!币虼耍拔覀兊膯栴}不一定是‘到目前為止我們發(fā)現(xiàn)了什么’,而是‘我們錯過了什么’?!?/p>
不管現(xiàn)在這是否是一個嚴(yán)重的問題,大多數(shù)sub都在為未來做準(zhǔn)備——特別是如果像GPT-4這樣的大型語言模型能夠更好地制作聽起來像人類的內(nèi)容。
對OpenAI的GPT-3和GPT-2 XL的研究發(fā)現(xiàn),人類很難可靠地識別人工智能生成的文本。這項研究是在當(dāng)前生成式AI炒作開始之前進(jìn)行的,大多數(shù)人都不確定如何識別AI?!皺C器生成的文本往往非常流暢,非常符合語法,非常連貫,但[…]它很容易偏離主題,說了很多無關(guān)緊要的事情,”賓夕法尼亞大學(xué)的博士生、該論文的主要作者利亞姆·杜根(Liam Dugan)說。
“人們進(jìn)入(人工智能文本檢測任務(wù))時,期待看到表面的錯誤、拼寫錯誤或不符合語法的句子,而實際上,他們真正應(yīng)該尋找的是,這是事實嗎?這是常識嗎?這和帖子里說的有關(guān)系嗎?”
像GPTZero這樣的工具通過分析文本來預(yù)測它是否由大型語言模型編寫,但在檢測人工智能生成的內(nèi)容時,它們也不是絕對正確的。更復(fù)雜的是,最近的兩篇論文表明,使用釋義模型來混淆chatgpt生成的文本,極大地破壞了今天的人工智能文本探測器。
Reddit的一名員工告訴吉爾伯特和團隊的其他成員,Reddit正在為想要根除這類內(nèi)容的論壇開發(fā)人工智能檢測工具。
但目前,這項工作主要落在版主身上。吉爾伯特說:“這需要大量的人力,一點也不好玩。”“我們都是作為志愿者來做這件事的。”但Reddit和其他社交媒體平臺有巨大的動力在問題變得更糟之前,現(xiàn)在就解決這個問題?!八麄兿M藗冮喿x他們的廣告,對嗎?”吉爾伯特指出?!?谷歌的人工智能聊天機器人)Bard不會買任何東西?!?/p>
能否以一種有意義的方式解決這個問題,可能會決定社交媒體是否會以目前的形式繼續(xù)存在。“我認(rèn)為很多關(guān)于‘GPT將徹底改變什么’的說法都是胡扯,”r/Cybersecurity的主持人說,“但我敢打賭,傳統(tǒng)社交媒體的壽命是有限的,主要是因為不真實的內(nèi)容變得如此真實,制作成本如此低廉,以至于我們將很難找出誰是真實的,誰是機器人。”