大型語言模型和人工智能聊天機器人開始在互聯網上充斥著自動生成的文本。
將人工智能生成的文本與人類寫作區分開來變得越來越困難。
OpenAI推出了一個識別人工智能文本的系統,但由于它不起作用而關閉了它。
嗶嗶嗶。
這是機器寫的還是我寫的?
隨著人工智能競賽愈演愈烈,這將是科技行業必須回答的最重要問題之一。
ChatGPT、GPT-4、Google Bard和其他新的人工智能服務可以創建令人信服和有用的書面內容。就像所有的技術一樣,它被用于好的和壞的事情。它可以使編寫軟件代碼更快、更容易,但也會產生大量事實錯誤和謊言。所以,開發一種識別人工智能文本和人類文本的方法是基礎。
ChatGPT和GPT-4的創造者OpenAI不久前就意識到了這一點。今年1月,它推出了一個“分類器,可以區分人類編寫的文本和來自各種供應商的人工智能編寫的文本”。
該公司警告說,不可能可靠地檢測到所有人工智能編寫的文本。然而,OpenAI表示,好的分類器對于解決一些有問題的情況很重要。其中包括錯誤地聲稱人工智能生成的文本是由人類編寫的,運行自動化的錯誤信息活動,以及使用人工智能工具在家庭作業中作弊。
不到7個月后,這個項目就被取消了。
OpenAI在最近的一篇博客中寫道:“截至2023年7月20日,由于準確率低,人工智能分類器不再可用。”“我們正在努力整合反饋,目前正在研究更有效的文本來源技術。”
如果OpenAI都不能發現人工智能的寫作,其他人怎么能呢?其他人也在努力應對這一挑戰,包括我的同事瑪德琳·倫巴格(Madeline Renbarger)寫過的一家名為GPTZero的初創公司。但在微軟的支持下,OpenAI被認為是人工智能領域的佼佼者。
一旦我們無法分辨人工智能和人類文本之間的區別,在線信息的世界就會變得更有問題。已經有一些垃圾網站使用新的人工智能模型大量生產自動化內容。其中一些一直在創造廣告收入,同時還有“拜登死了”之類的謊言。哈里斯代理總統,上午9點發表講話。”
這是一種非常新聞化的看待世界的方式。我明白了。并不是每個人都癡迷于確保信息準確。因此,人工智能行業還有一個更令人擔憂的可能性:
如果科技公司無意中使用人工智能產生的數據來訓練新模型,一些研究人員擔心這些模型會變得更糟。它們將以自己的自動化內容為食,并在所謂的人工智能“模型崩潰”中折疊自己。
研究人員一直在研究,當gpt風格的人工智能模型(如GPT-4)生成的文本構成下一個模型的大部分訓練數據集時會發生什么。
他們在最近的一篇研究論文中總結道:“我們發現,在訓練中使用模型生成的內容會導致模型出現不可逆轉的缺陷。”其中一名研究人員伊利亞·舒邁洛夫(Ilia Shumailov)在Twitter上說得更好。
在看到可能出現的問題后,作者提出了一個請求,并做出了一個有趣的預測。
他們寫道:“如果我們要維持從網絡上收集的大規模數據中進行培訓的好處,就必須認真對待這一點。”“事實上,在法學碩士從互聯網抓取數據生成內容的情況下,收集到的有關人類與系統之間真實互動的數據的價值將越來越有價值。”
如果我們不能分辨出是人類還是機器在網上寫了什么,我們就無法開始解決這個存在的問題。我給OpenAI發了郵件,詢問他們失敗的AI文本分類器及其影響,包括模型崩潰。一位發言人回應說:“除了在我們的博客中概述的更新外,我們沒有什么可補充的。”
我回信了,只是想確認一下發言人是不是人。“哈哈哈,是的,我是一個真正的人,謝謝你的簽到!”他們回復道。