來源:雷科技互聯(lián)網(wǎng)組|編輯:冬日果醬| 排版:大月亮
2 月初,隨著 ChatGPT 和微軟 Bing AI 接連引爆互聯(lián)網(wǎng),ChatGPT 概念股應聲而起,其中知乎因為大量問答被廣泛地用于生成式 AI 的訓練,股價一度暴漲 31%,之后百度文心一言發(fā)布時又漲了一大波。
(資料圖片僅供參考)
但到了 4 月,一位網(wǎng)友就在知名程序員社區(qū) V2ex 發(fā)帖感慨:「ChatGPT 會是知乎最大的敵人?!?/strong>
不僅是他,很多人都發(fā)現(xiàn)知乎已經(jīng)充斥了大量 AI 生成的回答,有些可能是無關痛癢的觀點,但不少也出現(xiàn)了「一本正經(jīng)胡說八道」。與此同時,AI 生成內(nèi)容也在一步一步擴大自己的「領土」,從互聯(lián)網(wǎng)延伸真實世界。
海外技術社區(qū) Hacker News 上有人指出,一家網(wǎng)紅營銷機構(gòu)網(wǎng)站上的一篇博文出現(xiàn)了「抱歉,作為一種 AI 語言模型,我無法預測未來的事件或趨勢」的提醒,類似的話語還出現(xiàn)在卡塔爾的購物中心目錄和芬蘭的一家電子產(chǎn)品商店的網(wǎng)站等地方。
更多 AI 生成的虛假內(nèi)容,或許還沒有被發(fā)現(xiàn)。
圖/AI生成
很多人可能還記得,今年 3 月網(wǎng)上流傳出一系列「特朗普被捕」的照片,雖然后續(xù)大量報道都指出其為 AI 生成的虛假照片,但照片剛開始被熱傳時,國內(nèi)外社交平臺上都有不少人信以為真。而后來出現(xiàn)的「甘肅火車事故」「八角大樓被襲」假新聞,也一次又一次挑起了人們的神經(jīng)。
過去半年我們已經(jīng)知道,ChatGPT 等生成式 AI 會不顧真假,生成海量似是而非的內(nèi)容。而由 AI 生成的虛假內(nèi)容又會被其他 AI 拿來學習后,再生成更加以假亂真的內(nèi)容。甚至,AI 還可以根據(jù)用戶的個人喜好一對一地生成虛假信息。因為 AI 可以擴大和再生產(chǎn)假新聞,未來可能造成更加嚴重的輿論造假。
更大的問題是,如果未來互聯(lián)網(wǎng)甚至是真實世界都充斥著各種 AI 生成的虛假內(nèi)容,一切都會崩潰。而從文字到圖片再到聲音,今天 AI 生成的內(nèi)容與真人創(chuàng)作的內(nèi)容之間變得越來越難以分辨,就像大部分人已經(jīng)無法分辨 AI 孫燕姿、AI Drake 與真人聲音。
同時 AI 的進化速度也太快了。幾個月前我們可能還在說 AI 繪畫「不會畫手」,但等到 Midjourney V5 新版本推出之后,AI 不僅在「畫手」上越發(fā)嫻熟,各種細節(jié)也變得更逼真。在針對 AI 歌手的回應中,孫燕姿也看到了這一點:
「你可能會反對,說我還是能分辨出區(qū)別的,它沒有情緒,沒有音調(diào)和呼吸的變化。很抱歉,我懷疑這只是一個非常短期內(nèi)的回應。」
圖/孫燕姿
所以問題已經(jīng)不在于我們能不能分辨 AI 生成的內(nèi)容,而是我們應該如何辨認出 AI 生成的內(nèi)容。
人工識別首先就不現(xiàn)實,先不說人工分辨 AI 生成內(nèi)容的準確性,我們還需要投入海量的人力。
去年年底 ChatGPT 發(fā)布之后,很多人就用它來生成論文,并取得了很好的成績,同時也吸引了更多的學生效仿。隨后,巴黎政治學院在內(nèi)的一些全球知名學府紛紛出臺了 ChatGPT 禁令。但據(jù)在線課程供應商 Study.com 此前發(fā)起的一項調(diào)查顯示,1000 名 18 歲以上的學生中,超過 89%的學生都在使用 ChatGPT 來完成家庭作業(yè)。
但這個問題總要解決,而最好的辦法,可能還是用「魔法」打敗「魔法」?
眾所周知,一個社區(qū)的核心是用戶與用戶之間的交流,而 AI 生成的虛假內(nèi)容一旦泛濫很容易摧毀這種交流,這也是所有在線社區(qū)極力避免的。但方法呢?除了依靠個人去辨別,很多時候我們又必須依賴 AI,比如前文提到 V2ex,其站長@Livid 為了分辨 AI 生成的灌水內(nèi)容,就會直接反過來詢問 AI「是否由 AI 生成」,以此作為是否封禁用戶的依據(jù)。
圖/V2ex
問題是這種方法還是存在太多的不確定性。
就在 ChatGPT 剛推出的幾天后,OpenAI 宣布聯(lián)合哈佛大學等高校和機構(gòu)一起打造了 AI 檢測器——GPT-2 Output Detector(GPT-2 輸出檢測器)。顧名思義,GPT-2 Output Detector 是基于 GPT-2 模型微調(diào)輸出的工具,對基于 GPT-3.5 的 ChatGPT 實際效果并不好。
于是今年 2 月 1 日,OpenAI 轉(zhuǎn)頭又推出「AI 生成內(nèi)容識別器」,目的是識別文本由 AI 生成還是人類撰寫,本質(zhì)上是一個辨別真實內(nèi)容和 AI 生成內(nèi)容的分類器。不過,OpenAI 在博客中指出,該識別器對 AI 生成內(nèi)容的檢測成功率僅為 26%:
可能還不如網(wǎng)友瞎猜。
國內(nèi)也出現(xiàn)了類似的 AIGC-X。這是一款由人民網(wǎng)下屬傳播內(nèi)容認知國家重點實驗室、中國科學技術大學、合肥綜合性國家科學中心人工智能研究院聯(lián)合推出的 AI 生成內(nèi)容檢測工具,支持對 AI 生成內(nèi)容和人工生成內(nèi)容的分辨。盡管有報道稱 AIGC-X 對中文文本檢測的準確率超過 90%,但實測并不如意。
即便有這么多錯誤,圖/AIGC-X,Bing
可以說到目前為止,所有試圖用 AI 打敗 AI 的嘗試都沒有成功,本身這條路徑也存在不少爭議,有人就將其形容為新時代的「自相矛盾」——用最強的矛打最強的盾。
相比之下,「水印」成了越來越廣泛的選擇。5 月谷歌 I/O 大會上,谷歌率先宣布公司的每一張 AI 生成圖片都會內(nèi)嵌水印,水印無法肉眼識別,但可通過谷歌搜索引擎等軟件讀取并以標簽顯示出來,用以提醒用戶該圖片由 AI 生成。不久后,Shutterstock、Midjourney 等 AI 應用也宣布將支持這種新的標記方法。
但 AI 生成文字還在等待一個切實可行的方案。在 AI 生成內(nèi)容識別器失敗之后,OpenAI 也在考慮在生成的文本中加入數(shù)字水印,以降低模型被濫用帶來的負面影響。OpenAI 對齊團隊(主要負責系統(tǒng)安全性)負責人 Jan Leike 表示,OpenAI 已經(jīng)探索在文本中加入水印。
不過,OpenAI CEO Sam Altman 在接受采訪也提醒到,不存在一個完美的 AI 生成文字識別工具,原因是人們總會弄清楚他們要修改多少文字,還會出現(xiàn)修改輸出文本的其他工具。
之前在某個論壇上看到一個帖子,一位網(wǎng)友通過搜索引擎跳到知乎的一則回答,看到了一半才意識到這則回答大概是由 AI 生成,瞬間有種被喂 x 的感覺。
關鍵是如果主動使用 ChatGPT 之類的生成式 AI,我們可能對它的真實性、胡說八道都會有一定的預期,但顯然我們無法阻止其他人使用并發(fā)布 AI 生成的虛假內(nèi)容。打個比方,如果對歷史并不熟悉的人,在知乎上看到一則言之鑿鑿討論亞瑟王的回答,會不會誤認為亞瑟王是真實存在的人物,甚至是一位女騎士(型月作品中的設定)。
但坦白講,除了很明顯的 AI 生成風格,我們很難在熟知領域之外分辨內(nèi)容是否由 AI 生成,唯一能做的,可能就是更加審視我們所看到的內(nèi)容。
廣告
X 關閉
廣告
X 關閉