火報記者 陳銳/報導
自從ChatGPT等AI撰文工具問世以來,隨之而來的是關於AI濫用、作弊等問題的激烈討論。這些工具以其強大的生成文本能力,在提高生產力的同時,也引發了社會對其道德和安全性的深刻擔憂。為了應對這些潛在問題,市面上逐漸出現了一些檢測工具,試圖識別AI生成的內容。然而,據《華爾街日報》報道,ChatGPT的開發公司OpenAI其實早已著手開發一種名為「文字浮水印」的技術,希望藉此標記AI生成的文本,從而更容易地識別出這些內容的來源。
這項技術的基本原理是在生成的文本中嵌入某種無形的標記,這些標記像是數位世界中的「隱形墨水」,只有特定的檢測工具才能識別。然而,這項技術的落地卻並非一帆風順。OpenAI內部在釋出這項工具的決策過程中,陷入了一個兩難境地:一方面,公司承諾對用戶保持透明,並且希望提供有效的工具來打擊AI濫用;另一方面,OpenAI也擔心過於嚴格的檢測工具可能會影響到用戶體驗,導致他們流失。
更複雜的是,這種「文字浮水印」技術面臨著諸多技術挑戰和限制。據報道,如果文本經過某些形式的改動,這些隱形的標記就會變得無效。例如,使用翻譯系統將文本轉換成另一種語言、使用其他生成模型進行重寫,或者在文本中插入特殊字符再將其刪除,這些操作都可能導致浮水印消失。這種脆弱性不僅使得檢測工具可能出現誤判,還讓不當行為者有機可乘。
OpenAI的發言人在接受《TechCrunch》採訪時表示,儘管這種檢測方法在概念上非常創新,但對於那些刻意試圖規避檢測的人來說,規避這些標記其實並不困難。更為重要的是,該技術可能對非英語母語者等群體造成不利影響,這無疑給技術的推廣帶來了更多挑戰。考慮到這些潛在的風險和複雜性,OpenAI決定採取更為謹慎的方法,延後釋出這項工具,以免對整個AI生態系統產生不可預見的負面影響。
OpenAI在技術創新與使用者保護之間的平衡,將在未來的AI應用中起到關鍵作用。這項「文字浮水印」技術的最終命運,或許會成為業界如何應對AI濫用問題的重要指標。