專家憂慮!GPT-4涉偏見、隱私風險及安全危機
商傳媒|綜合報導
OpenAI近期推出升級版的GPT-4,其自然語言對話技術、音樂創作及文件總結等能力,獲得用戶高度好評。不過,也引起一些團體和專家擔憂,他們認為GPT-4產品「存在偏見、隱私風險及安全危機」,甚至有停止新商業版本發行的聲浪傳出。
據《路透社》報導,科技倫理團體「人工智慧與數位政策中心」(Center for Artificial Intelligence and Digital Policy,簡稱CAIDP)週四(30日)向美國聯邦貿易委員會(Federal Trade Commission,簡稱FTC)提出正式申訴,指控GPT-4產品存在偏見、欺騙性和對隱私和公共安全的風險。CAIDP在其網站上發布聲明,稱OpenAI的ChatGPT-4未達到FTC要求的透明、可解釋、公平和經驗證的標準,且未能促進責任的發揮。
CAIDP的申訴書指出,OpenAI暴露了使用者的私人聊天歷史給其他使用者,並且發現有AI研究人員能夠「接管某人的帳戶、查看他們的聊天歷史和訪問其帳單資訊,而使用者卻無從意識到」。CAIDP的主席馬克·羅滕伯格(Marc Rotenberg)是一位資深隱私倡導者,他擔心商業壓力促使公司推出未經準備的產品。
馬克·羅滕伯格說:「OpenAI根本沒有遵守FTC的指南,也不關心該產品是否公平或具有欺騙性。」此外,包含特斯拉執行長馬斯克、蘋果共同創辦人沃茲尼亞克等超過1千名傑出人士,以公開信連署呼籲「暫停研發比OpenAI新推出的GPT-4更強大的系統」,也引起專家和業界高度關注。
AI話題越炒越熱!馬斯克等上千人引述論文連署呼籲:「暫停AI研發」,卻反遭作者嗆:胡說八道。圖片來源:翻攝自@timnitGebru推特
然而,根據《法新社》報導,信中引述用來支持論點的一篇學術論文,作者之一葛布魯(Timnit Gebru)在推特(Twitter)發文表示「他們所言基本上與我們所說的相反,卻引用我們的論文」。論文的另一位作者班德(Emily Bender)則表示,AI的風險從來不是關於AI本身「太過強大」,而是「關於權力集中在人們手中,關於壓迫性體制的複製,關於資訊生態系統遭到破壞」。