AI不可盡信?前董事成員示警OpenAI需第三方監管以確保責任
商傳媒|記者許方達/綜合報導
OpenAI最新公布的模型GPT-4o,其中一款語音模式「Sky」疑似在未經知名女星史嘉蕾喬韓森(Scarlett Johansson)同意下、盜用其聲音,引發火爆爭議。正當各界開始質疑OpenAI的安全性,前OpenAI董事成員托納(Helen Toner)及麥考莉(Tasha McCauley)近日投書《經濟學人》大聲疾呼,「AI公司需要第三方監管,以確保能追究其責任」。
兩位前董事坦言,他們曾相信OpenAI可以自我監管;但以過去的經驗來看,利潤帶來的壓力,恐讓「自我監管」變得不那麼可靠。去年11月、OpenAI執行長阿特曼(Sam Altman)無預警被踢出董事會,同時丟失執行長職務,引發各界譁然。之後的事態發展峰迴路轉,在多數OpenAI職員脅迫離職力挺下,阿特曼在短短一週後就回鍋擔任執行長,並在不到半年內重返董事會,整起「宮鬥」事件令人霧裡看花。
阿特曼自3月重返董事會至今,OpenAI的安全一直受到各界質疑,托納和麥考莉堅持罷免掉阿特曼的決定,並引用高層的聲明指出,這位聯合創辦人創造了「有毒的撒謊文化」,並從事「可被描述為心理虐待的行為」。
投書內容也提到,「我們也感覺到自阿特曼回歸公司以來的發展,包括他重返董事會以及高層安全重視人才的離職,對OpenAI的自我治理實驗來說,都是不祥之兆」。托納和麥考莉認為,為了實現OpenAI所宣稱的造福「全人類」的使命,政府需要介入並立即建立「有效的監管框架」。
托納和麥考莉建議,在AI監管議題上,政策制定者應採取「獨立行動」,設計不良的法規可能會給小企業帶來負擔,進而衝擊競爭和創新,也會阻礙民間對政府監管的呼聲。此外,必須惕防漏洞,並避免讓領先的AI新創企業變成「監管俘虜」。
今年4月,美國國土安全部延攬多位科技公司高層,設立「AI安全顧問委員會」,成員名單包括有:OpenAI執行長阿特曼、輝達執行長黃仁勳、微軟執行長納德拉(Satya Nadella)、以及Google母公司Alphabet執行長皮查伊(Sundar Pichai)等人。
儘管「AI安全顧問委員會」成員也包含多位非營利組織科技代表,但營利性公司高層仍占多數。學者對此表達擔憂,「獲利導向公司背後龐大的影響力,可能會導致政策走向有利於產業,而非專注於人類安全議題上」。