即時
TikTok因“有害內容”遭法國家庭集體訴訟 社群媒體監管問題再引關注
火報記者 陳銳/報導
近日,七個法國家庭聯合對 TikTok 提起訴訟,指控其演算法推送有害內容,導致青少年接觸危險影片,甚至因此發生悲劇。這一案件成為歐洲首例類似集體訴訟,對於社群媒體監管及其責任問題引發廣泛討論。
11月4日,法國七個家庭聯合對社群媒體巨頭 TikTok 提起訴訟,控訴其演算法將自殺、自殘及飲食失調等有害內容推送給青少年,最終導致兩名年僅15歲的孩子自殺身亡。這一法律行動由律師 Laure Boutron-Marmion 代表提出,訴訟中強調 TikTok 必須為其演算法和內容監管負責,尤其是針對青少年的心理健康風險。
這些家庭已向克雷泰伊司法法院提起集體訴訟。Boutron-Marmion 表示,這是歐洲首次針對 TikTok 提出的此類法律訴訟,旨在尋求司法對其責任的正式承認。她指出,TikTok 作為一家商業公司,對未成年用戶提供產品,應當對其內容和演算法缺陷負起法律責任。
在此案之前,TikTok 已因應用內容審查問題多次面臨批評。與此同時,其他社群媒體平台如 Meta(Facebook 和 Instagram)在美國也面臨數百起類似訴訟,指控其吸引大量青少年用戶,並在成癮和心理健康上產生負面影響。與此相應,家長和律師們希望這一訴訟能夠促使平台對有害內容加強監管,避免類似悲劇再次發生。
雖然 TikTok 尚未針對此起訴訟做出回應,但該公司此前表示會認真對待青少年的心理健康問題。其執行長 Shou Zi Chew 曾向美國國會表示,TikTok 已投資並採取一系列措施,以保護年輕用戶並減少潛在危險內容的暴露。然而,隨著此案的推進,TikTok 及其他社群平台在保護青少年用戶方面的具體作為將再度面臨審視。