明星臉帶貨、虛假小作文 AI生成內容監管走到哪一步了?-每日熱訊
來源:南方都市報     時間:2023-06-05 17:29:18

以ChatGPT為引領,AI大模型成為了全球科技公司的“練兵場”。技術迭代的速度超乎想象,但還來不及驚嘆,由此衍生的各類亂象已先行一步。


(相關資料圖)

近期,先是多地警方提醒新型“AI詐騙”案件受到關注,隨后,AI換“明星臉”直播帶貨引發侵權爭議,而AI生成的虛假小作文致科大訊飛股價“閃崩”,也顛覆了對AI虛假信息商業影響力的預判。

可以預見,AI技術的發展和應用會持續帶來爭議與治理難題。深度偽造、虛假信息、不良信息、抄襲侵權、傳播倫理等問題集中涌現,對包括內容治理在內的網絡空間秩序治理構成挑戰,對于治理工具、方式和手段也提出了更新更高的要求。

回看網絡內容生態治理領域,對AI的監管和治理走到了哪一步?平臺又有哪些經驗值得借鑒?

發布深度合成管理規定

首次明確主體義務

對AI生成內容的風險論斷并非一朝一夕。2017年,Deepfake(深度偽造)技術面世,各色AI換臉色情視頻及生成虛假信息開始涌現。2019年,一款名為“ZAO”的App曾因用戶協議涉嫌過度收集用戶信息及隱私安全引發巨大爭議。

關于深度偽造技術帶來的風險,今年一月起生效的《互聯網信息服務深度合成管理規定》首次從法規層面作出了回應,明確了服務提供者、使用者、技術支持者等相關主體的義務。

細研規定發現,對深度合成的監管大致明確了幾個方向,杜絕違法信息和虛假信息傳播、數據安全與個人信息保護、以及避免用戶的混淆或誤認。

譬如,要求深度合成服務提供者和技術支持者對使用者有必要的提示義務,即告知同意被編輯的個人;要求采取技術措施添加不影響用戶使用的標識,尤其是在文本生成、語音生成、人臉生成,沉浸式擬真等場景中。

中國社會科學院大學互聯網法治研究中心執行主任劉曉春認為,這一規定有兩個治理舉措十分值得關注,一是將內容治理義務拓展到為生產者和傳播者提供技術支持的主體,要求真正對技術擁有掌控能力的相關主體切實承擔起治理義務,從源頭采取措施;二是在現有內容治理手段基礎上,明確規定了通過添加技術“標識”的方式,幫助用戶有效識別人工智能生成內容,并根據風險程度分級分類在內容治理中加以落實。

生成式人工智能服務管理辦法征求意見

明確內容規制范圍

伴隨ChatGPT等應用的火熱,今年4月,國家網信辦又發布了《生成式人工智能服務管理辦法(征求意見稿)》(下稱《意見稿》),在監管同時,為鼓勵AIGC健康發展傳遞了積極信號。

《意見稿》共21條,明確生成式人工智能是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術,并對利用生成式人工智能產品或服務做出具體規制。

如在內容規制層面,特別提到虛假信息、歧視、不公平競爭、侵犯他人權益等行為。此外,該《意見稿》還對服務提供者在防范引導層面提出更高要求,包括具體標注規則、對用戶過度沉迷的防范、以優化訓練數據影響用戶選擇、指導用戶科學認識和理性使用等。

中國人民大學交叉科學研究院、高瓴人工智能學院李銘軒博士長期關注生成式人工智能算法規制,其認為,《意見稿》不但重視人工智能風險的防范治理,而且也強調人工智能技術的創新發展。例如在第三條特別提到“國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源”。

實踐與難點:

內容標識已有技術標準

模型訓練規避造假難度大

不過,研究者認為,現有技術條件下,上述法規中的相關要求能否落地,實踐路徑如何,仍值得探討。例如,相關要求都涉及到內容標識的問題,不過,是否所有的AIGC內容都能夠進行標識?如何對AIGC內容進行標識?這需要更加細化和完善的規定,也需要平臺去探索最佳的實踐路徑。

今年5月,抖音發布了《AI生成內容的平臺規范暨行業倡議》,為行業提供人工智能內容標識等技術能力和標準,為監管措施落地提供了行業實踐的樣本。

在劉曉春看來,從這一行業實踐可以看出,對于人工智能生成內容的監管和治理,通過添加水印標簽幫助用戶直觀分辨內容屬性和來源,相對于其他治理手段,是成本較低而效果明顯的技術方式,而且只要設計得當,標識添加可以兼顧用戶體驗和內容美觀,并不會影響創意和內容呈現。

就其他治理手段而言,例如,可以要求算法和人工智能服務提供者通過優化數據和模型訓練來影響輸出內容或者規避造假,這也是一種治理方式,但是這種方式實現成本高昂,難度很大,效果也難言理想。

李銘軒告訴南都記者,綜合一些人工智能領域專家的意見,諸如“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息”“對于運行中發現、用戶舉報的不符合本辦法要求的生成內容應在3個月內通過模型優化訓練等方式防止再次生成”等要求,在現有條件下可能難以實際執行。

“從內容傳播和行業發展的角度,人工智能生成內容和深度合成內容的精準有效治理,除了內容傳播平臺的積極作為之外,還需要行業內各個環節各方主體的全面參與。”劉曉春表示。

全球進展:

首部人工智能法案或將出臺

今年以來,全球也在加速探索對AI的監管,目前來看,各國對于人工智能的態度不一。

4月30日在日本舉行的七國集團(G7)數字與技術部長會議上,參會者同意“基于風險”推出一項針對人工智能的監管法案,根據聯合聲明,G7重申監管也應該為人工智能(簡稱AI)技術“保持一個開放有利的環境”。

歐洲則更早支持對人工智能監管。歐盟人工智能監管法案的制定工作已經持續數年,5月11日,歐洲議會兩個委員會通過《人工智能法案》提案的談判授權草案,據悉,這一草案將于6月中旬提交歐洲議會全會表決,歐洲議會聲明稱,一旦獲得批準,這將成為全世界首部有關人工智能的法規。

美國方面,5月4日,白宮宣布撥款1.4億美元用于研究制定指導AI監管方針。美國議會近年來先后提出《2018年惡意偽造禁令法案》《2019年深度偽造報告法案》《識別生成對抗網絡法案》,都提出要求在人工智能生成的虛假內容中應當包含嵌入的數字水印、清楚標識更改的音頻或視頻內容。

“從目前來看,無論是技術發展和商業應用,還處在發展的初期,應持更加包容審慎的態度,給予企業以更多的信任和發展空間。”李銘軒表示,對規制者而言,應當密切關注和充分了解AIGC技術和商業應用的現狀,在確定治理原則和劃定規則紅線的基礎上,規制者目前不宜出臺過于剛性、細化的人工智能立法,應更多地鼓勵企業去自主探索平衡商業利益和風險合規的商業模式。而針對現有的較為重要和急迫的問題,可通過出臺行政規章,探索有針對性的規制模式。

出品:南都大數據研究院

網絡內容生態治理研究中心

(文章來源:南方都市報)

關鍵詞: