中南民族大學法學院張軍榮在《行政法學研究》2025年第2期上發(fā)表題為《人工智能生成物的溢出風險及監(jiān)管規(guī)則研究》的文章中指出:
以ChatGPT、Sora為代表的生成式人工智能模型發(fā)生了由“判別式”轉為“生成式”的變革,人工智能被賦予了“強擬人化”特點,人工智能生成物(以下簡稱AIGC)成為人們獲取知識和信息產品的新渠道。AIGC的應用范圍包含自動化技術、智慧圖書館、醫(yī)學智庫、智慧數字出版、計算機軟件及其應用、教育實踐等學科領域。AIGC的產出經歷了數據搜集和投喂、模型訓練和模擬、內容生成和調整等階段。由于投喂數據的質量差異、人工智能模型算法的能力缺陷、使用者的人為操控等因素,AIGC應用于各種場景的同時,其迅速發(fā)展滋生了數據污染風險、信息泄露風險、數據歧視風險以及通用性倫理風險等。
世界各國對于AIGC的監(jiān)管框架建立尚處于初步探索階段。通過對比國內外AIGC監(jiān)管的制度內容發(fā)現,當前監(jiān)管模式存在人力監(jiān)管能力不足、“產品”質量標準缺失、數據歧視監(jiān)管規(guī)則缺失、分級管理規(guī)則模糊四個方面的缺陷。因此,應構建以技術監(jiān)管規(guī)則、質量標準規(guī)則、無歧視規(guī)則、分類分級規(guī)則等為主體的AIGC監(jiān)管體系。首先,為克服人工監(jiān)管的高成本、低效率等缺陷,應引入技術監(jiān)管、推動敏捷治理,將AIGC來源與后續(xù)使用行為納入監(jiān)管體系,形成以生成記錄保存規(guī)則、實名制規(guī)則、強制標記規(guī)則、周期性數據更新規(guī)則為內容的監(jiān)管規(guī)則。其次,通過明確人工智能開發(fā)者與AIGC服務提供者、使用者的義務,構建AIGC生產過程控制和生成產品的質量標準規(guī)則,避免可能造成數據污染和信息泄露風險的生成內容流入公共領域,避免危及公共安全和公共利益的內容生成和使用。再次,通過建立數據清洗和數據審計規(guī)則,推動算法透明,加強算法審核,從而實現對數據歧視的源頭治理。最后,建立分類分級規(guī)則,構建對不同風險程度AIGC的梯次監(jiān)管,設定服務主體對不可接受風險和重大風險的申報與備案義務,并進行安全評估,保障數據安全。
面對人工智能的迅速發(fā)展和巨大挑戰(zhàn),需要更為具體的應對措施以防范其帶來的各種風險。未來還需從監(jiān)管程序、監(jiān)管基礎設施、監(jiān)管規(guī)制與監(jiān)管機構運行等要素出發(fā),探索國家AIGC監(jiān)管體系發(fā)展之路,為保障國家人工智能產業(yè)蓬勃發(fā)展、社會秩序穩(wěn)定、數據信息安全添磚加瓦。
編輯:武卓立