【法治護我心】立法與政策協同推進人工智能創新發展
【法治護我心】
作者:趙精武(北京航空航天大學法學院副教授)
生成式人工智能的廣泛應用前景在得到市場青睞的同時,也迎來專家學者們的擔憂。迥異于現有的人工智能應用產品,生成式人工智能服務的智能化程度更高,生成的信息內容甚至讓開發者和使用者都無法確認信息是由機器自動化生成的。因此,一旦該項技術被濫用,可能引發一系列社會問題,諸如網絡謠言泛濫、個人信息泄露、算法歧視等。為了解決這些潛在的技術安全風險,2023年7月13日,國家網信辦聯合國家發展改革委、教育部、科技部、工業和信息化部、公安部、廣電總局公布了《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)。
從內容來看,該《辦法》的核心目標是促進生成式人工智能技術的創新發展,并在這一過程中,細化相關產品、服務提供者的法律責任,側重強化對生成內容的監管力度,以此保障整個產業的良性發展。具體而言,該辦法值得關注的內容主要有四個方面:
第一,《辦法》強調從數據、算法、算力等技術核心環節推動生成式人工智能產業創新發展。既強調算法、框架、芯片、配套軟件平臺等基礎技術的自主創新,也重視數字基礎設施和公共訓練數據資源平臺建設。通過鼓勵和支持行業組織的業務協作、公共數據的有序開放等措施,形成技術研發、應用、更新等各個業務環節的同步創新發展。
第二,在鼓勵產業發展的同時,《辦法》重點強調對核心風險的預防和控制。《辦法》強調了生成式人工智能產品提供者責任,包括訓練數據來源合法、數據標準質量評估、違法生成內容處置、健全投訴舉報機制以及預防未成年人過度依賴等內容。為了控制技術濫用可能導致的網絡輿論安全風險,“規定”還專門強調具有輿論屬性或社會動員能力的生成式人工智能服務進行事前的安全評估,并按照現行的算法備案制度進行備案評估。《辦法》還設置了警告、通報批評、責令限期改正等處置處罰措施,確保服務提供者充分履行法定義務。
第三,《辦法》突出強調了個人信息保護的相關要求。用戶在使用生成式人工智能的過程中可能會輸入大量自己和他人的個人信息,故而存在部分服務提供者擅自留存用戶數據的風險。《辦法》在《個人信息保護法》的基礎上進一步細化了人工智能領域的個人信息保護義務,服務提供者不得非法留存能夠識別特定個人的輸入信息和使用記錄,也不得非法向第三方提供這些輸入信息和使用記錄。
第四,針對美歐等國加快人工智能領域的立法趨勢,“規定”前瞻性地將參與相關國際規則制定作為人工智能產業發展的重要內容。人工智能技術作為未來數字經濟的新引擎和新動力,避免美歐等國利用國際規則和技術標準鉗制我國產業發展顯得尤為必要。同時,“規定”還強調了技術創新研發等領域的國際交流和合作,輔之以數據資源、算力資源以及算法技術等方面的政策支持性條款,能夠有效保障我國在未來激烈的人工智能技術競爭中位于優勢地位。
總體來看,《辦法》是我國首部專門針對生成式人工智能產業健康發展的部門規章,該《辦法》有關鼓勵技術自主創新和規范應用的相關內容向整個產業和市場釋放了正向的信號,勢必能夠提升生成式人工智能廣泛應用的經濟效益。
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。