強化全流程管理 引導技術(shù)向善——《人工智能生成合成內(nèi)容標識辦法》解讀
2025-03-17 10:39:12? 作者: 來源:新華網(wǎng) 責任編輯:肖練冰
|
新華社北京3月16日電題:強化全流程管理 引導技術(shù)向善——《人工智能生成合成內(nèi)容標識辦法》解讀 新華社記者王思北 近日,國家互聯(lián)網(wǎng)信息辦公室,、工業(yè)和信息化部,、公安部、國家廣播電視總局聯(lián)合發(fā)布《人工智能生成合成內(nèi)容標識辦法》,。辦法聚焦人工智能“生成合成內(nèi)容標識”關(guān)鍵點,,通過標識提醒用戶辨別虛假信息,明確相關(guān)服務主體的標識責任義務,,規(guī)范內(nèi)容制作,、傳播各環(huán)節(jié)標識行為,將于2025年9月1日起施行,。 專家認為,,辦法是我國推進人工智能領(lǐng)域安全治理、促進產(chǎn)業(yè)規(guī)范健康發(fā)展、引導技術(shù)向善的重要舉措,,標志著我國在生成式人工智能領(lǐng)域邁出了構(gòu)建安全可信生態(tài)的關(guān)鍵一步,。 近年來,生成式人工智能,、深度合成等新技術(shù)快速發(fā)展,,為生成合成文本、圖片,、音頻,、視頻等信息提供了便利工具。 “然而,,人工智能生成合成內(nèi)容日益逼真,,也催生虛假消息傳播、身份信息冒充,、惡意內(nèi)容生成等新型安全風險,,并削弱著公眾對網(wǎng)絡(luò)傳播內(nèi)容的信任根基?!敝袊こ淘涸菏?、浙江大學教授陳純認為,面對人工智能安全治理這一世界性難題,,四部門適時出臺《人工智能生成合成內(nèi)容標識辦法》,,配套強制性國家標準《網(wǎng)絡(luò)安全技術(shù) 人工智能生成合成內(nèi)容標識方法》也同時發(fā)布,成為保障人工智能時代網(wǎng)絡(luò)生態(tài)安全有序的關(guān)鍵手段,。 國家網(wǎng)信辦有關(guān)負責人表示,,辦法重點解決“哪些是生成的”“誰生成的”“從哪里生成的”等問題,,推動由生成到傳播各環(huán)節(jié)的全流程安全管理,,力爭打造可信賴的人工智能技術(shù)。 ——針對服務提供者,,辦法明確應當對文本,、音頻、圖片,、視頻,、虛擬場景等生成合成內(nèi)容添加顯式標識,在提供生成合成內(nèi)容下載,、復制,、導出等功能時,應當確保文件中含有滿足要求的顯式標識,;應當在生成合成內(nèi)容的文件元數(shù)據(jù)中添加隱式標識,。 ——針對互聯(lián)網(wǎng)應用程序分發(fā)平臺,辦法提出在應用程序上架或者上線審核時,應當要求互聯(lián)網(wǎng)應用程序服務提供者說明是否提供人工智能生成合成服務,,并核驗其生成合成內(nèi)容標識相關(guān)材料,。 ——針對用戶,辦法要求使用網(wǎng)絡(luò)信息內(nèi)容傳播服務發(fā)布生成合成內(nèi)容的,,應當主動聲明并使用服務提供者提供的標識功能進行標識,。 此外,任何組織和個人不得惡意刪除,、篡改,、偽造、隱匿辦法規(guī)定的生成合成內(nèi)容標識,,不得為他人實施上述惡意行為提供工具或者服務,,不得通過不正當標識手段損害他人合法權(quán)益。 “此前出臺的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》提出了標識有關(guān)要求,,辦法進一步細化了標識的具體實施規(guī)范,。”北京航空航天大學法學院副教授趙精武認為,,辦法明確了生成合成內(nèi)容制作傳播各主體的責任義務,,用戶能夠清晰識別人工智能生成的內(nèi)容,減輕人工智能生成合成技術(shù)濫用危害,,防范利用生成合成內(nèi)容傳播虛假信息,、實施電信詐騙等風險行為。 一方面,,清晰的內(nèi)容標識有助于提升信息透明度,,增強用戶的知情權(quán)和選擇權(quán),培養(yǎng)公眾對人工智能技術(shù)的理性認知,。另一方面,,對于服務提供者及傳播平臺而言,內(nèi)容標識制度既是責任更是機遇,,在鼓勵企業(yè)追求技術(shù)能力提升的同時,,也將提升對產(chǎn)品社會影響的關(guān)注度,推動整個行業(yè)向更加規(guī)范,、健康的方向發(fā)展,。 良法善治,重在實施,。專家認為,,辦法的落地需要各方協(xié)同配合,推動標識工作行穩(wěn)致遠,。 公安部第三研究所副所長金波說,,伴隨標識管理與算法備案,、安全評估等機制逐步實現(xiàn)有機銜接,生成合成內(nèi)容標識合規(guī)或?qū)⒊蔀橄嚓P(guān)部門開展人工智能監(jiān)督檢查,、專項行動的重點關(guān)注領(lǐng)域,。在此進程中,如何平衡好發(fā)展與安全,、創(chuàng)新與責任,,提升執(zhí)法的專業(yè)化、精細化,、智慧化水平,,從而培育出安全、開放,、公平的人工智能產(chǎn)業(yè)生態(tài)環(huán)境,,還需要深入探究。 “此外,,‘人的因素’應融入人工智能標識管理的全過程,。”金波說,,要著重提升公眾對信息內(nèi)容真實性,、來源可追溯性的評估能力,積極培育公眾的人工智能素養(yǎng),,確保人工智能技術(shù)成果普惠共享,。 |