AI監(jiān)管:創(chuàng)新與安全的平衡問題

發(fā)布時間:2023-04-13 08:29:36  |  來源:天翼智庫  

4月11日,國家網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,向社會公開征求意見。3月29日,英國政府發(fā)布針對人工智能產(chǎn)業(yè)監(jiān)管的白皮書,提出對AI技術(shù)全方位監(jiān)管的方法。包括圖靈獎得主、蘋果聯(lián)合創(chuàng)始人、馬斯克以及「人類簡史」作者等在內(nèi)的超過1000位大佬聯(lián)名呼吁——應(yīng)該立即停止訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),暫停期至少6個月,因為具有人類競爭智能的AI系統(tǒng),可能對社會和人類構(gòu)成深遠(yuǎn)的風(fēng)險。全球AI監(jiān)管迫在眉睫,開發(fā)者必須與政策制定者合作,以確保AI值得人類信賴,對人類忠誠。歐盟已經(jīng)開啟強(qiáng)監(jiān)管之路,美國英國更強(qiáng)調(diào)創(chuàng)新和發(fā)展,中國兼顧安全與發(fā)展,探索人工智能監(jiān)管與創(chuàng)新發(fā)展的平衡,對AI應(yīng)用分級分類開展監(jiān)管政策制定工作。


【資料圖】

國內(nèi)外人工智能監(jiān)管現(xiàn)狀

人工智能具有復(fù)雜性、不可預(yù)測性、自主性、缺乏透明度等特征,由此帶來數(shù)據(jù)爬取、算法偏見、歧視內(nèi)容、科技倫理等各種議題,給人工智能的發(fā)展帶來巨大挑戰(zhàn)。如何在促進(jìn)創(chuàng)新和保護(hù)公眾利益之間取得平衡,成為各國監(jiān)管機(jī)構(gòu)面臨的共同挑戰(zhàn)。

1. 歐盟:強(qiáng)監(jiān)管策略

歐盟強(qiáng)調(diào)個人基本權(quán)利的保護(hù)以及維護(hù)歐盟內(nèi)部市場的統(tǒng)一。2021年4月,歐盟提出《人工智能法案》草案,計劃在2024年開始執(zhí)行對人工智能產(chǎn)品的強(qiáng)制監(jiān)管。《人工智能法案》根據(jù)不同安全生產(chǎn)風(fēng)險等級,將人工智能系統(tǒng)分為以下四個類別,并采取不同的監(jiān)管措施:

歐盟委員會、歐洲理事會和歐洲議會計劃于今年4月份進(jìn)行《人工智能法案》細(xì)節(jié)的談判,但ChatGPT的出現(xiàn)很可能會推遲談判的時間。其爭議的焦點在于生成式AI系統(tǒng)是否應(yīng)該被列在“高風(fēng)險”名單,以及監(jiān)管是否會阻礙人工智能的創(chuàng)新發(fā)展。

意大利監(jiān)管機(jī)構(gòu)在2023年2月宣布取締一款美國研發(fā)的聊天機(jī)器人“Replika”,理由是它不符合透明度要求,非法處理個人數(shù)據(jù),違反了歐盟《通用數(shù)據(jù)保護(hù)條例》。3月31日,意大利個人數(shù)據(jù)保護(hù)局宣布,從即日起禁止使用ChatGPT,并限制OpenAI公司處理意大利用戶信息,同時個人數(shù)據(jù)保護(hù)局開始立案調(diào)查。

美國發(fā)布的人工智能監(jiān)管文件較少,更多依靠地方自治、行業(yè)規(guī)則和個人訴訟等方式解決生成式AI帶來的問題,監(jiān)管導(dǎo)向以促進(jìn)人工智能發(fā)展為主要目標(biāo)。

2020年1月,白宮科技政策辦公室發(fā)布《人工智能應(yīng)用監(jiān)管指南》,該指南關(guān)注到AI系統(tǒng)在整個設(shè)計、開發(fā)、部署和操作過程中對算法和數(shù)據(jù)保護(hù)不足的風(fēng)險,并提出一系列風(fēng)險評估與管理方案,但其重點仍為確保監(jiān)管規(guī)則不阻礙人工智能的發(fā)展。2022年10月,白宮科技政策辦公室發(fā)布《人工智能權(quán)利法案藍(lán)圖》,其目的是支持制定政策和實踐,列出了美國公眾應(yīng)該享有的五項核心權(quán)利保護(hù):不受不安全或低效系統(tǒng)所害、不受算法和系統(tǒng)歧視、個人隱私受到保護(hù)、知曉人工智能系統(tǒng)的使用并理解人工智能如何和為何產(chǎn)生最后的結(jié)果、有權(quán)選擇不使用人工智能技術(shù)。2023年1月,美國商務(wù)部NIST發(fā)布《人工智能風(fēng)險管理框架》,該框架將可信度考量納入設(shè)計、開發(fā)、使用和評估AI產(chǎn)品、服務(wù)和系統(tǒng)中,并基于其他機(jī)構(gòu)的AI風(fēng)險管理工作,確保制定過程的公開、透明,增強(qiáng)人工智能可信度,降低人工智能技術(shù)應(yīng)用的風(fēng)險。

英國傾向于依靠部門監(jiān)管機(jī)構(gòu),建立一個靈活和有利于創(chuàng)新的監(jiān)管框架,以促進(jìn)技術(shù)進(jìn)步并保持人工智能全球領(lǐng)先的地位。3月29日,英國政府發(fā)布針對人工智能產(chǎn)業(yè)監(jiān)管的白皮書,提出AI治理的五項原則:安全性和穩(wěn)健性、透明度和可解釋性、公平性、問責(zé)制和管理,以及可競爭性。未來,監(jiān)管機(jī)構(gòu)將基于五項原則向相關(guān)組織發(fā)布實用指南并推動立法。

總體而言,美國和英國對人工智能的監(jiān)管相對寬松,鼓勵創(chuàng)新,避免過度干預(yù)人工智能產(chǎn)業(yè)發(fā)展。

3. 中國:兼顧安全與發(fā)展

中國在人工智能方面陸續(xù)出臺多部政策文件,早期以人工智能產(chǎn)業(yè)促進(jìn)為主,部分地方政府先試先行,提出人工智能治理的具體規(guī)范。近年來逐步關(guān)注人工智能倫理道德、算法治理及行業(yè)應(yīng)用安全。

在促進(jìn)人工智能產(chǎn)業(yè)發(fā)展方面,中國發(fā)布了多個產(chǎn)業(yè)政策文件,包括《新一代人工智能發(fā)展規(guī)劃》《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃》和《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設(shè)工作指引》等。地方層面,深圳和上海等先后出臺《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》和《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》,積極推進(jìn)人工智能與經(jīng)濟(jì)、生活、城市治理等領(lǐng)域深度融合,促進(jìn)鼓勵人工智能創(chuàng)新發(fā)展。

在倫理道德方面,2022年3月,中辦國辦印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,對科技倫理治理作出頂層設(shè)計和系統(tǒng)部署,解決AI帶來的社會規(guī)范失序、倫理道德等問題。2023年4月,科技部就《科技倫理審查辦法(試行)》公開征求意見,提出從事人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會,對涉及數(shù)據(jù)和算法的科技活動,應(yīng)符合國家有關(guān)數(shù)據(jù)安全的規(guī)定。

在算法治理方面,2021年9月國家網(wǎng)信辦等印發(fā)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,首次明確了加快構(gòu)建算法安全監(jiān)管體系的要求。同年12月,網(wǎng)信辦等發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,要求算法推薦服務(wù)提供者保護(hù)用戶權(quán)益、履行算法備案等義務(wù)并特別強(qiáng)調(diào)未成年人保護(hù)。

在行業(yè)應(yīng)用安全方面,2022年11月,國家網(wǎng)信辦等聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,該規(guī)定明確生成式AI應(yīng)用服務(wù)提供者、技術(shù)支持者和服務(wù)使用者等各方的法定義務(wù)。4月11日,國家網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,從國家層面支持人工智能技術(shù)發(fā)展,對提供生成式人工智能產(chǎn)品或服務(wù)的提供者以及用戶均做出詳細(xì)規(guī)定。一是提供者應(yīng)保證內(nèi)容真實準(zhǔn)確、尊重社會公德、公序良俗,訓(xùn)練數(shù)據(jù)應(yīng)合法合規(guī),人工標(biāo)注規(guī)則應(yīng)清晰、具體、可操作,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭;二是對用戶來說,要求提供真實身份信息。

總體而言,中國對人工智能采取發(fā)展與安全并重的策略,在大力促進(jìn)人工智能技術(shù)應(yīng)用的同時,也從多維度、多層級、多領(lǐng)域探索人工智能的治理之道。

探索人工智能監(jiān)管創(chuàng)新發(fā)展的平衡

當(dāng)前,不少人工智能公司擔(dān)心ChatGPT會引發(fā)更高的監(jiān)管要求。根據(jù)行業(yè)機(jī)構(gòu)appliedAI的調(diào)查顯示,51%的從業(yè)者預(yù)計,受歐盟《人工智能法案》的影響,公司的人工智能研發(fā)將放緩。人工智能是科技強(qiáng)國必爭之地,我國在進(jìn)行人工智能監(jiān)管時,保護(hù)公眾利益的同時又不過度限制人工智能的創(chuàng)新發(fā)展顯得尤為重要。

第一,推動形成具有廣泛共識的國際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。政策制定過程應(yīng)鼓勵公私合作,積極吸收學(xué)術(shù)界、產(chǎn)業(yè)界和民間社會的意見,以更好地了解技術(shù)趨勢和行業(yè)需求,制定切實可行的政策,促進(jìn)人工智能的發(fā)展和創(chuàng)新。同時,鼓勵跨國界的交流合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范。

第二,對AI系統(tǒng)分類監(jiān)管。歐盟發(fā)布的《人工智能法案》將AI系統(tǒng)分為四個類別進(jìn)行治理的方式值得借鑒。分類監(jiān)管是一種基于風(fēng)險的監(jiān)管形式,強(qiáng)調(diào)的是監(jiān)管不應(yīng)以消除所有潛在損害為目標(biāo),而應(yīng)關(guān)注潛在不利后果的概率及影響。針對不同風(fēng)險程度的人工智能應(yīng)用采取相應(yīng)的監(jiān)管措施,這樣可以在保護(hù)公眾利益的同時促進(jìn)人工智能的創(chuàng)新發(fā)展。

第三,政策保持靈活性的同時守住安全底線。針對人工智能領(lǐng)域快速變化的環(huán)境,政策制定者應(yīng)具備靈活性和適應(yīng)性,隨時根據(jù)評估結(jié)果進(jìn)行調(diào)整,以確保政策不會對創(chuàng)新產(chǎn)生不利影響。同時,守住安全的底線不能動搖,在人工智能的技術(shù)與場景中,同樣需要秉持發(fā)展與安全并重的理念,確保各項技術(shù)行穩(wěn)致遠(yuǎn)。

關(guān)鍵詞:

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com