王春暉:應(yīng)當高度關(guān)注ChapGPT的倫理問題|當前動態(tài)

發(fā)布時間:2023-03-31 15:29:48  |  來源:春暉大地  

(CWW)最近,火爆全球的ChapGPT,其應(yīng)用引發(fā)的倫理與安全挑戰(zhàn)日益凸顯。3月30日,非營利組織人工智能與數(shù)字政策中心(CAIDP)向美國聯(lián)邦貿(mào)易委員會(FTC)投訴稱:GPT-4“有偏見性,欺騙性,對隱私和公共安全構(gòu)成風險”。CAIDP認為,OpenAI違反了FTC對人工智能(AI)產(chǎn)品的指導(dǎo),并違反了FTC法案第5條,該法案禁止不公平和欺騙性的商業(yè)行為。3月29日,一份由一千多名科技專家簽署的題為《暫停大型人工智能研究》公開信引起了全球的廣泛關(guān)注,這些科技專家包括圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、特斯拉CEO埃隆·馬斯克(Elon Musk)、蘋果公司聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克(Steve Wozniak)、DeepMind高級研究科學家扎卡里·肯頓(Zachary Kenton)等AI領(lǐng)域的企業(yè)家、學者、高管。

筆者注意到,這些AI專家們在信中強烈呼吁:所有AI研究室立刻暫停訓(xùn)練比GPT-4更加強大的AI系統(tǒng),為期至少6個月,并建議各大企業(yè)、機構(gòu)共同開發(fā)一份適用于AI研發(fā)的安全協(xié)議,同時信中還提到各國政府應(yīng)當在必要的時候介入其中。截至目前,已有1125人簽名支持這封公開信。公開信中指出,目前AI技術(shù)在很多領(lǐng)域已經(jīng)取得了很大的進展,但是這些進展也帶來了一些潛在的危險。例如,一些研究人員擔心,超強的AI可能會在未來對人類產(chǎn)生威脅,因此需要對這項技術(shù)進行更加深入的研究和探討。此外,公開信中還提到了AI技術(shù)可能會對社會帶來的影響。例如,一些人擔心AI技術(shù)可能會取代很多人類工作,從而導(dǎo)致失業(yè)率的增加。此外,一些人還擔心AI技術(shù)可能會對社會的隱私和安全造成威脅。


(資料圖)

因此,這份公開信呼吁暫停大型的AI項目,以便對這項技術(shù)進行深入的研究和探討。此外,這份公開信還呼吁政府、學術(shù)界和產(chǎn)業(yè)界等各方加強對AI技術(shù)的監(jiān)管和控制,以確保這項技術(shù)能夠更好地服務(wù)于人類,而不是對人類產(chǎn)生威脅。

目前,世界多國教育系統(tǒng)及相關(guān)從業(yè)者已公開抵制ChatGPT。美國多所大學已宣布計劃減少居家評估,增加手寫論文和口試。紐約市、巴爾的摩和洛杉磯的學區(qū)都叫停了學校管理的網(wǎng)絡(luò)訪問聊天機器人。在澳大利亞,一些大學表示他們將恢復(fù)只使用監(jiān)考的筆試考試來評估學生。法國頂尖學府之一的巴黎政治學院也宣布禁止使用ChatGPT。

科技倫理是科技創(chuàng)新和科研活動中人與社會、人與自然以及人與人關(guān)系的思想與行為準則,它不只是涉及科學研究中的倫理,也不只是科研人員要遵守科技倫理,還包括科技成果應(yīng)用中的倫理??萍紓惱硎抢硇缘漠a(chǎn)物。其底層邏輯,要求科技創(chuàng)新和成果只能有益于或最大限度地有益于人、生物和環(huán)境,而不能損傷人、損害生物和破壞環(huán)境,即便不可避免地會不同程度地損人毀物——如藥物的副作用,也要把這種副作用減少到最低,甚至為零。在具體的倫理規(guī)則上,還應(yīng)兩利相權(quán)取其大、兩害相衡擇其輕。

生成式AI(Generative AI或AIGC)是利用現(xiàn)有文本、音頻文件或圖像創(chuàng)建新內(nèi)容的技術(shù)。ChatGPT是生成式AI的特定實現(xiàn) ,旨在生成文本以響應(yīng)對話設(shè)置中的用戶輸入,剛剛問世的ChatGPT已經(jīng)引發(fā)全球?qū)ι墒紸I倫理問題的高度關(guān)注。事實上,ChatGPT的應(yīng)用正在對社會結(jié)構(gòu)構(gòu)成了真實而迫在眉睫的三大威脅:一是數(shù)據(jù)安全的威脅,ChatGPT以海量信息“為食”,數(shù)據(jù)量越大、數(shù)據(jù)越新,其功能性越好。這意味著要保證良好的用戶體驗,它必須在社會各領(lǐng)域中獲取足夠多和準確的知識和信息,但問題在于,許多信息涉及商業(yè)機密、國家機密和個人隱私,獲取和利用這些信息本身存在合法性問題,一旦重要數(shù)據(jù)泄露,造成的損失到底是由泄露數(shù)據(jù)的人承擔,還是由披露數(shù)據(jù)的ChatGPT承擔;二是對人才教育的威脅,ChatGPT被學生用于完成作業(yè)和撰寫論文對教育界和學術(shù)界造成了重大的沖擊。調(diào)查顯示,美國有89%的學生用ChatGPT寫作業(yè),目前尚未研究出可準確檢測這種作弊行為的技術(shù)性方法。利用ChatGPT完成學業(yè)任務(wù)的高質(zhì)量和高效率遠超此前的系列解題軟件,它可以完美避開查重等問題,這使其極具誘惑力。人類教育的意義本來就是為了培養(yǎng)社會人才、推進人類歷史的進步,而ChatGPT作為當前智能機器人的一個前沿成果,卻替代人類完成人才培養(yǎng)的任務(wù),這是及其可怕的;三是意識形態(tài)滲透的威脅。ChatGPT的數(shù)據(jù)輸出功能承載著后臺技術(shù)操控者的話語權(quán),用戶越多、使用范圍越廣就意味著其話語權(quán)越大、價值滲透力越強。ChatGPT是有政治立場和價值取態(tài)的,操控者的價值觀存在歷史和文化的偏見、歧視,就會通過ChatGPT的“放大鏡”昭然于世,誤導(dǎo)用戶,扭曲大眾價值觀,引起社會動蕩,妨害社會公平正義。另一方面,在國際競爭日益激烈的背景下,各種社會思潮此起彼伏。ChatGPT一旦面向大眾,勢必會代表以美國為首的發(fā)達資本主義國家發(fā)起意識形態(tài)滲透的攻勢,成為意識形態(tài)滲透的重要工具。

早在2016年,標準制定組織IEEE就發(fā)布了一份題為《利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》的報告,該報告提出了一個發(fā)展人工智能的一般性原則,主要涉及AI可靠性以及高層次的倫理問題,報告認為,人工智能發(fā)展的一般性原則將適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時,主要考慮三大因素:一是體現(xiàn)人權(quán);二是優(yōu)先考慮最大化對人類和自然環(huán)境的好處;三是削弱人工智能的風險和負面影響。

筆者建議,各國在研發(fā)生成式AI時,應(yīng)當建立健全公開透明的AI監(jiān)管體系,重點在生成式AI的設(shè)計問責和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)上做充分的準備,實現(xiàn)對AI算法設(shè)計、產(chǎn)品開發(fā)和成果應(yīng)用等的全過程監(jiān)管。促進生成式AI行業(yè)和企業(yè)自律,切實加強生成式AI協(xié)同一體化的管理體系,加大對生成式AI領(lǐng)域數(shù)據(jù)濫用、算法陷阱、侵犯個人隱私、違背道德倫理等行為的懲戒力度。

在生成式AI技術(shù)研發(fā)的同時,要加強人工智能相關(guān)法律、倫理和社會問題的同步研究,尤其要關(guān)注生成式AI模仿人類傳播錯誤信息或?qū)⑸虡I(yè)無人機轉(zhuǎn)化為目標武器攻擊人類,建立和優(yōu)化保障生成式AI健康發(fā)展的法律法規(guī)和倫理道德框架。

法律研究領(lǐng)域要開展與AI應(yīng)用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權(quán)保護、機器倫理與破壞力評價等倫理與法律問題的交叉研究,建立生成式AI的可追溯和問責制度,明確人工智能的設(shè)計者、控制者、使用者等相關(guān)法律主體的權(quán)利、義務(wù)和責任。

建議各國進行生成式AI相關(guān)法律、倫理和社會問題的國際合作和交流,建立保障生成式AI健康發(fā)展的法律法規(guī)和倫理道德框架,確保人工智能在倫理規(guī)范和法律框架下健康發(fā)展,?勵跨學科、跨領(lǐng)域、跨地區(qū)、跨國界的交流與合作,推動形成具有?泛共識的??智能倫理治理框架和標準規(guī)范。

關(guān)鍵詞:

 

網(wǎng)站介紹  |  版權(quán)說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權(quán)所有 郵箱聯(lián)系:920 891 263@qq.com