頻踩道德紅線 亞馬遜延長對自家人臉識別軟件用于執(zhí)法禁令

發(fā)布時間:2021-06-16 14:07:15  |  來源:IT之家  

亞馬遜已經(jīng)延長了對自家人臉識別軟件用于執(zhí)法的禁令,“直到另行通知”。該禁令之前設定為期一年,原定于六月到期。亞馬遜沒有立即回應為何延長這一禁令。

早在 2018 年,亞馬遜員工就曾力促亞馬遜縮減這一項目的規(guī)模 —— 他們認為,有記載的人臉識別種族偏見,可能加劇當?shù)鼐綄ι贁?shù)族裔的暴力行為。

亞馬遜一直為該項目辯護,直到去年 6 月,當時抗議活動的壓力越來越大,亞馬遜這才宣布,面向警方客戶的服務暫停一年。

Rekognition 屬于 AWS 所提供的一項服務,其實許多亞馬遜在云計算領域的競爭對手都具有類似的技術。就在亞馬遜做出承諾的第二天,微軟也宣布了類似聲明,稱將不會向當?shù)鼐匠鍪燮涿娌孔R別服務。

而 IBM 在同一周內(nèi)也表示,將停止開發(fā)或研究面部識別技術;谷歌則表示不會向任何人提供面部識別技術的商用。

去年夏天,關于人臉識別技術的道德性問題甚囂塵上。麻省理工學院媒體實驗室的研究員 Joy Buolamwini 和微軟研究院的 Timnit Gebru,都致力于揭示人臉識別技術在種族偏見方面的偏見。兩人做了不少基礎性工作,其中有一篇共同撰寫的論文被廣泛引用。

該論文指出,包括 IBM 和 Microsoft 在內(nèi)的主要科技公司,他們的人臉識別系統(tǒng),用于識別膚色較黑的人的錯誤率,比識別膚色較白的人要高幾十個百分點。根據(jù)《紐約時報》的一份報告,問題部分在于用于訓練系統(tǒng)的數(shù)據(jù)集,其中絕大多數(shù)可能是男性和白人。

在 2019 年的另一項研究中,Buolamwini 和另一位學者分析了 Rekognition,發(fā)現(xiàn)亞馬遜的系統(tǒng)也存在重大問題,無法識別膚色較黑的人的性別,以及誤以膚色較黑的婦女為男性。研究發(fā)現(xiàn),該系統(tǒng)在分析膚色較淺的人的圖像時的錯誤率幾乎為零。

在之前首次宣布禁用于執(zhí)法時,亞馬遜曾表示,希望國會利用這段服務暫停的時間,來調(diào)整人臉識別技術的法律法規(guī)。

當時亞馬遜在聲明中曾表示,“我們主張政府制定更嚴格的法規(guī)來管理人臉識別技術使用的道德問題,期望這一為期一年的暫停,可以使國會有足夠的時間出臺適當?shù)囊?guī)則,并且我們隨時準備根據(jù)要求提供幫助。”

但到目前為止,還沒有聯(lián)邦立法解決警方與人臉識別技術的矛盾,但是許多州或地方政府已經(jīng)通過了相關規(guī)定,決定減少這一技術的使用。

2019 年 5 月,舊金山成為美國第一個禁止政府使用人臉識別的城市,奧克蘭緊隨其后;俄勒岡州和緬因州波特蘭的城市也通過立法。

去年 12 月,馬薩諸塞州有過一項類似的禁令草案,但當時并未獲得通過,不過最近通過了一項修改后的法案,對警方使用人臉識別一事增加了一些限制。

去年 7 月,紐約州立法機構剛剛通過了一項法令,禁止在學校中使用人臉識別和其他生物特征識別技術,直至 2022 年。

另外,就在上個月,歐盟也發(fā)布了一項監(jiān)管人工智能使用的提案:《關于“歐洲議會和理事會條例:制定人工智能的統(tǒng)一規(guī)則(人工智能法案)并修訂某些聯(lián)盟立法”的提案》。

該提案規(guī)定了企業(yè)和政府應如何使用人工智能技術,長達 108 頁,對人工智能在一系列活動中的使用都進行了限制,其中就包括限制警方在公共場合使用人臉識別軟件。

這些領域因其可能對人們的安全或基本權利造成威脅,而被歐盟視為“高風險”領域。不過,出于國家安全和其他目的的應用,可能會有一些豁免權。根據(jù)該提案要求,歐盟將有可能對違規(guī)最嚴重的公司處以相當于其全球年銷售額 6% 的罰款。

關鍵詞: 道德紅線 亞馬遜 人臉識別 執(zhí)法禁令

 

網(wǎng)站介紹  |  版權說明  |  聯(lián)系我們  |  網(wǎng)站地圖 

星際派備案號:京ICP備2022016840號-16 營業(yè)執(zhí)照公示信息版權所有 郵箱聯(lián)系:920 891 263@qq.com