人臉識別再遇“緊箍咒”。當(dāng)?shù)貢r間10月6日,歐洲議會以377票贊成、248票反對、62票棄權(quán)的結(jié)果通過決議,要求執(zhí)法機構(gòu)在使用人工智能工具時,要采取強有力的保障措施,比如禁止警方在公共場所或邊境檢查中實行大規(guī)模人臉識別,禁止使用私域人臉識別數(shù)據(jù)庫以及根據(jù)行為特征進(jìn)行預(yù)測性監(jiān)管等。
實際上,包括人臉識別在內(nèi)的人工智能工具在警務(wù)活動中已經(jīng)被應(yīng)用了很長的時間。不過,直到近年來,其風(fēng)險才被廣泛重視,比如AI存在對少數(shù)民族、LGBT人群、老年人和女性的歧視等。歐洲議會許多議員認(rèn)為,將存在算法偏見的AI技術(shù)大規(guī)模應(yīng)用于執(zhí)法領(lǐng)域,所帶來的損害公民基本權(quán)利的風(fēng)險,遠(yuǎn)遠(yuǎn)超過AI給破案帶來的便利。因此,需要對其進(jìn)行嚴(yán)格限制。
禁止用AI大規(guī)模監(jiān)測人群,“不能假設(shè)所有人都危險”
這份決議主要是針對的是警察和司法機關(guān)在犯罪問題上對AI的使用。據(jù)歐洲議會官網(wǎng)消息,該決議主要內(nèi)容可以總結(jié)為三項:第一,人工智能系統(tǒng)應(yīng)該處在人類監(jiān)督之下,算法應(yīng)該是開放的;第二,禁止使用私域人臉識別數(shù)據(jù)庫,基于行為數(shù)據(jù)進(jìn)行預(yù)測性監(jiān)管和公民評分;第三,
生物識別不能被用于邊境控制和公共空間。
歐洲議會表示,該決議的出發(fā)點是為打擊歧視以及確保隱私權(quán)?!叭斯ぶ悄茉趫?zhí)法領(lǐng)域的應(yīng)用提供了巨大機遇,特別是能夠有效打擊金融犯罪如洗錢、恐怖主義融資,以及網(wǎng)絡(luò)犯罪如虐待兒童等,有助于歐盟公民的安全保障。但同時,數(shù)據(jù)顯示AI識別對少數(shù)民族、LGBT人群、老年人和女性的誤識率更高,這可能對人們的基本權(quán)利構(gòu)成重大風(fēng)險。”該決議認(rèn)為,鑒于AI在可靠性和準(zhǔn)確性方面仍然存疑,任何以大規(guī)模監(jiān)測為目的的AI全面應(yīng)用,其風(fēng)險和效果是不成比例的,也因此,在執(zhí)法領(lǐng)域,對AI的使用必須始終保持人的責(zé)任,并首先以避免造成任何有害影響為目標(biāo)。
該決議強調(diào),當(dāng)個人過度相信人工智能工具表面上客觀和科學(xué)的性質(zhì),而沒有考慮其結(jié)果不正確、不完整、無關(guān)或歧視性的可能性時,可能會產(chǎn)生嚴(yán)重的負(fù)面后果。因此,算法應(yīng)該是透明的、可追溯的,并有充分的文件記錄。而執(zhí)法和司法機關(guān)應(yīng)避免過度依賴人工智能系統(tǒng)提供的結(jié)果,并建立信心和知識,以質(zhì)疑或推翻算法建議。
此外,該決議還反對執(zhí)法機構(gòu)利用人工智能,根據(jù)歷史數(shù)據(jù)和過去的行為、群體成員、位置或任何其他此類特征,對個人或群體進(jìn)行行為預(yù)測,從而試圖識別可能犯罪的人,并呼吁永久禁止在公共場所進(jìn)行生物識別,如步態(tài)、指紋、DNA、聲音等特征和信號。
也就是說,該決議認(rèn)為警察可以在確定嫌疑人目標(biāo)的情況下,利用AI工具對嫌疑人進(jìn)行追蹤;但不能在嫌疑人未知時,用生物識別等AI手段對人群進(jìn)行大規(guī)模監(jiān)測,去尋找誰是嫌疑人,或者基于行為數(shù)據(jù),預(yù)測“誰接下來可能會犯罪”。“當(dāng)局在犯罪發(fā)生后做出反應(yīng),而不是假設(shè)所有人都是危險的?!?
這一決議的影響還可能延伸至非歐盟國家。決議中強調(diào),歐盟司法合作執(zhí)行機構(gòu)在處理其他國家的引渡請求時,有必要評估請求國使用人工智能工具“是否可能明顯損害嫌疑人獲得公平審判的基本權(quán)利”。
值得一提的是,決議條文中多使用的是呼吁、鼓勵、強調(diào)等詞匯,其實際效力如何仍有待觀察。
AI在警務(wù)活動中已被長期應(yīng)用,存在算法歧視現(xiàn)象
實際上,包括人臉識別在內(nèi)的人工智能工具在警務(wù)活動中已經(jīng)被應(yīng)用了很長的時間,不過,直到近年來,其風(fēng)險才被廣泛重視。
據(jù)報道,早在本世紀(jì)初,美國佛羅里達(dá)州皮尼拉斯縣警察局就開始使用人臉識別來破案,現(xiàn)在,該系統(tǒng)已經(jīng)能夠訪問3000多萬張圖像。
2017年,英國南威爾士警方啟動了一項人臉識別試驗計劃,在當(dāng)年6月舉行的歐冠決賽上,警方將觀眾與已有的50萬張人臉圖的數(shù)據(jù)庫進(jìn)行比對標(biāo)識,結(jié)果系統(tǒng)共發(fā)出2470次警報,其中有2297次錯誤,173次正確,錯誤率高達(dá)92%。經(jīng)過改進(jìn),南威爾士警方又在兩次大型體育比賽中進(jìn)行試驗,最終將錯誤率降至87.5%。
盡管如此,在接下來的三年內(nèi),南威爾士警方仍在轄區(qū)內(nèi)多地部署了人臉識別設(shè)備。該設(shè)備掃描路人的人臉并提取生物特征數(shù)據(jù),再通過后臺數(shù)據(jù)庫比對來發(fā)現(xiàn)通緝犯等可疑人員。
近兩年來,美國也已有至少三起訴訟,起因于警方使用人臉識別技術(shù)卻抓錯了人。第一起案例的當(dāng)事人是來自底特律的羅伯特?威廉姆斯,底特律警方曾指控他犯有盜竊罪,將他拘留了30個小時。第二起案例當(dāng)事人叫邁克爾?奧利弗,他同樣來自底特律,因被人臉識別判定涉嫌盜竊罪被關(guān)了十天半。第三起案例當(dāng)事人名為尼爾?帕克斯,他被40公里之外的伍德布里奇市警方認(rèn)定為一起盜竊案的嫌疑人,拘留十天。然而,帕克斯表示自己有不在場證明,且他的指紋、DNA等信息與犯罪現(xiàn)場的信息并不匹配。
上述三起案例的當(dāng)事人,均為黑人。算法出現(xiàn)的歧視問題,已經(jīng)引起人們的注意。
麻省理工學(xué)院和美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的研究顯示,因為缺乏多元化的基礎(chǔ)數(shù)據(jù)庫,美國的許多人臉識別技術(shù)對有色人種的識別準(zhǔn)確度較差。實際生活中,也發(fā)生了多起黑人遭遇算法歧視事件。此前,南都就曾報道Twitter的圖像剪裁算法,會傾向于裁掉更多的黑人或女性;Facebook的自動推薦算法,也出現(xiàn)把黑人識別為“靈長類動物”的情況。
此次歐洲議會通過限制執(zhí)法機構(gòu)使用人工智能的決議,核心基礎(chǔ)之一就是AI存在對少數(shù)民族、LGBT人群、老年人和女性的歧視。許多議員們認(rèn)為,將存在算法偏見的AI技術(shù)大規(guī)模應(yīng)用于執(zhí)法領(lǐng)域,所帶來的損害公民基本權(quán)利的風(fēng)險,遠(yuǎn)遠(yuǎn)超過AI給破案帶來的便利。因此,需要對其進(jìn)行嚴(yán)格限制。
已有多地出臺法規(guī),對生物識別技術(shù)等進(jìn)行監(jiān)管。在美國,波特蘭、奧克蘭、舊金山、波士頓等城市都已禁止政府使用人臉識別技術(shù)。今年7月,紐約也出臺法規(guī),要求收集生物識別信息(如面部和指紋)的企業(yè)必須在門口張貼顯眼的標(biāo)識,向顧客說明企業(yè)正在收集顧客的生物識別信息,并禁止企業(yè)出售或交易生物識別信息。不過,該法規(guī)對包括警方在內(nèi)的政府機構(gòu)不適用。
歐盟對生物識別的監(jiān)管更為嚴(yán)厲。今年4 月,歐盟提出一項旨在加強人工智能行業(yè)監(jiān)管的草案,將人臉識別等遠(yuǎn)距離生物識別系統(tǒng)認(rèn)定為“高風(fēng)險”,并“原則上禁止”執(zhí)法部門在公共場合使用這一技術(shù),除非發(fā)生兒童失蹤、恐怖襲擊、甄別犯罪分子等情況。
在我國,對于人臉識別等人工智能技術(shù)的監(jiān)管也日趨嚴(yán)格。8月20日立法通過的《個人信息保護(hù)法》就明確規(guī)定:在公共場所安裝圖像采集、個人身份識別設(shè)備,應(yīng)當(dāng)為維護(hù)公共安全所必需,遵守國家有關(guān)規(guī)定,并設(shè)置顯著的提示標(biāo)識。所收集的個人圖像、身份識別信息只能用于維護(hù)公共安全的目的,不得用于其他目的;取得個人單獨同意的除外。