
6月24日,美國(guó)馬薩諸塞州的首府和最大城市波士頓的市議會(huì)以13票贊成、0票反對(duì)的結(jié)果通過(guò)了《波士頓禁止人臉監(jiān)控技術(shù)條例(Ordinance Banning Face Surveillance Technology in Boston)》。

條例規(guī)定,波士頓市的任何市政機(jī)關(guān)和公務(wù)員均不得獲取、保留、擁有、使用人臉監(jiān)控系統(tǒng)及通過(guò)此類系統(tǒng)獲得的信息,而且不能通過(guò)與第三方合作繞過(guò)條例。違反條例規(guī)定獲取的人臉監(jiān)控?cái)?shù)據(jù)將被視為違法數(shù)據(jù),一經(jīng)發(fā)現(xiàn)會(huì)被刪除。
市政府官員表示,波士頓警察局此前并未使用過(guò)該技術(shù),但警局目前使用的一款名為BriefCam的視頻分析軟件,它的升級(jí)版確實(shí)有人臉識(shí)別功能。波士頓警方在市議會(huì)的工作會(huì)議上表示,他們不會(huì)注冊(cè)這部分軟件更新。
此次條例通過(guò),等于從源頭掐滅該項(xiàng)技術(shù)在波士頓的使用。

目前,在禁用人臉識(shí)別的城市里,波士頓城市規(guī)模排第二,僅次于舊金山。
而舊金山和波士頓,一個(gè)是推特、愛(ài)彼迎和優(yōu)步的總部所在地;一個(gè)是哈佛、MIT等知名高校的所在地。都是充滿了科技活力的地區(qū),為什么會(huì)自己禁止人臉識(shí)別這種先進(jìn)的人工智能相關(guān)技術(shù)?
反對(duì)者們提出了兩個(gè)原因:
第一,他們認(rèn)為這項(xiàng)技術(shù)將威脅到公民權(quán)利,第二,他們認(rèn)為面部識(shí)別技術(shù)存在缺陷,將導(dǎo)致嚴(yán)重的種族問(wèn)題。
在種族抗議活動(dòng)愈演愈烈的當(dāng)下,第二條原因更為重要。
提出了該法案的波士頓市議員里卡多·阿羅約(Ricardo Arroyo)與市議員吳弭(Michelle Wu)指出,這項(xiàng)技術(shù)對(duì)于有色人種來(lái)說(shuō)是非常不準(zhǔn)確的。
"它有明顯的種族偏見(jiàn),這很危險(xiǎn),"阿羅約在聽(tīng)證會(huì)前說(shuō)。
法案中稱,“已有證據(jù)表明,人臉識(shí)別技術(shù)在識(shí)別非裔和亞裔人群體時(shí)準(zhǔn)確率更低。人臉識(shí)別監(jiān)控中的種族偏見(jiàn)有可能傷害有色人種群體,而有色人種本身就已經(jīng)受到更多的監(jiān)控和騷擾?!?/p>
在周三的會(huì)議上和投票前,吳弭表示,波士頓不應(yīng)該使用種族歧視的技術(shù)。"我們正在努力結(jié)束系統(tǒng)性的種族主義,所以,結(jié)束對(duì)有色人種社區(qū)的過(guò)度監(jiān)視需要成為其中的一部分。"
值得一提的是,吳弭是美籍華裔議員,父母從臺(tái)灣移民至美國(guó),她也是波士頓第一個(gè)當(dāng)上市議員的亞裔女性。

紐約時(shí)報(bào)曾在一篇文章中提到,人臉識(shí)別在針對(duì)有色皮膚時(shí)錯(cuò)誤率明顯增大。
MIT媒體實(shí)驗(yàn)室(MIT Media Lab)研究員Joy Buolamwini與來(lái)自微軟的科學(xué)家Timnit Gebru合作的一篇研究論文《性別圖譜:商用性別分類技術(shù)中的種族準(zhǔn)確率差異》(Gender Shades: Intersectional Accuracy Disparitiesin Commercia lGender Classification)中,作者將微軟、IBM和曠視科技三家人臉識(shí)別技術(shù)進(jìn)行對(duì)比,結(jié)果顯示,AI應(yīng)用人臉識(shí)別針對(duì)黑人女性的錯(cuò)誤率高達(dá)21%-35%,而針對(duì)白人男性的錯(cuò)誤率則低于1%,不同種族的準(zhǔn)確率差異巨大。
紐約時(shí)報(bào)稱,該項(xiàng)研究也引發(fā)了關(guān)于“AI是否存在社會(huì)不公甚至種族歧視問(wèn)題”的探討,但顯然并不是。膚色較深女性較難識(shí)別,除了天然人臉特征更難提取之外,可供訓(xùn)練的數(shù)據(jù)集較少也是影響因素之一。
文章表示,當(dāng)下的人工智能是數(shù)據(jù)為王,數(shù)據(jù)的好壞和多少會(huì)影響AI的智能程度。因而,如果用來(lái)訓(xùn)練AI模型的數(shù)據(jù)集中,白人男性的數(shù)據(jù)多于黑人女性,那么系統(tǒng)對(duì)后者的識(shí)別能力就會(huì)不如前者。
現(xiàn)有的數(shù)據(jù)集中存在這一現(xiàn)象,比如根據(jù)另一項(xiàng)研究的發(fā)現(xiàn),一個(gè)被廣泛使用的人臉識(shí)別數(shù)據(jù)集中,75%都是男性,同時(shí)80%是白人。
曠視回應(yīng)表示,深色人種數(shù)據(jù)集比較難獲得,所以會(huì)差一些;另外,使用RGB攝像頭進(jìn)行人臉識(shí)別時(shí),深膚色人的人臉特征比較難找,特別是在暗光條件下,這也是一方面的原因。

也是因?yàn)槿绱?,今?月初,IBM致信美國(guó)國(guó)會(huì)議員,宣布公司將退出通用的面部識(shí)別業(yè)務(wù),并表示反對(duì)將這種技術(shù)用于大規(guī)模監(jiān)控和種族定性分析。

在本月早些時(shí)候的聽(tīng)證會(huì)上,波士頓警察局長(zhǎng)威廉·格羅斯說(shuō),目前的技術(shù)并不可靠,而且該部門也沒(méi)有使用這項(xiàng)技術(shù)。
"在這項(xiàng)技術(shù)100%準(zhǔn)確之前,我對(duì)它不感興趣,"他說(shuō)。"我沒(méi)有忘記我是非洲裔美國(guó)人,我也會(huì)被誤認(rèn)。"他補(bǔ)充道。
不過(guò),波士頓的禁令并不會(huì)影響私人公司或聯(lián)邦機(jī)構(gòu)(如FBI)使用該技術(shù)。
除了波士頓和舊金山外,馬薩諸塞州的其他五個(gè)社區(qū)——薩默維爾,布魯克林,北安普頓,斯普林菲爾德和劍橋也有此條禁令。美國(guó)公民自由聯(lián)盟馬薩諸塞州分會(huì)推動(dòng)了這些地方的禁令,并正在游說(shuō)州立法者采取行動(dòng)。
目前還沒(méi)有全州范圍內(nèi)的禁令,不過(guò)一項(xiàng)暫停使用人臉識(shí)別系統(tǒng)的法案目前正在馬薩諸塞州聯(lián)合司法委員會(huì)待審。