您好,登錄后才能下訂單哦!
作者 | AI Now學(xué)院
譯者 | Raku
編輯 | Jane
【導(dǎo)讀】10月2日,紐約大學(xué)AI Now學(xué)院在紐約大學(xué)斯克博劇院(Skirball Theatre)組織召開了第四屆年度AI Now研討會(huì)。研討會(huì)邀請(qǐng)了業(yè)內(nèi)組織者、學(xué)者和律師帶來演講,并共同登臺(tái)探討相關(guān)工作,這次研討會(huì)圍繞五大熱議話題,重點(diǎn)探討了AI負(fù)面影響以及不斷擴(kuò)大的抵制聲潮。
五大熱議問題:
面部與情感識(shí)別
從“AI的偏見”向公正的轉(zhuǎn)變
城市、監(jiān)控、邊界
勞動(dòng)力、工人組織與 AI
AI 對(duì)氣候的影響
第一個(gè)小組討論了AI在警務(wù)與邊境控制中的用途;第二個(gè)小組與布魯克林的租戶組織者進(jìn)行了交談,他們反對(duì)房東在建筑物中使用面部識(shí)別系統(tǒng);第三個(gè)小組以民權(quán)律師為由起訴密歇根州,該小組使用了錯(cuò)誤且有偏見的算法;最后一個(gè)小組討論的重點(diǎn)是藍(lán)領(lǐng)技術(shù)人員,從亞馬遜倉庫到演出經(jīng)濟(jì)驅(qū)動(dòng)程序,向小組人員講解他們?cè)谶^去一年中的組織和重大成就。
AI Now聯(lián)合創(chuàng)始人凱特·克勞福德(Kate Crawford)和梅雷迪斯·惠特克(Meredith Whittaker)以總結(jié)一年來關(guān)鍵時(shí)刻的簡(jiǎn)短講話作為開場(chǎng)白,研討會(huì)上有四個(gè)小組在研討會(huì)上發(fā)表了看法,以下是他們演講的摘錄。
2019 年,公司和 政府都紛紛加大在公共住房、招聘和城市街道中推廣人臉識(shí)別的力度?,F(xiàn)在,一些美國航空公司甚至也用此來代替 登機(jī)牌,聲稱這樣會(huì)更方便。
同樣,情感識(shí)別也得到了更廣泛的應(yīng)用,通過解釋面部的微表情來“讀取”我們的內(nèi)在情緒。正如心理學(xué)家麗莎·費(fèi)爾德曼·巴 雷 特(Lisa Feldman Barret)在一份廣泛的調(diào)查報(bào)告中所表明的,這類人工智能相貌學(xué)沒有可靠的科學(xué)基礎(chǔ)。但是,它已經(jīng)在課堂和工作面試中,在人們不知情的情況下被使用了。
例如,喬治敦(Georgetown)隱私和技術(shù)中心獲得的文件顯示,未經(jīng)個(gè)人同意或未經(jīng)州、聯(lián)邦立法者的授權(quán),F(xiàn)BI和ICE一直在悄悄訪問駕照數(shù)據(jù)庫,對(duì)數(shù)百萬張照片進(jìn)行面部識(shí)別搜索。
但是今年,隨著ACLU的Kade Crockford、羅切斯特理工學(xué)院的Evan Selinger和東北大學(xué)的Woodrow Hertzog等學(xué)者和組織者呼吁對(duì)嚴(yán)格限制使用面部識(shí)別后,選民和立法者對(duì)這項(xiàng)技術(shù)的使用也開始采取相應(yīng)的舉措。第九巡回上訴法院最近裁定,F(xiàn)acebook可能因未經(jīng)用戶許可對(duì)照片進(jìn)行面部識(shí)別而被起訴,稱這是對(duì)隱私的侵犯。
由于媒體正義組織(Media Justice)等組織的領(lǐng)導(dǎo),今年5月,舊金山簽署了第一個(gè)面部識(shí)別禁令,隨后另外兩個(gè)城市也開始禁止面部識(shí)技術(shù)的應(yīng)用。并且現(xiàn)在有一位總統(tǒng)候選人承諾全國范圍內(nèi)的禁令;很多音樂家要求在音樂節(jié)上停止面部識(shí)別;還有一項(xiàng)名為《禁止生物特征住房壁壘法案》的聯(lián)邦法案,其目標(biāo)是在公共房屋中進(jìn)行面部識(shí)別。
同樣,面試識(shí)別的應(yīng)用在歐洲也不順利。英國議會(huì)委員會(huì)要求停止對(duì)面部識(shí)別的試驗(yàn),直到建立法律框架為止,而且最近發(fā)現(xiàn)布魯塞爾警方對(duì)這些AI工具的使用是非法的。
當(dāng)然,這些改變需要大量的工作。而且還要明確一點(diǎn),這不是需要完善技術(shù)或是消除偏差的問題??紤]到對(duì)監(jiān)視、跟蹤、逮捕的人種和收入的差異,即使是非常準(zhǔn)確的面部識(shí)別也會(huì)產(chǎn)生危害。正如凱特·克勞福德(Kate Crawford)最近在《自然》雜志上寫的那樣——消除對(duì)這些系統(tǒng)的偏差并不是重點(diǎn),它們“發(fā)生錯(cuò)誤時(shí)是危險(xiǎn)的,成功了則是有害的”。
今年,我們還看到了一些重要的變化,從只 關(guān)注技術(shù)層面的人工智能“去偏見”,轉(zhuǎn)向?qū)λ痉ü膶?shí)質(zhì)性 關(guān)注。
許多令人不安的事件在一定程度上推動(dòng)了這一點(diǎn)。
例如,密歇根州的前州長(zhǎng)里克·斯奈德(Rick Snyder)是一位技術(shù)主管,同時(shí)也是弗林特水危機(jī)的負(fù)責(zé)人,他決定在全州范圍內(nèi)安裝一個(gè)自動(dòng)化決策系統(tǒng),稱為MiDAS。它旨在自動(dòng)標(biāo)記涉嫌福利欺詐的工人。為了削減成本,該州安裝了MiDAS并解雇了整個(gè)欺詐檢測(cè)部門。但事實(shí)證明,93%的時(shí)間MiDAS系統(tǒng)都會(huì)出錯(cuò)。錯(cuò)誤地指控了40,000多名居民,從而引發(fā)了許多破產(chǎn)乃至自殺事件。但是,MiDAS只是緊縮政策的一部分,這些政策旨在讓窮人成為替罪羊。
AI Now政策總監(jiān)Rashida Richardson負(fù)責(zé)一個(gè)案例研究警察日常工作與預(yù)測(cè)性警務(wù)軟件之間聯(lián)系。她和她的團(tuán)隊(duì)發(fā)現(xiàn),在美國各地的許多警察部門中,預(yù)測(cè)性警務(wù)系統(tǒng)可能會(huì)使用來自種族主義和腐敗的警務(wù)記錄。
顯然,在這種情況下糾正偏差與刪除數(shù)據(jù)集中的變量無關(guān),需要改變的是警察制作數(shù)據(jù)的做法。人權(quán)數(shù)據(jù)分析小組的研究人員克里斯蒂安·盧姆(Kristian Lum)在她開創(chuàng)性工作“算法如何放大警務(wù)中的歧視性”問題中也表明了這一點(diǎn)。
最近,凱特·克勞福德(Kate Crawford)和AI Now藝術(shù)家研究員特雷弗·帕格倫(Trevor Paglen)還在他們的Training Humans展覽中探討了分類政治,這是首個(gè) 關(guān)注創(chuàng)建機(jī)器學(xué)習(xí)系統(tǒng)的訓(xùn)練數(shù)據(jù)的大型藝術(shù)展覽。這個(gè)項(xiàng)目從1963年Woody Bledsoe的第一個(gè)實(shí)驗(yàn),到最著名和使用最廣泛的基準(zhǔn)集,如Wilded Labeled Faces和ImageNet,回顧了AI訓(xùn)練集的歷史和邏輯。
今年9月,數(shù)百萬人上傳了他們的照片來看他們將如何被ImageNet分類。這是一個(gè)具有重大意義的問題。ImageNet是規(guī)范的對(duì)象識(shí)別數(shù)據(jù)集。它在塑造AI產(chǎn)業(yè)方面做得比其他公司都多。
雖然ImageNet的一些類別很奇怪,甚至很有趣,但數(shù)據(jù)集也充滿了極具問題的分類,其中許多是種族主義者和厭惡婦女主義者(misogynist)。Imagenet Roulette提供了一個(gè)界面,使人們可以查看AI系統(tǒng)如何對(duì)它們進(jìn)行分類??藙诟5拢–rawford)和帕格倫(Paglen)發(fā)表了一篇調(diào)查文章,展示了他們?nèi)绾卧诙鄠€(gè)基準(zhǔn)訓(xùn)練集上揭開它們的面紗,以揭示其體系結(jié)構(gòu)。
這也是為什么藝術(shù)和研究結(jié)合在一起有時(shí)比單獨(dú)時(shí)更有影響力的一個(gè)原因,這讓我們考慮由誰來定義我們所處的類別,以及會(huì)產(chǎn)生什么后果。
能源,分類和控制問題是今年在美國大規(guī)模部署公司監(jiān)視系統(tǒng)的前景。以亞馬遜的Ring為例,它是一款監(jiān)控?cái)z像頭和門鈴系統(tǒng),旨在讓人們能夠7*24小時(shí)全天候監(jiān)控家和附近地區(qū)。
亞馬遜正在與400多個(gè)警察部門合作推廣Ring,希望警察說服居民購買該系統(tǒng),這有點(diǎn)像把警察變成挨家挨戶推銷安防系統(tǒng)的銷售員。
作為交易的一部分,亞馬遜將持續(xù)獲得視頻片段;警察可以隨時(shí)調(diào)用他們想要的監(jiān)控的視頻。該公司已經(jīng)在這一領(lǐng)域申請(qǐng)了人臉識(shí)別專利,這表明他們希望能夠?qū)z像頭拍攝的對(duì)象與“可疑人員數(shù)據(jù)庫”進(jìn)行對(duì)比,從而有效地在全國范圍內(nèi)建立私有化的家庭監(jiān)控系統(tǒng)。
但是Ring并不是解決這個(gè)問題的最佳方案。正如Burku Baykurt,Molly Sauter和AI Now研究員Ben Green學(xué)者所表明的那樣,“智慧城市”的技術(shù)烏托邦式言論掩蓋了更深層次的不公正和不平等問題。
居民小區(qū)也在考慮這個(gè)問題。8月,圣地亞哥居民抗議安裝“智能”燈桿。今年6月,紐約州洛克波特市的學(xué)生和家長(zhǎng)抗議學(xué)校使用面部識(shí)別系統(tǒng),該系統(tǒng)能夠隨時(shí)追蹤和繪制任何學(xué)生或老師的信息,目前此系統(tǒng)已暫停使用。
這些工具最被濫用的地區(qū)之一是在美國南部邊境,在那里,ICE,海關(guān)和邊境巡邏隊(duì)正在部署AI系統(tǒng)。目前,有52,000名 移 民被關(guān)在監(jiān)獄、拘留所或其他限制自由的場(chǎng)所,還有4萬名無家可歸者在邊界的墨西哥一側(cè)等待庇護(hù)。到目前為止,在過去的一年中,有7名兒童在ICE羈押期間死亡,許多兒童面臨的食物和醫(yī)療不足。這些恐怖的事情確確實(shí)實(shí)在發(fā)生。
根據(jù)倡導(dǎo)組織Mijente的一份重要報(bào)告,我們知道,亞馬遜(Amazon)和Palantir等公司正在為ICE驅(qū)逐難民提供出境理由。為了反對(duì)以上的行為和組織,有數(shù)十所大學(xué)的2000多名學(xué)生簽署了不與Palantir合作的承諾,在與ICE簽約的科技公司總部,幾乎每周都有抗議活動(dòng)。
4、勞動(dòng)力,工人組織與AI
當(dāng)我們審視AI領(lǐng)域日益增長(zhǎng)的多樣性問題時(shí),種族,階級(jí)和性別等方面的結(jié)構(gòu)性歧視問題將得到充分顯示。
4月,AI Now發(fā)布了由AI Now博士后Sarah Myers West負(fù)責(zé)的Discriminate Systems。這項(xiàng)研究展示了AI內(nèi)部歧視性文化與AI系統(tǒng)中嵌入的偏差與歪曲事實(shí)之間的反饋回路。調(diào)查結(jié)果令人震驚,正如AI行業(yè)將自己確立為財(cái)富和權(quán)力的紐帶一樣,它也變得更加同質(zhì)。這一領(lǐng)域顯然存在一個(gè)普遍的問題。
但是也有越來越多的人呼吁變化。最早呼吁問責(zé)的人之一是肯尼亞研究生阿瓦·姆博雅(Arwa Mboya)。從Google 罷工到Riot Games,再到與CEO面對(duì)面的Microsoft員工,我們已經(jīng)看到了多家科技公司的一系列罷工和抗議,所有都要求消除工作中的種族和性別不平等。
現(xiàn)在,AI Now聯(lián)合創(chuàng)始人梅雷迪思·惠特克(Meredith Whittaker)于今年早些時(shí)候離開了Google。她對(duì)行業(yè)的發(fā)展方向越來越感到震驚,事情變得越來越糟,而不是更好,因此,她和她的同事們開始圍繞工作場(chǎng)所中AI的不當(dāng)使用和濫用等現(xiàn)象展開行動(dòng)。
用于工人管理的AI平臺(tái)也是一個(gè)日益嚴(yán)重的問題。從Uber到Amazon倉庫,這些龐大的自動(dòng)化平臺(tái)指導(dǎo)員工行為,設(shè)定績(jī)效目標(biāo)并確定員工工資,使員工幾乎沒有控制權(quán)。例如,今年早些時(shí)候,Uber大幅削減了工人的工資,沒有任何解釋或警告,而是通過對(duì)其平臺(tái)的更新悄悄地實(shí)施了這一變更。
幸運(yùn)的是,我們也看到了這些工人的一些重大勝利。CA的Rideshare工人在AB-5法中取得了巨大勝利,該法案要求基于應(yīng)用程序的公司向駕駛員提供全面的就業(yè)保護(hù)。與現(xiàn)狀相比,這是一個(gè)巨大的變化。
所有這些問題的背景都是氣候。
AI非常耗能,并消耗大量自然資源。來自Amherst的研究員Emma Strubell在今年早些時(shí)候發(fā)表了一篇論文,揭示了訓(xùn)練AI系統(tǒng)的巨大碳足跡。她的團(tuán)隊(duì)表明,僅創(chuàng)建一種用于自然語言處理的AI模型,就可以排放多達(dá)600,000磅的二氧化碳,相當(dāng)于往返紐約與北京125次飛行的耗能。
大型AI的碳消通常被隱藏在諸如“云”類產(chǎn)品背后。實(shí)際上,據(jù)估計(jì)目前世界的計(jì)算基礎(chǔ)設(shè)施所的碳排放量與航空業(yè)一樣多,占全球排放量的很大比例。
大家可以看到越來越多的抵制AI濫用的浪潮涌現(xiàn)。
很明顯,人工智能引發(fā)的問題是社會(huì)、文化和政治問題,而不僅是技術(shù)問題。這些問題,從刑事司法到工人權(quán)利,再到種族和兩性平等,都有悠久的歷史。
2019年的AI技術(shù)的濫用提醒我們,還有一個(gè)機(jī)會(huì)來決定接受哪類AI以及如何使其承擔(dān)責(zé)任??梢暬瘯r(shí)間軸中所代表的組織,立法和獎(jiǎng)金涵蓋了過去一年中抵制AI的負(fù)面影響和無法說明的技術(shù)力量的一些關(guān)鍵時(shí)刻。這不是詳盡的清單,而是工作人員、組織者和研究人員積極抵制AI負(fù)面影響的某些方式的快照。
原文鏈接:
https://medium .com/@AINowInstitute/ai-in-2019-a-year-in-review-c1eba5107127
https://www.toutiao.com/i6749828780862210568/
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。