溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

人工智能開發(fā)的道德邊界在哪里? | CNCC 2019

發(fā)布時間:2020-08-10 14:46:07 來源:ITPUB博客 閱讀:123 作者:AIBigbull2050 欄目:互聯(lián)網(wǎng)科技

10 月 17 日至 19 日,由 CCF 主辦、蘇州工業(yè)園區(qū)管委會、蘇州大學(xué)承辦的 CNCC 2019 在蘇州成功舉辦。今年大會以「智能+引領(lǐng)社會發(fā)展」為主題,選址蘇州金雞湖國際會議中心召開。雷鋒網(wǎng) AI 科技評論將會作為戰(zhàn)略合作媒體進行全程跟蹤報道。除了 15 場特邀報告外,今年 CNCC 的 79 場技術(shù)論壇作為會議的另一大重要組成部分,也是參會者重點關(guān)注的內(nèi)容。其中「人工智能開發(fā)的道德邊界在哪里?」技術(shù)論壇應(yīng)該是所有論壇當(dāng)中“戰(zhàn)火”最濃的一個,數(shù)十位各領(lǐng)域?qū)<引R聚一堂,針對AI倫理問題激烈探討了整個下午。

“不講title,激烈思辨”是YOCSEF的特性。YOCSEF,全稱為“中國計算機學(xué)會青年計算機科技論壇”,它是一個重在以思辨的方式討論計算機相關(guān)產(chǎn)學(xué)研等相關(guān)問題的論壇。YOCSEF的規(guī)矩是,任何參與這個論壇的人都可以發(fā)言,而且發(fā)言中不講title,所有人直呼其名,平等發(fā)聲,因此每次YOCSEF舉辦活動都會“戰(zhàn)火彌漫”,碰撞出智慧的火花。 

本次論壇主題為討論「人工智能開發(fā)的道德邊界」問題,匯聚了包括從事計算機科學(xué)、人工智能、哲學(xué)、倫理學(xué)、法律等行業(yè)的專業(yè)人士。各位專家就相應(yīng)論題,分別從各自專業(yè)角度對人工智能倫理問題做了深入探討。

一、AI 倫理的邊界

近年來隨著人工智能技術(shù)不斷在各行各業(yè)中得到廣泛應(yīng)用,AI對人類社會的影響可謂是方方面面。例如最近較為火爆的換臉技術(shù)產(chǎn)生的數(shù)據(jù)安全問題、大數(shù)據(jù)產(chǎn)生的“殺熟”問題、自動駕駛的安全責(zé)任問題、人臉識別產(chǎn)生的隱私問題等。 

在這諸多問題中,哪些是能做的?哪些是不能做的?以及我們能做到什么程度?這對我們?nèi)祟悂碚f都是不小的挑戰(zhàn),因為這是我們?nèi)祟悢?shù)百萬來所面臨的全新問題。對這些問題的回答就是為AI倫理劃定一個不可逾越的邊界。

人工智能開發(fā)的道德邊界在哪里? | CNCC 2019

北京大學(xué)鄧小鐵教授 

北京大學(xué)鄧小鐵教授在引導(dǎo)發(fā)言中提出,任何一項新技術(shù)的興起都會引發(fā)一系列的爭議,AI也同樣不例外。那么當(dāng)AI技術(shù)的應(yīng)用在人類社會中引發(fā)倫理風(fēng)險時,如何界定AI與人的邊界、如何與AI定契約至關(guān)重要。他提出AI倫理邊界的劃分,將不再像以往的倫理道德那樣局限在人與人之間,現(xiàn)在則多出了一些維度,還涉及到人與AI、AI與AI之間的倫理邊界問題。這對我們來說是全新的思考領(lǐng)域。他同時還指出,我們在與AI制定契約時,需要遵循三大最基本的原則:可執(zhí)行、可驗證和可執(zhí)法。作為引導(dǎo)發(fā)言,鄧小鐵教授還提出了在與AI交互過程中存在的四個問題:

  • Code is law。如果代碼就是王道,那么我們應(yīng)該建立怎樣一種程序來監(jiān)管編程人員呢?

  • 誰能代表AI定契約?是AI的制造者,還是AI自身?

  • AI倫理設(shè)計的不可能三角。在AI涉及倫理時,人類的機制如何設(shè)計、AI如何執(zhí)行、市場如何接受?

  • 能否允許AI來制造AI?這個時候人類是否還有能力對AI實施管理和監(jiān)測?

但緊接著一位來自中南大學(xué)的教授便指出鄧教授的思考中存在一個漏洞,即事實上我們整個學(xué)界對“智能”這個詞是什么一直并沒有搞清楚,因此也不可能搞清楚人工智能是什么,只有當(dāng)我們真正弄清“智能”的概念,知道了智能和人類的局限分別是什么,我們才有可能去討論AI和人類的倫理問題,或者權(quán)利和義務(wù)問題。在辯論中,幾位哲學(xué)領(lǐng)域或法律界的人士分別指出了AI倫理邊界的以下幾個特點:

倫理的時代屬性。北京大學(xué)副教授吳天岳指出,任何倫理道德都是有時代烙印的,因此盡管目前已經(jīng)有諸多原則,但我們還需要有歷史意識和前瞻意識,以避免我們自己的道德偏見阻礙了未來人類的發(fā)展。

道德的邊界應(yīng)該是動態(tài)的。天津理工大學(xué)羅訓(xùn)教授認為任何治理原則都是不可能是一旦制定永不改變,因為倫理永遠在隨著時代和地域而變化,因此關(guān)于AI倫理應(yīng)當(dāng)是動態(tài)的,不應(yīng)當(dāng)去靜態(tài)地刻畫。

AI倫理中人的屬性不可忽視。現(xiàn)有的AI仍然不是一個道德主體,所以目前所討論的道德邊界主要還是針對人類行為邊界的界定。

二、人工智能倫理原則

中科院自動化所研究員曾毅作為第二個引導(dǎo)發(fā)言者,介紹了當(dāng)前國內(nèi)外在人工智能原則上的進展,并針對各國人工智能倫理原則進行了詳細分析。

人工智能開發(fā)的道德邊界在哪里? | CNCC 2019

中科院自動化所研究員曾毅

據(jù)曾毅研究員介紹,目前全世界范圍內(nèi)已經(jīng)發(fā)布的人工智能倫理原則至少有53個,但這些原則沒有一個可以覆蓋當(dāng)前人工智能技術(shù)所帶來的所有問題。以比較全面的《人工智能北京共識》為例,對于“致命武器”、“公平”等并沒有涵蓋,原因則在于發(fā)布者的立場和視角不同,面對的社會問題也不同。

當(dāng)然,盡管目前已經(jīng)有如此多的AI倫理原則,甚至包括一些企業(yè)(例如谷歌、微軟等)都制定了約束自身的倫理原則,但大多數(shù)倫理原則并沒有得到很好的執(zhí)行,或者可以說至今為止沒有一家企業(yè)不會觸犯原則。例如尊重隱私這條,當(dāng)用戶要求刪除數(shù)據(jù)時,雖然數(shù)據(jù)本身可以刪除,但由于當(dāng)前AI技術(shù)的限制,已經(jīng)訓(xùn)練的模型仍然包含原有數(shù)據(jù)訓(xùn)練的結(jié)果,這種痕跡很難在機器學(xué)習(xí)模型中得以抹除。

曾毅還指出當(dāng)前AI倫理原則所面臨的一個問題,即當(dāng)前人工智能主要的目標還仍然是推動經(jīng)濟發(fā)展,而卻沒有對“AI對社會及生態(tài)影響”給予足夠的重視。因此他提出,人工智能倫理的問題,并不僅僅是有多少領(lǐng)域的專家參與這個問題的討論,更重要的是要讓足夠多的人重視這個問題,并參與其中。

人工智能開發(fā)的道德邊界在哪里? | CNCC 2019 北京大學(xué)黃鐵軍教授

針對AI倫理原則(甚至未來可能的法律),一位與會的學(xué)者提出,如何才能做到技術(shù)監(jiān)管不會限制了人工智能的發(fā)展。北京大學(xué)黃鐵軍教授從更為廣闊的角度回答了這個問題。我們作為人類,思考AI倫理不可避免地會站在人類視角,秉持以人為中心的觀念。黃鐵軍教授指出,目前我們所指的人工智能事實上是嵌入在人類社會的一種形態(tài),人工智能開發(fā)遵循人類整體基本的道德共識。但機器智能超越人類智能,這是一個未來進化的趨勢??萍紕?chuàng)新和發(fā)展不應(yīng)被人類自身的局限性而限制,對人工智能的發(fā)展我們應(yīng)持有一個更開放的心態(tài)來對待。

三、AI 倫理監(jiān)管

面對AI的倫理原則,一項很重要的事情便是,如何確保人類(個人或組織)、AI遵守相應(yīng)的倫理原則?

人工智能開發(fā)的道德邊界在哪里? | CNCC 2019

北京大學(xué)副教授吳天岳

吳天岳教授認為,針對AI開發(fā)者,職業(yè)道德和職業(yè)倫理非常重要。技術(shù)作為一種手段,它服務(wù)于某種特定目的,因此為了防止人為的AI作惡,必須要強化AI開發(fā)者的倫理意識,從源頭來遏制AI技術(shù)所帶來的風(fēng)險,而不能僅僅是在產(chǎn)品出來之后進行監(jiān)管。這包括幾個方面,首先是算法層面要做到可解釋性、透明性;其次數(shù)據(jù)方面要確保均衡性和非歧視性;作為工具,要對算法進行專屬測試。吳天岳教授強調(diào),作為AI開發(fā)者必須要意識到,AI技術(shù)的實現(xiàn)是為了一系列人類核心道德價值服務(wù),而不僅僅是為資本和權(quán)利服務(wù)。他舉了2018年谷歌全體員工署名反對谷歌與美國軍方合作的例子。

另一方面,除了自我約束外,吳天岳教授認為還需要外部監(jiān)管。這便需要設(shè)置所謂“倫理委員會”。目前各大企業(yè)紛紛宣布成立內(nèi)部的倫理委員會或類似職能組織進行監(jiān)管。但針對“倫理委員會”是否真正能夠起到作用不同學(xué)者抱有不同的看法。例如前面我們提到,目前幾乎沒有一家公司能夠真正按照自己的倫理原則行事,或多或少都會觸犯。曾毅指出,事實上一家公司能夠真正做到所有原則中的80%已經(jīng)很不錯了。平安集團首席科學(xué)家肖京強調(diào),“外部監(jiān)管在制定一系列約束的同事,若能為企業(yè)提供更好地幫組,引導(dǎo)企業(yè)如何在保證‘活下去’的基本要求下,合理地進行AI技術(shù)開發(fā),就可以協(xié)同共贏”。

立法是劃清紅線的手段。但其中也存在諸多問題,1)嚴格的法律是否限制了人工智能的發(fā)展? 2)法律應(yīng)該在發(fā)展的何種階段介入?舉例來講,目前我國在數(shù)據(jù)隱私保護方面的法律約束,相對于西方?jīng)]有那么嚴格,這也成為我國能夠在人工智能時代迅速占領(lǐng)高位的一個重要因素。一旦我們針對數(shù)據(jù)隱私做出嚴格的限制,可以想象必將極大地約束技術(shù)的發(fā)展。 

四、科技向善

科技是一種能力,向善是一種選擇??萍嫉陌l(fā)展必須要服務(wù)于人類社會的進步與發(fā)展,才能成為科技的進步。以核能為例,它可以用來制造yuanzidan  ,但也可以用來作為核能發(fā)電,只有當(dāng)將這種力量用來為人類整體服務(wù)時,它才能夠被稱為科技的進步。

人工智能開發(fā)的道德邊界在哪里? | CNCC 2019 騰訊公司副總裁王巨宏

騰訊公司副總裁王巨宏指出,在過去二十年里,整個世界(特別是中國)經(jīng)歷了PC互聯(lián)網(wǎng)時代、移動互聯(lián)網(wǎng)時代,這在極大程度上顛覆了整個社會,而下一輪以AI、大數(shù)據(jù)、生命科學(xué)等為代表的科技浪潮正在形成、疊加,逐步構(gòu)建成新的數(shù)字時代。作為科技公司,不僅僅是技術(shù)發(fā)展的推動者、科技時代的受益者,更重要的則是要有能力和義務(wù)去面對科技所帶來的社會問題,用科技去解決社會問題,創(chuàng)造更多有益的社會價值。例如騰訊在人工智能的開發(fā)中提出并倡導(dǎo)“四可”理念(可知、可控、可用、可靠),并從技術(shù)和實踐的層面去踐行“科技向善”的理念。

相關(guān)文章:

CNCC爆款技術(shù)論壇,申省梅、陳熙霖主持,西湖李子青、阿里王剛多視角講解CV賦能智慧城市

阿里巴巴王剛:自動駕駛沒有免費的午餐|CNCC 2019

CCF系列獎獲獎名單公布,胡事民、汪滔獲CCF王選獎 | CNCC 2019

數(shù)據(jù)挖掘巨擘俞士綸:真實數(shù)據(jù)源不止一個,學(xué)習(xí)不僅要有深度還要有廣度 | CNCC 2019

滴滴張博宣布開放城市交通指數(shù)數(shù)據(jù)集,助力交通領(lǐng)域科研發(fā)展 | CNCC 2019

深度學(xué)習(xí)如何大規(guī)模產(chǎn)業(yè)化?百度CTO王海峰最新演講深度解讀 | CNCC 2019

MSRA院長洪小文:作為與AI共生的第一代人類,應(yīng) AI + HI 和諧共同進化 | CNCC 2019

人工智能應(yīng)用趨勢之變——從制造到智造 | CNCC 2019

深度學(xué)習(xí)下的微表情研究:困難、進展及趨勢 | CNCC 2019

https://www.leiphone.com/news/201910/8QqXBDNUw4RW0YSp.html

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI