您好,登錄后才能下訂單哦!
10 月 17 日至 19 日,由 CCF 主辦、蘇州工業園區管委會、蘇州大學承辦的 CNCC 2019 在蘇州成功舉辦。今年大會以「智能+引領社會發展」為主題,選址蘇州金雞湖國際會議中心召開。雷鋒網 AI 科技評論將會作為戰略合作媒體進行全程跟蹤報道。除了 15 場特邀報告外,今年 CNCC 的 79 場技術論壇作為會議的另一大重要組成部分,也是參會者重點關注的內容。其中「人工智能開發的道德邊界在哪里?」技術論壇應該是所有論壇當中“戰火”最濃的一個,數十位各領域專家齊聚一堂,針對AI倫理問題激烈探討了整個下午。
“不講title,激烈思辨”是YOCSEF的特性。YOCSEF,全稱為“中國計算機學會青年計算機科技論壇”,它是一個重在以思辨的方式討論計算機相關產學研等相關問題的論壇。YOCSEF的規矩是,任何參與這個論壇的人都可以發言,而且發言中不講title,所有人直呼其名,平等發聲,因此每次YOCSEF舉辦活動都會“戰火彌漫”,碰撞出智慧的火花。
本次論壇主題為討論「人工智能開發的道德邊界」問題,匯聚了包括從事計算機科學、人工智能、哲學、倫理學、法律等行業的專業人士。各位專家就相應論題,分別從各自專業角度對人工智能倫理問題做了深入探討。
近年來隨著人工智能技術不斷在各行各業中得到廣泛應用,AI對人類社會的影響可謂是方方面面。例如最近較為火爆的換臉技術產生的數據安全問題、大數據產生的“殺熟”問題、自動駕駛的安全責任問題、人臉識別產生的隱私問題等。
在這諸多問題中,哪些是能做的?哪些是不能做的?以及我們能做到什么程度?這對我們人類來說都是不小的挑戰,因為這是我們人類數百萬來所面臨的全新問題。對這些問題的回答就是為AI倫理劃定一個不可逾越的邊界。
北京大學鄧小鐵教授
北京大學鄧小鐵教授在引導發言中提出,任何一項新技術的興起都會引發一系列的爭議,AI也同樣不例外。那么當AI技術的應用在人類社會中引發倫理風險時,如何界定AI與人的邊界、如何與AI定契約至關重要。他提出AI倫理邊界的劃分,將不再像以往的倫理道德那樣局限在人與人之間,現在則多出了一些維度,還涉及到人與AI、AI與AI之間的倫理邊界問題。這對我們來說是全新的思考領域。他同時還指出,我們在與AI制定契約時,需要遵循三大最基本的原則:可執行、可驗證和可執法。作為引導發言,鄧小鐵教授還提出了在與AI交互過程中存在的四個問題:
Code is law。如果代碼就是王道,那么我們應該建立怎樣一種程序來監管編程人員呢?
誰能代表AI定契約?是AI的制造者,還是AI自身?
AI倫理設計的不可能三角。在AI涉及倫理時,人類的機制如何設計、AI如何執行、市場如何接受?
能否允許AI來制造AI?這個時候人類是否還有能力對AI實施管理和監測?
但緊接著一位來自中南大學的教授便指出鄧教授的思考中存在一個漏洞,即事實上我們整個學界對“智能”這個詞是什么一直并沒有搞清楚,因此也不可能搞清楚人工智能是什么,只有當我們真正弄清“智能”的概念,知道了智能和人類的局限分別是什么,我們才有可能去討論AI和人類的倫理問題,或者權利和義務問題。在辯論中,幾位哲學領域或法律界的人士分別指出了AI倫理邊界的以下幾個特點:
倫理的時代屬性。北京大學副教授吳天岳指出,任何倫理道德都是有時代烙印的,因此盡管目前已經有諸多原則,但我們還需要有歷史意識和前瞻意識,以避免我們自己的道德偏見阻礙了未來人類的發展。
道德的邊界應該是動態的。天津理工大學羅訓教授認為任何治理原則都是不可能是一旦制定永不改變,因為倫理永遠在隨著時代和地域而變化,因此關于AI倫理應當是動態的,不應當去靜態地刻畫。
AI倫理中人的屬性不可忽視。現有的AI仍然不是一個道德主體,所以目前所討論的道德邊界主要還是針對人類行為邊界的界定。
中科院自動化所研究員曾毅作為第二個引導發言者,介紹了當前國內外在人工智能原則上的進展,并針對各國人工智能倫理原則進行了詳細分析。
中科院自動化所研究員曾毅
據曾毅研究員介紹,目前全世界范圍內已經發布的人工智能倫理原則至少有53個,但這些原則沒有一個可以覆蓋當前人工智能技術所帶來的所有問題。以比較全面的《人工智能北京共識》為例,對于“致命武器”、“公平”等并沒有涵蓋,原因則在于發布者的立場和視角不同,面對的社會問題也不同。
當然,盡管目前已經有如此多的AI倫理原則,甚至包括一些企業(例如谷歌、微軟等)都制定了約束自身的倫理原則,但大多數倫理原則并沒有得到很好的執行,或者可以說至今為止沒有一家企業不會觸犯原則。例如尊重隱私這條,當用戶要求刪除數據時,雖然數據本身可以刪除,但由于當前AI技術的限制,已經訓練的模型仍然包含原有數據訓練的結果,這種痕跡很難在機器學習模型中得以抹除。
曾毅還指出當前AI倫理原則所面臨的一個問題,即當前人工智能主要的目標還仍然是推動經濟發展,而卻沒有對“AI對社會及生態影響”給予足夠的重視。因此他提出,人工智能倫理的問題,并不僅僅是有多少領域的專家參與這個問題的討論,更重要的是要讓足夠多的人重視這個問題,并參與其中。
北京大學黃鐵軍教授
針對AI倫理原則(甚至未來可能的法律),一位與會的學者提出,如何才能做到技術監管不會限制了人工智能的發展。北京大學黃鐵軍教授從更為廣闊的角度回答了這個問題。我們作為人類,思考AI倫理不可避免地會站在人類視角,秉持以人為中心的觀念。黃鐵軍教授指出,目前我們所指的人工智能事實上是嵌入在人類社會的一種形態,人工智能開發遵循人類整體基本的道德共識。但機器智能超越人類智能,這是一個未來進化的趨勢。科技創新和發展不應被人類自身的局限性而限制,對人工智能的發展我們應持有一個更開放的心態來對待。
面對AI的倫理原則,一項很重要的事情便是,如何確保人類(個人或組織)、AI遵守相應的倫理原則?
北京大學副教授吳天岳
吳天岳教授認為,針對AI開發者,職業道德和職業倫理非常重要。技術作為一種手段,它服務于某種特定目的,因此為了防止人為的AI作惡,必須要強化AI開發者的倫理意識,從源頭來遏制AI技術所帶來的風險,而不能僅僅是在產品出來之后進行監管。這包括幾個方面,首先是算法層面要做到可解釋性、透明性;其次數據方面要確保均衡性和非歧視性;作為工具,要對算法進行專屬測試。吳天岳教授強調,作為AI開發者必須要意識到,AI技術的實現是為了一系列人類核心道德價值服務,而不僅僅是為資本和權利服務。他舉了2018年谷歌全體員工署名反對谷歌與美國軍方合作的例子。
另一方面,除了自我約束外,吳天岳教授認為還需要外部監管。這便需要設置所謂“倫理委員會”。目前各大企業紛紛宣布成立內部的倫理委員會或類似職能組織進行監管。但針對“倫理委員會”是否真正能夠起到作用不同學者抱有不同的看法。例如前面我們提到,目前幾乎沒有一家公司能夠真正按照自己的倫理原則行事,或多或少都會觸犯。曾毅指出,事實上一家公司能夠真正做到所有原則中的80%已經很不錯了。平安集團首席科學家肖京強調,“外部監管在制定一系列約束的同事,若能為企業提供更好地幫組,引導企業如何在保證‘活下去’的基本要求下,合理地進行AI技術開發,就可以協同共贏”。
立法是劃清紅線的手段。但其中也存在諸多問題,1)嚴格的法律是否限制了人工智能的發展? 2)法律應該在發展的何種階段介入?舉例來講,目前我國在數據隱私保護方面的法律約束,相對于西方沒有那么嚴格,這也成為我國能夠在人工智能時代迅速占領高位的一個重要因素。一旦我們針對數據隱私做出嚴格的限制,可以想象必將極大地約束技術的發展。
科技是一種能力,向善是一種選擇。科技的發展必須要服務于人類社會的進步與發展,才能成為科技的進步。以核能為例,它可以用來制造yuanzidan ,但也可以用來作為核能發電,只有當將這種力量用來為人類整體服務時,它才能夠被稱為科技的進步。
騰訊公司副總裁王巨宏
騰訊公司副總裁王巨宏指出,在過去二十年里,整個世界(特別是中國)經歷了PC互聯網時代、移動互聯網時代,這在極大程度上顛覆了整個社會,而下一輪以AI、大數據、生命科學等為代表的科技浪潮正在形成、疊加,逐步構建成新的數字時代。作為科技公司,不僅僅是技術發展的推動者、科技時代的受益者,更重要的則是要有能力和義務去面對科技所帶來的社會問題,用科技去解決社會問題,創造更多有益的社會價值。例如騰訊在人工智能的開發中提出并倡導“四可”理念(可知、可控、可用、可靠),并從技術和實踐的層面去踐行“科技向善”的理念。
相關文章:
CNCC爆款技術論壇,申省梅、陳熙霖主持,西湖李子青、阿里王剛多視角講解CV賦能智慧城市
阿里巴巴王剛:自動駕駛沒有免費的午餐|CNCC 2019
CCF系列獎獲獎名單公布,胡事民、汪滔獲CCF王選獎 | CNCC 2019
數據挖掘巨擘俞士綸:真實數據源不止一個,學習不僅要有深度還要有廣度 | CNCC 2019
滴滴張博宣布開放城市交通指數數據集,助力交通領域科研發展 | CNCC 2019
深度學習如何大規模產業化?百度CTO王海峰最新演講深度解讀 | CNCC 2019
MSRA院長洪小文:作為與AI共生的第一代人類,應 AI + HI 和諧共同進化 | CNCC 2019
人工智能應用趨勢之變——從制造到智造 | CNCC 2019
深度學習下的微表情研究:困難、進展及趨勢 | CNCC 2019
https://www.leiphone.com/news/201910/8QqXBDNUw4RW0YSp.html
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。