熱門文章
谷歌AI道德委員會解散,如何讓人工智能明辨是非?
發(fā)布時間:2019-04-18 分類:趨勢研究
據(jù)外媒報道,3月26日,Google全球事務高級副總裁Kent Walker在Google博客中發(fā)文宣布,為了貫徹落實Google AI七原則,完善相關的內(nèi)部治理結(jié)構(gòu)和流程,成立ATEAC委員會,用來處理人工智能中的棘手問題。
委員會設置8名成員,有經(jīng)濟學家、有心理學家、有美國前副國務卿,但成立不到一周,一位專家自愿退出。在本周,谷歌員工發(fā)起了一項請愿,要求該公司撤換另一名委員會成員,因為他反對保障同性戀和變性人同等權利的法律。
為了回應抗議,谷歌決定完全解散這個名為先進技術外部咨詢委員會(ATEAC)的團隊,并在聲明中稱:“很明顯,在當前的環(huán)境中,ATEAC不能按我們所希望的方式運行,所以我們要解散它,并回到原計劃上來,我們將繼續(xù)在AI帶來的重要問題上進行我們的工作,并將找到不同的方式來獲取外部對這些問題的意見?!?
雖然谷歌的AI道德委員會成立一周就土崩瓦解,但這并不意味著人工智能道德委員會的失敗和無意義。實際上,人工智能道德委員會的存在尤為必要。AI倫理問題究竟何去何從依然值得深思。
AI與倫理的平衡,如何規(guī)避道德風險?
早到艾薩克·阿西莫夫(Isaac Asimov)提出“機器人三定律”,再到《西部世界》、《機械姬》、《黑客帝國》、《終結(jié)者》等影視劇都對人工智能倫理問題做出了思考,人工智能可以解放人類勞動力,但也有可能損害人類的利益,將大眾引向深淵。
人工智能的算法來自于數(shù)據(jù),當數(shù)據(jù)里帶有潛在的價值觀傾向,隱含著偏見等問題,被系統(tǒng)學習吸收,誰來維持民眾的共識,保證社會的公平?當機器自我進化擁有了自主意識,脫離人的控制,人類作為其生產(chǎn)創(chuàng)作者,是否依舊能夠穩(wěn)穩(wěn)地掌握全局?當不成熟的人工智能技術陷入異常,造成失誤,甚至非法入侵而傷害人類,誰該為此承擔責任?
像谷歌自動駕駛汽車造成人員傷亡、機器人傷人事件、保險公司利用臉書數(shù)據(jù)預測事故發(fā)生率涉嫌存在偏見等都現(xiàn)實中的失敗案例,也是人工智能存在倫理和道德風險的例證。
面對人工智能引發(fā)的倫理問題,科技巨頭們紛紛成立倫理委員會應對挑戰(zhàn)。2016年,亞馬遜、微軟、谷歌、IBM和Facebook聯(lián)合成立了一家非營利性的人工智能合作組織(Partnership on AI),而蘋果于2017年1月加入該組織。
在科技巨頭們的共識里,與其靠外界強加約束AI發(fā)展,不如先成立倫理委員會自主監(jiān)督。AI道德委員會是一種監(jiān)督保障,更是風險評估標準。它能夠幫助人工智能公司做出道德決策,使社會受益。
就像麻省理工學院情感計算研究組主任羅薩琳德·皮卡德教授所言,“機器越自由,就越需要道德準則。”而學者們也給出了讓人工智能規(guī)避風險的新思考。
《道德機器:如何讓機器人明辨是非》中美國認知科學哲學家科林·艾倫和技術倫理專家溫德爾·瓦拉赫強調(diào)了兩個維度——針對道德相關事實的自主性維度和敏感性維度,給出了一個關于日趨復雜的AMAs(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。他們認為“自上而下”和“自下而上”相混合的模式是機器道德發(fā)展模式的最佳選擇。即將從數(shù)據(jù)當中學習經(jīng)驗的自下向上和用確定的規(guī)則進行預編程自上向下結(jié)合起來。
美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統(tǒng)中。
2017年12月12日,電氣電子工程師學會(IEEE)發(fā)布了《人工智能設計的倫理準則》(第2版),提出合乎倫理地設計、開發(fā)和應用人工智能技術應該遵循以下一般原則:人權——確保它們不侵犯國際公認的人權;福祉——在它們的設計和使用中優(yōu)先考慮人類福祉的指標;問責——確保它們的設計者和操作者負責任且可問責;透明——確保它們以透明的方式運行。
各國的學者、專家不斷提出關于人工智能的新倫理原則,但以人為本的理念始不曾改變。歐盟在近日也提交了他們對于人工智能倫理的答卷。
人工智能時代的道德重建:可信賴的AI
4月9日,歐盟發(fā)布了AI倫理指導方針,作為公司和政府機構(gòu)未來開發(fā)AI時應遵循7大原則,呼吁“值得信賴的人工智能”。“可信賴 AI”是對人工智能時代的道德重建,為AI的發(fā)展指明了一條合乎倫理的方向。
歐盟 AI 道德準則草案指出,可信賴的 AI 有兩個組成要素:一、應尊重基本權利,適用法規(guī)、核心原則和價值觀,以確?!暗赖履康摹保╡thical purpose),二、兼具技術魯棒性(robust)和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。
歐盟提出可信賴 AI 的道德準則草案以及框架
七大關鍵原則如下:
人類作用和監(jiān)督:人工智能不應該踐踏人類的自主性。人們不應該被AI系統(tǒng)操縱或脅迫,而且,人類應該能夠干預或監(jiān)督軟件做出的每一個決定。
技術的穩(wěn)健性和安全性:人工智能應該是安全的、準確的。它不應該易于受到外部攻擊(例如對抗性實例)的影響,而且,應該是相當可靠的。
隱私和數(shù)據(jù)管理:人工智能系統(tǒng)收集的個人數(shù)據(jù)應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。
透明性:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應該是可訪問的,軟件所做的決定應“由人類理解和跟蹤”。換句話說,操作員應該能夠解釋AI系統(tǒng)所做的決定。
多樣性、非歧視和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特征。同樣地,系統(tǒng)不應該在這些方面存在偏見。
環(huán)境和社會福祉:人工智能系統(tǒng)應該是可持續(xù)的(即它們應該對生態(tài)負責)并“促進積極的社會變革”。
問責制:人工智能系統(tǒng)應該是可審計的,并被納入企業(yè)可舉報范疇,以便受到現(xiàn)有規(guī)則的保護。應事先告知和報告系統(tǒng)可能產(chǎn)生的負面影響。
有數(shù)據(jù)顯示,美國人工智能企業(yè)數(shù)量2039家位列全球第一,中國(不含港澳臺地區(qū))有1040家,占全球人工智能企業(yè)數(shù)的一半以上,《2019年全球AI人才報告》則展示了全球36524位頂尖AI人才,一半以上在中美。中國與美國在AI領域的人才和企業(yè)上占盡了優(yōu)勢,可謂你追我趕,難分高低,歐盟從倫理角度切入,率先對人工智能的發(fā)展倫理做出規(guī)范,或許不失為一大良策。