熱門文章
如果不加以控制,人工智能本身就會變得有偏見
發(fā)布時間:2018-09-10 分類:交通百科
如果用人工智能來管理世界,它就不會那么糟糕了,因為人工智能可以客觀地對人類可能會搞砸的事情做出準確的決定。但如果我們要將韁繩移交給人工智能,那就必須公平。到目前為止,事實并非如此。在由人注釋或策劃的數(shù)據(jù)集上訓(xùn)練的ai人工智能 傾向于學(xué)習(xí)同樣的種族主義者,性別歧視者或其他偏見的人。
慢慢地,程序員似乎正在糾正這些偏見,但即使我們成功地將自己的偏見從我們的代碼中解脫出來,人工智能似乎也能夠自己開發(fā)它。
在發(fā)表的一項新研究顯示,人工智能代理人網(wǎng)絡(luò)如何自主開發(fā)出不僅僅是對其他與自身相似的代理人的群體偏好,而且還是對那些不同的代理人的積極偏見。事實上,科學(xué)家們得出結(jié)論認為,開發(fā)這些偏差所需的認知能力非常低,這意味著它可以在整個地方彈出代碼。
人工智能代理人的設(shè)立使他們可以向其他代理商捐贈虛擬貨幣,目的是盡可能多地獲得回報。從本質(zhì)上講,他們必須選擇分享多少以及與之分享哪些其他代理。實驗背后的研究人員看到了兩種趨勢:人工智能代理人更有可能捐贈給其標有相似特征的人 (用任意數(shù)字值表示) 和對不同的人有偏見。人工智能代理人似乎已經(jīng)了解到,對集體內(nèi)部結(jié)果的捐贈會更多地進行回報,并且捐贈給其他人會積極地導(dǎo)致他們的損失。
這是一種比我們在現(xiàn)實世界中看到的更為抽象的偏見形式,其中算法被用于專門針對和壓迫黑人。人工智能代理并沒有像某些人那樣對特定的少數(shù)群體產(chǎn)生特定的蔑視。相反,它是對一個模糊的“他者”的偏見,反對任何與他們不同的東西。而且,這是一種偏見,僅限于這種特殊的模擬的偏見。
但這項研究確實對現(xiàn)實世界的應(yīng)用產(chǎn)生了重大影響,如果不加以控制,像這樣的算法可能導(dǎo)致更大的制度化種族主義和性別歧視,盡管我們盡最大努力防止它,但在一些不可測的情況下,甚至?xí)霈F(xiàn)反人類的偏見。
據(jù)報道,有辦法修復(fù)這個問題。例如,研究人員發(fā)現(xiàn),他們可以通過強迫AI代理人參與他們所謂的全球?qū)W習(xí),或者與他們自己的泡沫之外的不同AI代理進行交互來降低偏見程度。當(dāng)AI代理人群的總體特征更多時,偏見程度也會下降,這僅僅是因為存在更多的內(nèi)在多樣性。研究人員將偏見的人暴露在現(xiàn)實生活中的其他視角中。
無論我們認為人工智能系統(tǒng)是多么客觀、公正的機器,我們都需要接受系統(tǒng)中可能始終存在的故障,就目前而言,這意味著我們需要密切關(guān)注這些算法并注意自己的程序是否出現(xiàn)偏見。