亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動端logo

解決人工智能偏見的重要步驟

2023-01-28 09:09:144636

我們之前提到過,偏差是機器學(xué)習(xí)中的一個大問題,必須加以緩解。人們需要采取重要步驟來幫助減輕未來的影響。

無論人們認為自己在文化、社會或環(huán)境方面的意識如何,偏見都是每個人的固有特征。我們自然會被證實我們自己信念的事實所吸引。我們中的大多數(shù)人傾向于相信年輕人會比年長的同事更好地完成某些任務(wù),反之亦然。無數(shù)研究表明,外貌迷人的求職者比外貌不佳的求職者更有可能被錄用。清單還在繼續(xù)。

解決<a href=http://lifelonghealthcenter.com/ai/ target=_blank class=infotextkey>人工智能</a>偏見的重要步驟

作為人類,我們不能自信地說我們的決策是沒有偏見的。這個問題的根本原因是偏見在不知不覺中蔓延,讓我們無力判斷我們所做的決定是否有偏見。

這就是為什么有偏見的人工智能算法的概念不應(yīng)該令人驚訝,因為人工智能系統(tǒng)的全部意義在于復(fù)制人類的決策模式。為了制作一個功能性的人工智能系統(tǒng),開發(fā)人員用無數(shù)真實的人如何解決特定問題的例子來訓(xùn)練它。

例如,為了構(gòu)建一個可以幫助對求職申請進行分類的人工智能系統(tǒng),工程師會向算法展示許多接受和拒絕簡歷的例子。然后人工智能系統(tǒng)會找出影響決策的主要因素,開發(fā)人員會測試系統(tǒng)的準確性,并進行部署。在這個簡化的例子中,可能會出現(xiàn)兩個問題:一開始,人力資源專家的決策可能存在偏見,并且訓(xùn)練數(shù)據(jù)集可能無法代表特定的性別、年齡、種族等。例如,可能是,從歷史上看,一家公司一直無意中只雇用男性擔任前端開發(fā)人員職位,這促使人工智能將女性排除在外,甚至沒有機會接受采訪。這使我們想到了消除AI偏見的第一種方法。

數(shù)據(jù)公平

人工智能在解決許多挑戰(zhàn)方面發(fā)揮了重要作用。但是,其背后的數(shù)據(jù)必須結(jié)構(gòu)良好且盡可能無偏見。

在大多數(shù)情況下,AI不公平的最大原因在于訓(xùn)練數(shù)據(jù),尤其是對于缺乏經(jīng)驗的開發(fā)人員或小公司而言。獲得足夠多樣化的數(shù)據(jù)集,考慮到每個人口統(tǒng)計數(shù)據(jù)或任何其他關(guān)鍵屬性,這是數(shù)據(jù)科學(xué)家夢寐以求的。這就是為什么您應(yīng)該將AI開發(fā)視為您的訓(xùn)練數(shù)據(jù)存在固有偏見,并在流程的每個階段都考慮到這一點。

艾倫圖靈研究所引入了一種名為“反事實公平”的方法,旨在揭示數(shù)據(jù)集問題。讓我們回到我們的例子中,一家公司雇用了一名使用AI的前端開發(fā)人員。在這種情況下,為了確保算法的公平性,開發(fā)人員需要進行一個簡單的測試,讓AI系統(tǒng)評估兩個具有相同技能和經(jīng)驗的候選人,唯一的區(qū)別是性別或任何其他非必要變量。公正的AI會給這兩個候選人同樣的評分,而不公平的AI會給男性更高的分數(shù),這表明需要進行調(diào)整。

該研究所制定了一套指導(dǎo)方針,旨在幫助人工智能開發(fā)人員確保模型的公平性。在Itransition,我們相信此類舉措將在解決人工智能偏見方面發(fā)揮越來越重要的作用。

對抗性學(xué)習(xí)

除了有缺陷的數(shù)據(jù)集外,偏見也會在模型學(xué)習(xí)階段悄悄出現(xiàn)。為了緩解這種情況,許多開發(fā)人員現(xiàn)在選擇對抗訓(xùn)練方法。這意味著除了您的主要模型(例如,對應(yīng)用程序進行排序的模型)之外,您還應(yīng)用了另一個模型,該模型試圖根據(jù)主要模型的結(jié)果找出敏感變量(年齡、性別、種族等)。如果主模型是無偏差的,那么對抗模型將無法確定敏感屬性。數(shù)據(jù)科學(xué)家認為這種技術(shù)是最有效和易于使用的技術(shù)之一,與傳統(tǒng)的重新稱重不同,對抗性學(xué)習(xí)可以應(yīng)用于大多數(shù)建模方法。

拒絕基于選項的分類

最后,還有許多后處理技術(shù)可以幫助減輕偏差。這種方法的吸引力在于,工程師和數(shù)據(jù)科學(xué)家都不需要為調(diào)整模型或更改數(shù)據(jù)集而煩惱,因為只需要修改模型輸出。

基于拒絕選項的分類是最流行的后處理技術(shù)之一。本質(zhì)上,通過拒絕模型最不自信的預(yù)測來減少偏差。例如,我們可以將置信度閾值設(shè)置為0.4。如果預(yù)測確定性為0.39或更低,系統(tǒng)會將輸出標記為有偏差。

團隊多元化

駕馭AI領(lǐng)域取決于對業(yè)務(wù)環(huán)境的了解比人們普遍認為的要多。毫無疑問,數(shù)據(jù)科學(xué)與數(shù)字運算密切相關(guān),但了解這些數(shù)字背后的原因同樣重要。即便如此,數(shù)據(jù)科學(xué)家的無意識偏見也會在偏見如何影響他們的算法方面發(fā)揮關(guān)鍵作用。這就是為什么打擊人工智能中的偏見往往與雇用不同種族、性別和背景的人密切相關(guān)。

為了實現(xiàn)更周到的招聘,公司需要采用更客觀的面試技巧。尤其是大企業(yè),太多的面試僅限于傳統(tǒng)的簡歷篩選。具有前瞻性和創(chuàng)新性的公司現(xiàn)在將基于現(xiàn)實世界項目的數(shù)據(jù)分析作為他們面試過程的核心。他們不僅評估候選人在科學(xué)方面執(zhí)行數(shù)據(jù)分析的能力,而且還確保他或她能夠在商業(yè)環(huán)境中解釋發(fā)現(xiàn)。

由于AI是許多業(yè)務(wù)轉(zhuǎn)型背后的驅(qū)動力,因此我們必須建立明確的框架來解決AI中的偏見。認識到我們無法完全消除偏見也很重要。然而,在算法中控制偏見比在人類中更容易實現(xiàn)。