亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動端logo

用人工智能引入新的透明度——思想領(lǐng)袖

2022-10-10 09:08:214636

用<a href=http://lifelonghealthcenter.com/ai/ target=_blank class=infotextkey>人工智能</a>引入新的透明度——思想領(lǐng)袖

作者:Infosys 高級副總裁兼服務(wù)產(chǎn)品負責(zé)人 - 能源、通信、服務(wù)以及人工智能和自動化服務(wù),Balakrishna DR 。

2020 年 1 月 9 日,世界衛(wèi)生組織向公眾通報了冠狀病毒在中國的爆發(fā)。三天前,美國疾病控制和預(yù)防中心已經(jīng)發(fā)布了消息。但它是一個加拿大的健康監(jiān)測平臺,將他們倆都打敗了,早在 2019 年 12 月 31 日就向其客戶發(fā)送了疫情的消息!該平臺 BlueDot 使用人工智能驅(qū)動的算法搜索外語新聞報道、動植物疾病網(wǎng)絡(luò)和官方公告,向其客戶發(fā)出預(yù)警,以避開武漢等危險地區(qū)。

在過去幾年中,人工智能已成為當今快速變化的經(jīng)濟中轉(zhuǎn)型、顛覆和競爭優(yōu)勢的關(guān)鍵來源。從流行病追蹤到防御再到醫(yī)療保健到自動駕駛汽車以及介于兩者之間的一切,人工智能正在獲得廣泛采用。普華永道預(yù)測,以目前的增長率,到 2030 年,人工智能可能為全球經(jīng)濟貢獻高達 15.7 萬億美元。

然而,盡管人工智能帶來了所有希望,但它仍然對透明度和可信度提出了未解決的問題。理解、預(yù)測和信任人工智能系統(tǒng)的決策能力的需求非常重要,尤其是在對生、死和個人健康至關(guān)重要的領(lǐng)域。

進入未知

當首次引入自動推理系統(tǒng)來支持決策制定時,它們依賴于手工制定的規(guī)則。雖然這使得解釋和修改它們的行為變得容易,但它們是不可擴展的?;跈C器學(xué)習(xí)的模型可以滿足后者的需求;他們不需要人工干預(yù),可以根據(jù)數(shù)據(jù)進行訓(xùn)練——越多越好。雖然深度學(xué)習(xí)模型在建模能力和適用范圍方面無與倫比,但這些模型在很大程度上是黑匣子這一事實,在其廣泛使用的背景下引發(fā)了關(guān)于其真實性、可信賴性和偏見的令人不安的問題。

目前沒有直接的機制來追蹤深度學(xué)習(xí)模型隱式使用的推理。對于具有黑盒性質(zhì)的機器學(xué)習(xí)模型,主要的可解釋性被稱為事后可解釋性,這意味著解釋源自模型生成的輸出的性質(zhì)和屬性。目前沒有進行從神經(jīng)網(wǎng)絡(luò)中提取規(guī)則的早期嘗試(如早先已知的深度學(xué)習(xí)),因為網(wǎng)絡(luò)已經(jīng)變得過于龐大和多樣化,無法進行易于處理的規(guī)則提取。因此,迫切需要將可解釋性和透明度引入人工智能建模的結(jié)構(gòu)。

退出黑夜,進入光明

這種擔憂催生了對機器學(xué)習(xí)透明度的需求,這導(dǎo)致了可解釋人工智能或 XAI 的增長。它旨在解決阻礙我們完全信任人工智能決策能力的主要問題——包括偏見和透明度。這個新的人工智能領(lǐng)域帶來了問責(zé)制,以確保人工智能造福社會,為所有參與者帶來更好的結(jié)果。

XAI 將在幫助解決 AI 系統(tǒng)和算法固有的偏見方面發(fā)揮關(guān)鍵作用,這些偏見是由背景和經(jīng)驗無意中導(dǎo)致 AI 系統(tǒng)開發(fā)存在偏見的人編寫的。諸如對特定國籍或種族的歧視等不受歡迎的偏見可能會蔓延,因為系統(tǒng)會根據(jù)真實數(shù)據(jù)為其增加價值。舉例來說,可能會發(fā)現(xiàn)典型的貸款違約者來自特定的種族背景,但是,基于此實施任何限制性政策可能違反公平做法。錯誤的數(shù)據(jù)是導(dǎo)致偏見的另一個原因。例如,如果特定的面部識別掃描儀由于人的膚色或落在臉上的光線而在 5% 的時間內(nèi)不準確,則可能會帶來偏差。最后,

XAI 旨在解決人工智能系統(tǒng)的黑盒決策是如何得出的。它檢查并嘗試了解決策所涉及的步驟和模型。它回答了一些關(guān)鍵問題,例如:為什么人工智能系統(tǒng)會做出特定的預(yù)測或決定?為什么人工智能系統(tǒng)不做其他事情?人工智能系統(tǒng)何時成功或失敗?人工智能系統(tǒng)何時對您可以信任的決策給予足夠的信心,人工智能系統(tǒng)如何糾正錯誤?

可解釋、可預(yù)測和可追溯的人工智能

在 AI 系統(tǒng)中獲得可解釋性的一種方法是使用本質(zhì)上可解釋的機器學(xué)習(xí)算法。例如,更簡單的機器學(xué)習(xí)形式,如決策樹、貝葉斯分類器和其他在決策制定中具有一定可追溯性和透明度的算法。它們可以在不犧牲太多性能或準確性的情況下提供關(guān)鍵 AI 系統(tǒng)所需的可見性。

注意到需要為深度學(xué)習(xí)和其他更復(fù)雜的算法方法提供可解釋性,美國國防高級研究計劃局 (DARPA) 正在努力通過一些資助的研究計劃來生產(chǎn)可解釋的人工智能解決方案。DARPA 在三個部分中描述了 AI 的可解釋性,其中包括:預(yù)測準確性,這意味著模型將解釋如何得出結(jié)論以改進未來的決策;人類用戶和操作員對決策的理解 和信任,以及對人工智能系統(tǒng)所采取行動的檢查和可追溯性。

可追溯性將使人類能夠進入人工智能決策循環(huán),并能夠在需要時停止或控制其任務(wù)。人工智能系統(tǒng)不僅要執(zhí)行特定任務(wù)或做出決定,還要提供透明的報告,說明它為何做出特定決定,并提供支持理由。

算法甚至 XAI 方法的標準化目前是不可能的,但肯定有可能標準化透明度/可解釋性水平。標準組織正試圖就這些透明度級別達成共同的標準理解,以促進最終用戶和技術(shù)供應(yīng)商之間的溝通。

隨著政府、機構(gòu)、企業(yè)和公眾開始依賴基于人工智能的系統(tǒng),通過更清晰的決策過程透明度贏得他們的信任將至關(guān)重要。首個專門針對 XAI 的全球會議——人工智能國際聯(lián)合會議:可解釋人工智能研討會的啟動,進一步證明了 XAI 時代的到來。