可解釋的人工智能如何提高可靠性和可信度
隨著人工智能(AI)在企業(yè)中越來越民主化,它正慢慢融入我們的生存結(jié)構(gòu)。這種民主化的一個重要方面是最終用戶應(yīng)該能夠完全理解人工智能用來得出結(jié)論的過程和機(jī)制,或者它是如何運(yùn)作以提供預(yù)期結(jié)果的。作為人類,我們有一種根深蒂固的需要去發(fā)現(xiàn)任何現(xiàn)象的“為什么”和“如何”,這加速了我們的技術(shù)進(jìn)步。在人工智能的背景下,這種理解被稱為“可解釋性”。
為什么可解釋性是當(dāng)下的需要?
通常情況下,我們將 AI 視為一個“黑匣子”,我們只知道輸入和輸出,但在某個地方使用的過程對我們來說是丟失的。使這個問題更加復(fù)雜的是,為最流行的人工智能形式提供支持的算法,例如復(fù)雜的基于深度學(xué)習(xí)的預(yù)測系統(tǒng)和自然語言處理(NLP),即使對于最有成就的從業(yè)者來說也是高度抽象的。
信任和透明度:要讓用戶信任人工智能的預(yù)測,它必須具有一定程度的內(nèi)在可解釋性。例如,如果醫(yī)生必須根據(jù) AI 的預(yù)測推薦治療,他/她需要對預(yù)測充滿信心。銀行必須對拒絕或批準(zhǔn)貸款的決定充滿信心,并能夠向所有利益相關(guān)者證明這一點(diǎn)。用于篩選和招聘的人工智能必須證明其基本機(jī)制對所有申請人群體都是公平和公平的。
讓 AI 更人性化并提高采用率:在麥肯錫的 2020 年 AI 狀況報告中,我們了解到制造商使用極其透明的模型來獲得工廠工人的認(rèn)可,他們需要相信 AI 對其安全做出的判斷。為了快速采用人工智能,獲得利益相關(guān)者的支持是從簡單的單點(diǎn)解決方案擴(kuò)展到企業(yè)級并從投資中獲得最大收益的主要障礙。如果表演可以向更多的觀眾解釋,這種情況在很大程度上得到緩解。從業(yè)務(wù)角度來看,可解釋性增強(qiáng)了整體用戶體驗并提高了客戶滿意度。根據(jù) IBM 商業(yè)價值研究院的一項調(diào)查結(jié)果,68% 的高管認(rèn)為客戶將在未來三年內(nèi)要求 AI 提供更多可解釋性。
發(fā)現(xiàn)偏差并提高模型性能:開發(fā)人員需要知道他/她如何提高模型的性能,以及如何準(zhǔn)確地調(diào)試和微調(diào)它。清晰的可解釋性框架是進(jìn)行所需徹底分析的最重要工具之一。
獲得更清晰、更全面的見解:需要完整的 360 度視圖才能充分理解 AI 開出的任何處方。例如,如果人工智能被用于做出投資決策,人們還需要了解其背后的基本原理,以便將這種學(xué)習(xí)轉(zhuǎn)移到其他領(lǐng)域,并了解做出該決定的潛在陷阱。對人工智能如何運(yùn)作的深刻理解也將使決策者能夠發(fā)現(xiàn)新的用例。
法規(guī)和問責(zé)制:GDPR 等多項法規(guī)都規(guī)定了解釋權(quán),以解決自動化決策過程中出現(xiàn)的問責(zé)制問題。在自動駕駛汽車等系統(tǒng)中,如果出現(xiàn)問題導(dǎo)致生命和財產(chǎn)損失,則需要對根本原因進(jìn)行適當(dāng)?shù)牧私?,這在黑盒系統(tǒng)中很難查明。
人工智能如何更易于解釋?
可解釋的人工智能系統(tǒng) (XAI) 是使用不同的技術(shù)開發(fā)的,這些技術(shù)要么專注于解釋整個模型,要么通過某種算法的幫助來解釋個體預(yù)測背后的推理。
主要所有可解釋性技術(shù)都依賴于:
- 將模型分解為單個組件)
- 模型預(yù)測的可視化(例如,如果模型將汽車分類為某個品牌,它會突出顯示導(dǎo)致它標(biāo)記為此類的部分)
- 解釋挖掘(使用機(jī)器學(xué)習(xí)技術(shù)來查找解釋人工智能算法預(yù)測的相關(guān)數(shù)據(jù))。
在一種稱為代理建模的技術(shù)中,使用更簡單且更易于理解的模型(如決策樹)來近似表示更復(fù)雜的 AI 模型。這些簡單化的解釋在高層次上給出了模型的公平概念,但有時會抑制某些細(xì)微差別。
另一種方法稱為“設(shè)計可解釋性”這種方法以一種新的方式在 AI 網(wǎng)絡(luò)的設(shè)計和訓(xùn)練中施加了約束,試圖從更小、更簡單的可解釋塊構(gòu)建整個網(wǎng)絡(luò)。這涉及準(zhǔn)確性水平與可解釋性之間的權(quán)衡,并限制了數(shù)據(jù)科學(xué)家工具包中的某些方法。它也可能是高度計算密集型的。
AI 訓(xùn)練和測試還可以采用不可知的數(shù)據(jù)驗證技術(shù),例如局部可解釋模型 (LIME) 和 Shapley Additive exPlanations (SHAP),這些技術(shù)應(yīng)該通過使用 F 分?jǐn)?shù)、精度和其他指標(biāo)來定制以實(shí)現(xiàn)高精度。當(dāng)然,所有結(jié)果都應(yīng)使用各種數(shù)據(jù)進(jìn)行監(jiān)控和驗證。例如,使用 LIME,組織能夠創(chuàng)建模擬機(jī)器學(xué)習(xí)等非透明算法的預(yù)測的臨時模型。然后,這些 LIME 模型可以根據(jù)給定的數(shù)據(jù)集及其相應(yīng)的輸出創(chuàng)建廣泛的排列,然后可用于訓(xùn)練簡單且更可解釋的模型以及每個決策和/或預(yù)測的完整解釋列表。SHAP 框架的基礎(chǔ)是博弈論,特別是合作博弈論,它是一個模型。它使用來自博弈論及其后代的原始 Shapley 值將最優(yōu)信用分配與局部解釋相結(jié)合。
原則性操作
然而,在更具戰(zhàn)略性的層面上,人工智能可靠性框架應(yīng)包含一系列廣泛的原則,旨在確保在部署之初以及隨著模型在不斷變化的環(huán)境中不斷發(fā)展而產(chǎn)生適當(dāng)?shù)慕Y(jié)果。這些框架至少應(yīng)包括以下內(nèi)容:
- 偏差檢測——所有數(shù)據(jù)集都應(yīng)該去除偏差和歧視性屬性,然后在應(yīng)用于訓(xùn)練模型時給予適當(dāng)?shù)臋?quán)重和判斷力;
- 人工參與——操作員應(yīng)該能夠隨時調(diào)查和解釋算法輸出,特別是當(dāng)模型用于執(zhí)法和維護(hù)公民自由時;
- 合理性——所有預(yù)測都必須能夠經(jīng)受住審查,這本質(zhì)上需要高度的透明度,以允許外部觀察者評估用于產(chǎn)生結(jié)果的過程和標(biāo)準(zhǔn);
- 可重復(fù)性——可靠的人工智能模型必須在其預(yù)測中保持一致,并且在遇到新數(shù)據(jù)時必須表現(xiàn)出高度的穩(wěn)定性。
但 XAI 不應(yīng)該僅僅被視為提高盈利能力的一種手段,而是要引入問責(zé)制,以確保機(jī)構(gòu)能夠解釋和證明其創(chuàng)造對整個社會的影響。
- 上一篇
物聯(lián)網(wǎng)車隊管理的主要應(yīng)用和好處是什么?
通過在車隊管理中實(shí)施物聯(lián)網(wǎng)解決方案,主管和經(jīng)理將了解車輛的健康狀況、當(dāng)前位置、來自驅(qū)動器的更新、車隊健康狀況、貨物等。無論人們在哪里,正確的車隊管理結(jié)構(gòu)將使它更積極和精確。
- 下一篇
2022年國外10個最佳ETL工具
對于數(shù)據(jù)驅(qū)動的組織而言,擁有所有信息的集中來源至關(guān)重要,否則很難做出明智的預(yù)測。許多公司轉(zhuǎn)向 ETL 為其數(shù)據(jù)提供上下文。ETL 代表“提取、轉(zhuǎn)換、加載”,是一種標(biāo)