亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動端logo

金融犯罪中基于人工智能系統(tǒng)的偏見和公平

2022-08-25 09:14:464636

在打擊金融犯罪方面,存在的挑戰(zhàn)超出了僅僅阻止欺詐者或其他不良行為者的范圍。

一些正在推出的最新、先進的技術通常有自己的特定問題,在采用階段必須考慮這些問題,以便在不受監(jiān)管影響的情況下成功打擊欺詐者。在欺詐檢測中,當系統(tǒng)權重更大或缺少某些數(shù)據(jù)組或數(shù)據(jù)類別的表示時,可能會出現(xiàn)模型公平性和數(shù)據(jù)偏差。從理論上講,預測模型可能會錯誤地將來自其他文化的姓氏與欺詐賬戶聯(lián)系起來,或者錯誤地降低特定類型金融活動在人群中的風險。

金融犯罪中基于<a href=http://lifelonghealthcenter.com/ai/ target=_blank class=infotextkey>人工智能</a>系統(tǒng)的偏見和公平

當聲譽可能受到影響時,有偏見的人工智能系統(tǒng)可能會構成嚴重威脅,并且當可用數(shù)據(jù)不能代表人口或探索現(xiàn)象時就會發(fā)生。該數(shù)據(jù)不包括正確捕捉我們想要預測的現(xiàn)象的變量?;蛘?,數(shù)據(jù)可能包括人類產(chǎn)生的內(nèi)容,這些內(nèi)容可能包含對人群的偏見,由文化和個人經(jīng)驗繼承,導致決策時出現(xiàn)扭曲。雖然起初數(shù)據(jù)可能看起來是客觀的,但它仍然是由人類收集和分析的,因此可能存在偏見。

雖然在補救人工智能系統(tǒng)中的歧視和不公平的危險或永久解決構建機器學習模型和使用中的公平和偏見緩解問題時沒有靈丹妙藥,但這些問題必須考慮到社會和商業(yè)原因。

在AI中做正確的事

解決基于人工智能的系統(tǒng)中的偏見不僅是正確的事情,而且對企業(yè)來說也是一件聰明的事情——而且對企業(yè)領導者來說風險很高。有偏見的人工智能系統(tǒng)可能會通過不公平地分配機會、資源、信息或服務質量而導致金融機構走上錯誤的道路。它們甚至有可能侵犯公民自由,危害個人安全,或在被視為貶低或冒犯時影響一個人的福祉。

對于企業(yè)來說,了解人工智能偏見的力量和風險非常重要。盡管該機構通常不知道,但有偏見的基于人工智能的系統(tǒng)可能會使用有害的模型或數(shù)據(jù),將種族或性別偏見暴露在貸款決策中。姓名和性別等信息可能成為以非法方式對申請人進行分類和識別的代理。即使這種偏見是無意的,它仍然會因不遵守監(jiān)管要求而使組織面臨風險,并可能導致某些人群被不公平地拒絕貸款或信貸額度。

目前,組織沒有適當?shù)拇胧﹣沓晒p輕AI系統(tǒng)中的偏見。但隨著人工智能越來越多地在企業(yè)中部署以告知決策,組織努力減少偏見至關重要,這不僅是出于道德原因,而且是為了遵守監(jiān)管要求并增加收入。

“公平意識”文化與實施

專注于公平意識設計和實施的解決方案將產(chǎn)生最有益的結果。提供者應該有一種分析文化,將負責任的數(shù)據(jù)獲取、處理和管理視為算法公平的必要組成部分,因為如果人工智能項目的結果是由有偏見、受損或傾斜的數(shù)據(jù)集生成的,受影響的各方將無法充分保護免受歧視性傷害。

以下是數(shù)據(jù)科學團隊必須牢記的數(shù)據(jù)公平要素:

代表性:根據(jù)具體情況,數(shù)據(jù)樣本中弱勢群體或受法律保護的群體的代表性不足或過多可能會導致在訓練模型的結果中系統(tǒng)性地使弱勢群體處于不利地位。為避免此類抽樣偏差,領域專業(yè)知識對于評估收集或獲取的數(shù)據(jù)與要建模的基礎人群之間的擬合度至關重要。技術團隊成員應提供補救方法,以糾正抽樣中的代表性缺陷。

適合目的和充分性:了解收集的數(shù)據(jù)是否足以滿足項目的預期目的很重要。數(shù)據(jù)集不足可能無法公平地反映應權衡的質量,以產(chǎn)生與AI系統(tǒng)預期目的一致的合理結果。因此,具有技術和政策能力的項目團隊成員應合作確定數(shù)據(jù)量是否足夠且適合用途。

源完整性和測量準確性:有效的偏差緩解始于數(shù)據(jù)提取和收集過程的一開始。測量的來源和工具都可能將歧視性因素引入數(shù)據(jù)集中。為了確保歧視性的無害,數(shù)據(jù)樣本必須具有最佳的來源完整性。這涉及確?;虼_認數(shù)據(jù)收集過程涉及適當、可靠和公正的測量來源和穩(wěn)健的收集方法。

及時性和新近性:如果數(shù)據(jù)集包含過時的數(shù)據(jù),則基礎數(shù)據(jù)分布的變化可能會對訓練模型的泛化性產(chǎn)生不利影響。如果這些分布漂移反映了不斷變化的社會關系或群體動態(tài),那么這種關于基礎人口實際特征的準確性損失可能會給人工智能系統(tǒng)帶來偏見。在防止歧視性結果時,應仔細檢查數(shù)據(jù)集所有元素的及時性和新近性。

相關性、適當性和領域知識:理解和使用最合適的數(shù)據(jù)來源和數(shù)據(jù)類型對于構建強大且公正的人工智能系統(tǒng)至關重要。對潛在人口分布和項目預測目標的扎實領域知識有助于選擇最佳相關測量輸入,從而有助于合理解決定義的解決方案。領域專家應與數(shù)據(jù)科學團隊密切合作,以幫助確定最合適的測量類別和來源。

雖然基于AI的系統(tǒng)有助于決策自動化流程并節(jié)省成本,但將AI作為解決方案的金融機構必須保持警惕,以確保不會發(fā)生有偏見的決策。合規(guī)領導者應與他們的數(shù)據(jù)科學團隊保持同步,以確認AI能力是負責任、有效且沒有偏見的。制定支持負責任人工智能的戰(zhàn)略是正確的做法,它還可能為遵守未來的人工智能法規(guī)提供一條途徑。