揭秘歐盟人工智能法案
歐盟已采取行動規(guī)范機器學(xué)習(xí)。這項新法律對數(shù)據(jù)科學(xué)家意味著什么?
歐盟人工智能法案在歐洲議會獲得通過。您可能會想,“無論如何,我不在歐盟”,但相信我,這對于世界各地的數(shù)據(jù)科學(xué)家和個人來說實際上比您想象的更重要。歐盟人工智能法案是規(guī)范和管理某些機器學(xué)習(xí)模型在歐盟的使用或影響歐盟公民的重大舉措,其中包含一些嚴(yán)格的規(guī)則和對違規(guī)行為的嚴(yán)厲處罰。
該法律對風(fēng)險進(jìn)行了大量討論,這意味著歐盟公民的健康、安全和基本權(quán)利面臨風(fēng)險。這不僅僅是某種理論上的人工智能災(zāi)難的風(fēng)險,還涉及日常風(fēng)險,即您正在構(gòu)建的模型或您正在銷售的產(chǎn)品在某種程度上使現(xiàn)實生活變得更糟。如果您熟悉當(dāng)今有關(guān)人工智能倫理的許多爭論,那么這聽起來應(yīng)該很熟悉。嵌入的歧視和對人民權(quán)利的侵犯,以及對人民健康和安全的損害,是當(dāng)前人工智能產(chǎn)品和公司面臨的嚴(yán)重問題,而這項法律是歐盟保護(hù)人民的首次努力。
一 定義人工智能
普通讀者都知道,我們一直希望“人工智能”得到明確的定義。在這種情況下,該法案對“人工智能”的定義如下:
一種基于機器的系統(tǒng),旨在以不同程度的自主性運行,在部署后可能表現(xiàn)出適應(yīng)性,并且對于顯式或隱式目標(biāo),從其接收到的輸入推斷如何生成輸出,例如預(yù)測、內(nèi)容、建議或決策,這些輸出可以影響物理或虛擬環(huán)境。
那么,這到底意味著什么呢?我的解釋是,產(chǎn)生用于影響世界(特別是人們的身體或數(shù)字條件)的輸出的機器學(xué)習(xí)模型屬于這個定義。它不必自動適應(yīng)實時或重新訓(xùn)練,盡管如果這樣做的話也包括在內(nèi)。
但如果您正在構(gòu)建用于執(zhí)行以下操作的 ML 模型:
決定人們的風(fēng)險水平,例如信用風(fēng)險、規(guī)則或違法風(fēng)險等
確定在線用戶在提要或廣告中顯示哪些內(nèi)容
區(qū)分同一產(chǎn)品向不同人顯示的價格
為人們推薦最好的治療、護(hù)理或服務(wù)
建議人們是否采取某些行動
如果你的模型影響到任何歐盟公民,那么這些都將受到這項法律的保護(hù)——這只是舉幾個例子。
二 人工智能應(yīng)用分類
所有人工智能并不相同,法律也承認(rèn)這一點。人工智能的某些應(yīng)用將被完全禁止,而其他應(yīng)用則受到更嚴(yán)格的審查和透明度要求。
1.不可接受的風(fēng)險人工智能系統(tǒng)
這類系統(tǒng)現(xiàn)在被稱為“不可接受的風(fēng)險人工智能系統(tǒng)”,是根本不允許的。這部分法律將首先生效,即六個月后。
通過行為操縱或欺騙手段讓人們做他們本來不會做的事情
由于年齡或殘疾等原因而針對人們,以改變他們的行為和/或利用他們
生物識別分類系統(tǒng),嘗試根據(jù)高度敏感的特征對人進(jìn)行分類
導(dǎo)致社會評分或差別待遇的人格特征評估
在選定的一組用例之外,為執(zhí)法部門提供“實時”生物特征識別(有針對性地搜尋失蹤或被綁架人員、對生命或安全/恐怖主義構(gòu)成迫在眉睫的威脅,或起訴特定犯罪)
預(yù)測性警務(wù)(預(yù)測人們將來會犯罪)
廣泛的面部識別/生物識別掃描或數(shù)據(jù)抓取
沒有醫(yī)療或安全目的的教育或工作中的情緒推斷系統(tǒng)
例如,這意味著您無法建立(或被迫提交)旨在確定您是否“高興”足以獲得零售工作的篩選。面部識別僅限于選擇的、有針對性的、特定的情況。預(yù)測警務(wù)現(xiàn)在非常遺憾,它已經(jīng)退出了。
“生物識別分類”點是指利用政治、宗教、哲學(xué)信仰、性取向、種族等危險或敏感特征對人們進(jìn)行分組的模型。法律禁止使用人工智能嘗試根據(jù)這些類別給人們貼上標(biāo)簽,這是可以理解的。
2.高風(fēng)險人工智能系統(tǒng)
該列表涵蓋了未被禁止但受到嚴(yán)格審查的系統(tǒng)。有涵蓋所有這些系統(tǒng)的具體規(guī)則和規(guī)定,如下所述。
醫(yī)療設(shè)備中的人工智能
車輛中的人工智能
情緒識別系統(tǒng)中的人工智能
人工智能在警務(wù)領(lǐng)域的應(yīng)用
這不包括上述那些特定用例。因此,情緒識別系統(tǒng)可能是被允許的,但不能用于工作場所或教育領(lǐng)域。醫(yī)療設(shè)備和車輛中的人工智能被認(rèn)為對健康和安全具有嚴(yán)重風(fēng)險或潛在風(fēng)險,這是正確的,并且需要非常小心地開展。
3.其他
剩下的另外兩個類別是“低風(fēng)險人工智能系統(tǒng)”和“通用人工智能模型”。通用模型包括 GPT-4、Claude 或 Gemini 等系統(tǒng),它們具有非常廣泛的用例,通常用于其他下游產(chǎn)品。因此,GPT-4 本身并不屬于高風(fēng)險或禁止類別,但嵌入它們以供使用的方式受到此處描述的其他規(guī)則的限制。您不能使用 GPT-4 進(jìn)行預(yù)測性警務(wù),但 GPT-4 可用于低風(fēng)險案件。
三 透明度和審查
假設(shè)您正在開發(fā)一個高風(fēng)險的人工智能應(yīng)用程序,并且您希望遵守所有規(guī)則并獲得批準(zhǔn)。如何開始?
對于高風(fēng)險人工智能系統(tǒng),您將負(fù)責(zé)以下事項:
維護(hù)并確保數(shù)據(jù)質(zhì)量:您在模型中使用的數(shù)據(jù)是您的責(zé)任,因此您需要仔細(xì)管理它。
提供文檔和可追溯性:您從哪里獲得數(shù)據(jù),您能證明嗎?您能展示您所做的任何更改或編輯嗎?
提供透明度:如果公眾正在使用您的模型(想想聊天機器人)或者模型是您產(chǎn)品的一部分,您必須告訴用戶情況確實如此。不要假裝模特只是客戶服務(wù)熱線或聊天系統(tǒng)中的真人。這實際上適用于所有模型,甚至是低風(fēng)險模型。
使用人類監(jiān)督:僅僅說“模型說……”并不能解決問題。人類將對模型的結(jié)果負(fù)責(zé),最重要的是,對結(jié)果的使用方式負(fù)責(zé)。
保護(hù)網(wǎng)絡(luò)安全和穩(wěn)健性:您需要注意確保您的模型免受網(wǎng)絡(luò)攻擊、破壞和無意的隱私侵犯。如果你的模型因代碼錯誤而搞砸,或者由于你未修復(fù)的漏洞而被黑客攻擊,那么后果將由你承擔(dān)。
遵守影響評估:如果您正在構(gòu)建高風(fēng)險模型,您需要對用戶或用戶的健康、安全和權(quán)利可能產(chǎn)生的影響(即使您無意)進(jìn)行嚴(yán)格的評估。民眾。
對于公共實體,在歐盟公共數(shù)據(jù)庫中注冊:該注冊表是作為新法律的一部分而創(chuàng)建的,備案要求將適用于“公共當(dāng)局、機構(gòu)或團(tuán)體”——因此主要是政府機構(gòu),而不是私營企業(yè)。
四 測試
法律指出的另一件事是,如果你正在構(gòu)建一個高風(fēng)險的人工智能解決方案,你需要有一種方法來測試它,以確保你遵循指導(dǎo)原則,因此一旦對普通人進(jìn)行測試就可以允許您獲得知情同意。我們這些從事社會科學(xué)的人會發(fā)現(xiàn)這很熟悉——這很像獲得機構(gòu)審查委員會批準(zhǔn)進(jìn)行一項研究。
五 效力
該法分階段實施:
6個月后,對不可接受風(fēng)險AI的禁令生效
12個月后,通用AI治理生效
24 個月后,法律中所有剩余規(guī)則生效
注意:法律不涵蓋純粹的個人、非專業(yè)活動,除非它們屬于前面列出的禁止類型,因此您的小型開源項目不太可能構(gòu)成風(fēng)險。
六 處罰
那么,如果您的公司不遵守法律并且歐盟公民受到影響,會發(fā)生什么情況?法律中有明確的處罰措施。
如果您執(zhí)行上述禁止的人工智能形式之一:
處以最高3500 萬歐元的罰款,或者如果您是企業(yè),則處以去年全球收入的 7% (以較高者為準(zhǔn))
禁止的其他違法行為:
最高1500 萬歐元的罰款,或者,如果您是企業(yè),則為去年全球收入的 3% (以較高者為準(zhǔn))
就以下任何事情向當(dāng)局撒謊:
最高750 萬歐元的罰款,或者,如果您是企業(yè),則為去年全球收入的 1% (以較高者為準(zhǔn))
注意:對于中小型企業(yè),包括初創(chuàng)企業(yè),罰款以較低數(shù)字為準(zhǔn),而不是較高數(shù)字。
七 數(shù)據(jù)科學(xué)家應(yīng)該做什么
如果您要根據(jù)該法案的定義使用人工智能構(gòu)建模型和產(chǎn)品,您首先應(yīng)該熟悉法律及其要求。即使您今天沒有影響歐盟公民,這也可能對該領(lǐng)域產(chǎn)生重大影響,您應(yīng)該意識到這一點。
然后,留意您自己的企業(yè)或組織中潛在的違規(guī)行為。你有一些時間來發(fā)現(xiàn)和解決問題,但被禁止的人工智能形式首先生效。在大型企業(yè)中,您可能會有一個法律團(tuán)隊,但不要以為他們會為您處理所有這些事情。您是機器學(xué)習(xí)方面的專家,因此您是企業(yè)檢測和避免違規(guī)行為的重要組成部分。您可以使用歐盟人工智能法案網(wǎng)站上的合規(guī)檢查工具來幫助您。
目前,企業(yè)和組織正在使用多種形式的人工智能,而這些形式是新法律所不允許的,比如 Clearview AI,以及預(yù)測性警務(wù)。情緒測試也是人們在工作面試過程中遭受的一個非常真實的事情,以及大量的面部或其他生物識別收集。一旦法律全面生效,對我們所有人來說,關(guān)注這一點并了解執(zhí)法情況將是非常重要的。
- 上一篇
全民元宇宙:虛擬世界的包容性
元宇宙是一個由虛擬現(xiàn)實(VR)和增強現(xiàn)實(AR)推動的沉浸式世界,采用以客戶為中心的方法,并結(jié)合基于區(qū)塊鏈和人工智能的3D和4D計算系統(tǒng)。它實際上重新定義了聯(lián)系、貿(mào)易、金融、財產(chǎn)所有權(quán)和經(jīng)濟。
- 下一篇
人工智能對數(shù)據(jù)中心電力和可持續(xù)性的雙重影響
盡管隨著人工智能的出現(xiàn),數(shù)據(jù)中心面臨著許多挑戰(zhàn),但人工智能對世界來說是積極的,這是人類最激動人心的時刻,但作為數(shù)據(jù)中心行業(yè)的領(lǐng)導(dǎo)者,我們有責(zé)任確保我們作為通往人工智能的門戶機會,負(fù)責(zé)任地提供它。