為什么人工智能治理對于構(gòu)建更可信、更可解釋的人工智能很重要
隨著政府和企業(yè)快速采用人工智能工具,人工智能倫理將觸及社會的許多方面。然而,根據(jù)報告,78%的公司表示他們“沒有能力確保使用新人工智能系統(tǒng)的道德影響”,只有38%的公司采取了數(shù)據(jù)偏差檢測和緩解措施。
與顛覆性技術(shù)的通常情況一樣,人工智能發(fā)展的速度已經(jīng)迅速超過了監(jiān)管的速度。但是,在采用人工智能的競賽中,許多公司開始意識到監(jiān)管機構(gòu)正在迎頭趕上。一些公司已經(jīng)因為開發(fā)或僅僅使用有偏見的人工智能算法而被提起訴訟。
企業(yè)正感受到人工智能監(jiān)管的壓力
今年,AI責任指令該法案將使起訴公司造成的傷害變得更容易,這是阻止公司開發(fā)和部署有害人工智能的更廣泛努力的一部分。該法案在擬議的人工智能法案上增加了額外的一層,這將要求對人工智能的“高風險”使用進行額外的檢查,例如在警務(wù)、招聘或醫(yī)療保健中的使用。本月早些時候公布的這項法案很可能在未來幾年內(nèi)成為法律。
雖然有些人擔心人工智能責任指令會抑制創(chuàng)新,但其目的是讓人工智能公司承擔責任,并要求他們解釋他們的人工智能系統(tǒng)是如何構(gòu)建和訓練的。未能遵守規(guī)定的科技公司將面臨全歐洲范圍的集體訴訟。
雖然在采取保護性政策方面動作較慢,但也公布了一份藍圖AI權(quán)利法案本月早些時候概述了消費者如何應(yīng)該免受有害人工智能的侵害:
- 人工智能應(yīng)該是安全有效的
- 算法不應(yīng)該歧視
- 數(shù)據(jù)隱私必須得到保護
- 消費者應(yīng)該知道人工智能何時被使用
- 消費者應(yīng)該能夠選擇不使用它,而是與人交談
但是有一個問題。“重要的是要認識到人工智能權(quán)利法案不是有約束力的立法”。這是一系列建議,政府機構(gòu)和科技公司可能會自愿遵守,也可能不會遵守。這是因為它是由白宮科學技術(shù)政策辦公室創(chuàng)建的,該機構(gòu)為總統(tǒng)提供建議,但不能推動實際的法律。
不管有沒有嚴格的人工智能法規(guī),許多公司和機構(gòu)已經(jīng)面臨不道德人工智能實踐的訴訟。
公司需要關(guān)心的不僅僅是法律費用。公眾對人工智能的信任正在減弱。無論一家企業(yè)是否在關(guān)于有偏見的人工智能的指控的法律斗爭中失敗,像這樣的事件對公司聲譽的影響可能是破壞性的。
盡管這讓人工智能的未來變得黯淡,但一切還沒有結(jié)束。IBM的全球人工智能采用指數(shù)發(fā)現(xiàn)85%的IT專業(yè)人士同意,消費者更有可能選擇一家對其人工智能模型如何構(gòu)建、管理和使用透明的公司。
采取措施采用道德人工智能實踐的企業(yè)可能會獲得回報。那么,為什么這么多人遲遲不采取行動呢?
問題可能是,盡管許多公司希望采用符合道德的人工智能實踐,但許多公司不知道從哪里開始人工智能治理
人工智能治理是定義政策和建立問責制的過程,以指導(dǎo)人工智能系統(tǒng)在組織中的創(chuàng)建和部署。
在治理之前,人工智能領(lǐng)域的人們直接從實驗轉(zhuǎn)向生產(chǎn),但后來他們意識到,好吧,等一下,這不是我期望系統(tǒng)做出的決定。為什么會這樣,他們無法解釋為什么人工智能會做出某些決定。
人工智能治理實際上是確保公司知道他們的算法在做什么——并有文檔支持它。這意味著跟蹤和記錄算法是如何訓練的,訓練中使用的參數(shù),以及測試階段使用的任何指標。
有了這一點,公司就可以很容易地了解他們的人工智能系統(tǒng)的表面下發(fā)生了什么,并允許他們在審計的情況下輕松地提取文檔。這種透明度也有助于打破公司內(nèi)部的知識孤島。
如果一名數(shù)據(jù)科學家離開了公司,而您沒有將過去的信息插入流程中的這個鉤子,這將非常難以管理。那些調(diào)查系統(tǒng)的人不會知道發(fā)生了什么。因此,這種文檔化的過程只是提供了關(guān)于正在發(fā)生的事情的基本理性,并使向組織內(nèi)的其他部門(如風險經(jīng)理)解釋它變得更容易。
雖然法規(guī)仍在制定中,但現(xiàn)在采用人工智能治理是邁向面向未來的重要一步:
來得又快又有力?,F(xiàn)在,人們出于事后審計的目的,制作手動文檔。相反,現(xiàn)在開始記錄可以幫助公司為任何即將到來的法規(guī)做好準備。
創(chuàng)新與治理之爭
公司可能會面臨快速創(chuàng)新和率先上市的日益激烈的競爭。那么,花時間進行人工智能治理不會減緩這一進程并扼殺創(chuàng)新嗎?
人工智能治理不會阻止創(chuàng)新,就像剎車會阻止人們開車一樣:“汽車里有牽引力控制系統(tǒng),汽車里有剎車。所有這些都是為了讓你走得更快,更安全。這就是我對人工智能治理的看法。這真的是為了從你的人工智能中獲得最大價值,同時確保在你創(chuàng)新時有護欄幫助你。”
這符合采用人工智能治理的最大原因:它具有商業(yè)意義。沒有人想要有缺陷的產(chǎn)品和服務(wù)。設(shè)置清晰透明的文檔標準、檢查點和內(nèi)部審查流程以減少偏見,最終可以幫助企業(yè)創(chuàng)造更好的產(chǎn)品并加快上市速度。
仍然不確定從哪里開始?
就在這個月,這家科技巨頭推出了IBM人工智能治理,這是一個一站式解決方案,適用于那些努力更好地了解這些系統(tǒng)背后發(fā)生的事情的公司。該工具使用自動化軟件與公司的數(shù)據(jù)科學平臺合作,開發(fā)一致且透明的算法模型管理流程,同時跟蹤開發(fā)時間、元數(shù)據(jù)、部署后監(jiān)控和定制工作流。這有助于減輕數(shù)據(jù)科學團隊的壓力,讓他們專注于其他任務(wù)。該工具還幫助業(yè)務(wù)領(lǐng)導(dǎo)始終了解他們的模型,并在審計時支持適當?shù)奈臋n。
對于正在整個組織中使用人工智能并且不知道首先關(guān)注什么的公司來說,這是一個特別好的選擇。