如何預(yù)防人工智能項(xiàng)目中常見的法律糾紛
人工智能 (AI) 的增加使用正在徹底改變企業(yè)的運(yùn)營方式,并對(duì)傳統(tǒng)上現(xiàn)代化進(jìn)程緩慢的行業(yè)產(chǎn)生顛覆性影響。為企業(yè)投資人工智能的好處是顯而易見的。人工智能可以提高生產(chǎn)力并增加新的熟練程度和可擴(kuò)展性,并且可以進(jìn)行定制以創(chuàng)造特定于行業(yè)的價(jià)值。
盡管有這些好處,但在技術(shù)項(xiàng)目中使用人工智能可能會(huì)導(dǎo)致復(fù)雜且有時(shí)意想不到的爭議。這些項(xiàng)目通常是隨項(xiàng)目進(jìn)展而發(fā)展的定制協(xié)議。因此,當(dāng)項(xiàng)目遇到困難時(shí),要確定哪里出了問題并確定人工智能在引起爭議的問題中可能發(fā)揮的作用可能具有挑戰(zhàn)性。
增加了人工智能硬件的復(fù)雜性
如今,機(jī)器學(xué)習(xí)正被用于更多種類的技術(shù)項(xiàng)目中。深度學(xué)習(xí)系統(tǒng)使用神經(jīng)網(wǎng)絡(luò),需要大量的技術(shù)資源來運(yùn)行、訓(xùn)練和生成決策、預(yù)測(cè)和發(fā)現(xiàn)類比。
傳統(tǒng)系統(tǒng)和標(biāo)準(zhǔn)圖形處理單元不太可能跟上對(duì) AI 工具和服務(wù)不斷增長的需求——增加了對(duì)希望使用 AI 的客戶和供應(yīng)商投資專門設(shè)計(jì)的 AI 硬件的需求,例如 Graphcore 的最近發(fā)布的“Bow”人工智能芯片據(jù)稱能夠?qū)C(jī)器學(xué)習(xí)任務(wù)的性能提高 40%。
對(duì)專業(yè)硬件的需求可能會(huì)增加與利用人工智能相關(guān)的成本,并且還會(huì)增加發(fā)生爭議的可能性,因?yàn)樵谥圃?、運(yùn)輸和安裝階段出現(xiàn)問題的機(jī)會(huì)更多。這很容易導(dǎo)致關(guān)鍵項(xiàng)目里程碑的實(shí)現(xiàn)延遲,進(jìn)而可能觸發(fā)延遲付款等補(bǔ)救措施,在最極端的情況下,還會(huì)終止合同。
技術(shù)項(xiàng)目通常會(huì)涉及多個(gè)利益相關(guān)者。實(shí)施人工智能解決方案所需的額外步驟的結(jié)果是,很難確定誰應(yīng)對(duì)故障和延遲負(fù)責(zé),無論是供應(yīng)商、客戶、第三方還是兩者兼而有之。如果從一開始就沒有很好地界定各方的角色和責(zé)任,就會(huì)引發(fā)一系列糾紛。
這些通常是違反與供應(yīng)商和客戶之間的協(xié)議有關(guān)的合同糾紛,以及可能與簽訂制造、運(yùn)輸和安裝專門設(shè)計(jì)的人工智能硬件的第三方簽訂的各種合同。
確定責(zé)任
雖然人工智能系統(tǒng)使用的映射過程是自動(dòng)化的,但設(shè)計(jì)、初始訓(xùn)練數(shù)據(jù)和通過系統(tǒng)訓(xùn)練模型的進(jìn)一步數(shù)據(jù)由人工操作員控制。因此,人類可以看到人工智能工具開始使用的數(shù)據(jù)(輸入),以及工具產(chǎn)生的結(jié)果(輸出)。
介于兩者之間的情況通常被稱為“黑匣子問題”——在添加輸入數(shù)據(jù)后,更改底層 AI 系統(tǒng)可能非常困難,而且通常不會(huì)透明或解釋如何或?yàn)槭裁茨P彤a(chǎn)生了特定的輸出。
這種缺乏透明度可能會(huì)造成復(fù)雜的責(zé)任問題,尤其是目前部署在技術(shù)項(xiàng)目中的主要人工智能工具和服務(wù)具有足夠的自主性,可以在沒有太多人工干預(yù)的情況下運(yùn)行。因此,當(dāng)人工智能系統(tǒng)故障直接導(dǎo)致?lián)p失發(fā)生時(shí),要確定誰承擔(dān)責(zé)任要困難得多,故障可能是由于技術(shù)故障或模型設(shè)計(jì)和訓(xùn)練方式中的人為錯(cuò)誤造成的。
人類參與創(chuàng)建人工智能工具或服務(wù)意味著人類偏見很可能會(huì)反映在輸入數(shù)據(jù)、訓(xùn)練數(shù)據(jù)和人工智能系統(tǒng)產(chǎn)生的輸出中。算法偏差可能出現(xiàn)在許多不同的環(huán)境中,并可能導(dǎo)致各種形式的歧視。
在金融服務(wù)環(huán)境中,人工智能系統(tǒng)的偏見可能導(dǎo)致資產(chǎn)估值錯(cuò)誤,進(jìn)而導(dǎo)致錯(cuò)失投資機(jī)會(huì)。使用面部識(shí)別技術(shù)引起的歧視也有幾個(gè)引人注目的例子,其中性別和種族等特征以及社會(huì)評(píng)分系統(tǒng)的使用是該技術(shù)的使用和感知準(zhǔn)確性所固有的。
管理人工智能解決方案合同中的風(fēng)險(xiǎn)
客戶和供應(yīng)商必須清楚項(xiàng)目的主要目標(biāo),以及使用人工智能實(shí)現(xiàn)這些目標(biāo)的方式,這一點(diǎn)至關(guān)重要。締約方應(yīng)確保有一個(gè)全面的協(xié)議來管理項(xiàng)目并在出現(xiàn)問題時(shí)提供確定性,特別是在任何責(zé)任限制方面。
協(xié)議至少應(yīng)包括涵蓋機(jī)密性、責(zé)任、數(shù)據(jù)保護(hù)和知識(shí)產(chǎn)權(quán)的詳細(xì)條款。在沒有專門的人工智能立法的情況下,這些領(lǐng)域目前可以自由協(xié)商。然而,應(yīng)該注意的是,合同標(biāo)準(zhǔn)正在制定中——例如,知識(shí)產(chǎn)權(quán)條款將始終聲明供應(yīng)商擁有人工智能中的知識(shí)產(chǎn)權(quán),而客戶擁有使用它的許可。
通過確保各方清楚各自的角色和誰承擔(dān)風(fēng)險(xiǎn),可以緩解與專門設(shè)計(jì)的人工智能硬件相關(guān)的問題。該協(xié)議還應(yīng)規(guī)定支持項(xiàng)目的治理結(jié)構(gòu),并明確第三方關(guān)系和依賴關(guān)系將如何管理以及由誰管理。
人工智能的使用意味著典型的責(zé)任框架可能不適合。簽約在技術(shù)項(xiàng)目中使用人工智能工具或服務(wù)的各方應(yīng)確保從一開始,協(xié)議就包含人工智能特定的保證、賠償和限制條款。
這些術(shù)語應(yīng)針對(duì)將部署 AI 工具或服務(wù)的特定環(huán)境進(jìn)行定制。該術(shù)語越籠統(tǒng),就越難確定是否滿足特定標(biāo)準(zhǔn)并確定責(zé)任。由于輸出與最初的人工輸入(前面提到的黑盒問題)過于脫節(jié),在涉及人工智能的情況下,通用服務(wù)標(biāo)準(zhǔn)(例如合理的技能和護(hù)理)不太可能是足夠的。
因此,締約方將需要起草創(chuàng)造性保證,例如,規(guī)定人工智能工具的行為方式應(yīng)與具備適當(dāng)能力和經(jīng)驗(yàn)的人在提供服務(wù)時(shí)運(yùn)用合理技能和謹(jǐn)慎行事的方式相同。
同樣,人工智能解決方案的購買者可能希望包含用于訓(xùn)練人工智能的數(shù)據(jù)集沒有歧視性、不違反數(shù)據(jù)保護(hù)原則或人工智能不會(huì)侵犯第三方知識(shí)產(chǎn)權(quán)的保證。
在合同談判階段應(yīng)仔細(xì)審查責(zé)任限制和賠償條款,以確保在人工智能發(fā)生災(zāi)難性故障導(dǎo)致重大第三方索賠的情況下,一方不會(huì)承擔(dān)不成比例的責(zé)任。
這些問題與人工智能的用途高度相關(guān),因此締約方應(yīng)與其利益相關(guān)者、顧問、律師和其他專家接觸,以幫助他們駕馭這一復(fù)雜領(lǐng)域。
締約方還需要了解與算法偏差相關(guān)的風(fēng)險(xiǎn),并應(yīng)尋求建立內(nèi)部指導(dǎo)方針、流程和控制措施,以最大限度地減少和解決有偏見的人工智能系統(tǒng)可能導(dǎo)致的歧視和數(shù)據(jù)隱私風(fēng)險(xiǎn)。有效的內(nèi)部治理框架可以幫助從初始數(shù)據(jù)集中識(shí)別任何不合理的偏差,也可以標(biāo)記任何歧視性輸出。
不斷變化的監(jiān)管格局
盡管人們普遍認(rèn)為需要人工智能監(jiān)管,但目前還沒有就如何實(shí)現(xiàn)這一點(diǎn)達(dá)成廣泛共識(shí)。
2021 年 4 月,歐盟委員會(huì)發(fā)布了人工智能法規(guī)草案。歐盟沒有選擇涵蓋所有人工智能系統(tǒng)的全面監(jiān)管,而是選擇采用基于風(fēng)險(xiǎn)的方法來區(qū)分人工智能的不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)和低風(fēng)險(xiǎn)使用。
監(jiān)管干預(yù)的程度取決于人工智能工具或服務(wù)屬于哪一類風(fēng)險(xiǎn)。客戶和供應(yīng)商都應(yīng)熟悉法規(guī)草案,并確定他們是否正在使用或打算使用具有不可接受風(fēng)險(xiǎn)的人工智能(因此禁止使用人工智能工具或服務(wù)),或者他們是否可能受到以下因素的影響提供高風(fēng)險(xiǎn)人工智能系統(tǒng)的要求。
未能解釋法規(guī)草案可能會(huì)導(dǎo)致違規(guī)處罰,最高可達(dá)全球年?duì)I業(yè)額的 6% 或 3000 萬歐元(2960 萬美元),以較高者為準(zhǔn)。
條例草案的地域范圍集中在人工智能系統(tǒng)的影響是否發(fā)生在歐盟內(nèi)部,而不是人工智能提供者或用戶的位置。
今年 7 月,英國政府發(fā)布了一份政策文件,題為“建立一種支持創(chuàng)新的方法來監(jiān)管人工智能”。本文以英國的國家人工智能戰(zhàn)略為基礎(chǔ),闡述了政府對(duì)英國未來人工智能監(jiān)管的建議 英國的人工智能監(jiān)管方法旨在展示政府在脫歐后支持創(chuàng)新的監(jiān)管立場(chǎng),因?yàn)樗哪繕?biāo)是相稱,輕觸和前瞻性,希望這將推動(dòng)創(chuàng)新和投資的發(fā)展。
雖然歐盟的人工智能法規(guī)草案將人工智能的使用按風(fēng)險(xiǎn)級(jí)別分類,但英國并未尋求對(duì)人工智能的特定用途進(jìn)行分組,而是選擇依賴六項(xiàng)核心原則,這些原則將要求人工智能開發(fā)人員和用戶
- 確保安全使用人工智能;
- 確保人工智能在技術(shù)上是安全的并按設(shè)計(jì)運(yùn)行;
- 確保人工智能具有適當(dāng)?shù)耐该鞫群涂山忉屝裕?/li>
- 考慮公平;
- 確定負(fù)責(zé)人工智能的法人;和
- 闡明尋求補(bǔ)救或可競(jìng)爭性的途徑。
此外,與歐盟采用的集中式方法相比,英國的提案將允許不同的監(jiān)管機(jī)構(gòu),例如 Ofcom、競(jìng)爭市場(chǎng)管理局(CMA)和信息專員辦公室(ICO),來解釋和實(shí)施六項(xiàng)核心原則,并采用量身定制的方法來解決人工智能在一系列行業(yè)中日益增長的使用。
人工智能系統(tǒng)的開發(fā)人員和供應(yīng)商還應(yīng)該了解數(shù)字監(jiān)管合作論壇 (DRCF) 最近發(fā)表的關(guān)于算法處理的論文(其中包括人工智能應(yīng)用程序,例如由機(jī)器學(xué)習(xí)驅(qū)動(dòng)的應(yīng)用程序)。
該論文指出,雖然算法處理有可能帶來顯著的好處,但如果不負(fù)責(zé)任地管理,它也會(huì)帶來一些風(fēng)險(xiǎn)。為了管理這些潛在危害,DRCF 建議可以通過增加使用監(jiān)管沙箱(例如金融行為監(jiān)管局 (FCA) 的數(shù)字沙箱)來實(shí)現(xiàn)更加親力親為的合作干預(yù)策略。
在這種策略被證明無效的情況下,該文件建議監(jiān)管機(jī)構(gòu)可以訴諸權(quán)力,對(duì)那些不遵守規(guī)定并造成傷害的人采取執(zhí)法行動(dòng)。
因此,簽約在技術(shù)項(xiàng)目中使用人工智能工具或服務(wù)的各方應(yīng)努力了解最新的人工智能監(jiān)管發(fā)展,以確保他們了解自己的角色和責(zé)任,并了解他們可能面臨的監(jiān)管干預(yù)水平。
總之,通過采取上述步驟,認(rèn)識(shí)到并減輕技術(shù)項(xiàng)目中使用人工智能的潛在風(fēng)險(xiǎn)的客戶和供應(yīng)商,很可能會(huì)獲得人工智能的諸多好處。那些未能盡早采取行動(dòng)以合同方式保護(hù)自己的人很容易發(fā)現(xiàn)自己陷入與本文中類似問題的技術(shù)糾紛,以及更多特定于項(xiàng)目的糾紛。
同樣,各方必須在項(xiàng)目的早期階段考慮人工智能監(jiān)管的各種提議,以確定適用的監(jiān)管框架,并評(píng)估是否需要進(jìn)行合同變更以解釋人工智能監(jiān)管的發(fā)展。
- 上一篇
進(jìn)入元宇宙:為虛擬工作空間提供案例
隨著技術(shù)和硬件的改進(jìn),基于增強(qiáng)現(xiàn)實(shí) (AR) 和虛擬現(xiàn)實(shí) (VR) 的解決方案將成為企業(yè)的關(guān)鍵組件,包括為員工提供虛擬協(xié)作空間訪問權(quán)限的解決方案。工作人員可以在世界任何地方打開
- 下一篇
不管扎克伯格怎么想,虛擬世界都不需要VR
馬克扎克伯格的虛擬世界夢(mèng)想讓投資者做噩夢(mèng)。在Meta價(jià)值暴跌、季度收入首次出現(xiàn)下滑以及對(duì)增長的悲觀預(yù)測(cè)之前,他每年對(duì)“實(shí)體互聯(lián)網(wǎng)”進(jìn)行100億美元的賭注。他最