亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動端logo

有關(guān)通用人工智能需要知道的事項

沃卡惠2023-05-08 10:06:404636

最近,關(guān)于生成式人工智能工具的討論越來越多,特別是在多個大型語言模型和圖像生成器(如DALL-E或Midjourney)發(fā)布之后。

這些發(fā)明再次將通用人工智能(GPAI)置于人們的關(guān)注的目光下,并再次提出了諸如GPAI是否應(yīng)該受到監(jiān)管等假設(shè)性問題。

在人們進一步探索可能性之前,首先了解GPAI的概念,它的含義,它是什么時候引入的等等。

有關(guān)通用人工智能需要知道的事項

什么是通用人工智能?

兩年前,也就是2021年4月,歐盟委員會推出了通用人工智能。最初的人工智能法案提案免除了通用人工智能創(chuàng)建者遵守一些法律文書和其他責(zé)任標準的責(zé)任。

原因是它只適用于高風(fēng)險的人工智能,在法案中根據(jù)它們的用途和背景明確提到和解釋了這一點。

另一項規(guī)定,即第28條,支持了這一主張,并建議通用人工智能開發(fā)人員只有在對人工智能系統(tǒng)進行重大調(diào)整或發(fā)展以用于高風(fēng)險用途時才對合規(guī)負責(zé)。

但根據(jù)最近的報道,歐洲議會也在考慮對原始通用人工智能提供商的某些“義務(wù)”。

歐盟人工智能法案的基本目的是對使用人工智能開發(fā)和部署系統(tǒng)時所涉及的各種行為者鏈進行分類和分類。

以下是指導(dǎo)通用人工智能監(jiān)管的5個考慮因素

《人工智能法案》對通用人工智能的做法是為解決全球人工智能危害建立監(jiān)管基調(diào)的理想選擇。隨著最近公眾對生成式人工智能的興趣增加,監(jiān)管立場也有可能過度適應(yīng)當(dāng)前的問題。

令人驚訝的是,ChatGPT、dall-e2和Bard等較新的創(chuàng)新甚至都不是真正的問題;事實上,它們只是冰山一角。

推薦:負責(zé)任的人工智能-如何在監(jiān)管環(huán)境中采用道德模式

通用人工智能是一個龐大的類別

首先要理解的是,通用人工智能是一個巨大的類別,因此,將其應(yīng)用于廣泛的技術(shù)領(lǐng)域是合乎邏輯的,而不是將其局限于聊天機器人和法學(xué)碩士。

為了確保歐盟人工智能法案具有未來主義的性質(zhì),它必須涉及更大的規(guī)模。首先,GPAI的正確描述應(yīng)該包括許多可以作為其他人工智能系統(tǒng)基礎(chǔ)的技術(shù)(“任務(wù)”)。

歐盟理事會將其定義為:

“提供商打算執(zhí)行一般適用的功能,如圖像和語音識別、音頻和視頻生成、模式檢測、問題回答、翻譯等;通用人工智能系統(tǒng)可以在多個場景中使用,并且可以集成到多個其他AI系統(tǒng)中。”

通用人工智能可能造成廣泛的危害

雖然這些風(fēng)險不能在應(yīng)用層中完全克服,但我們可以否認它們可能對各種應(yīng)用程序和參與者產(chǎn)生影響的事實。我們應(yīng)該在制定通用人工智能監(jiān)管方法的同時,考慮人工智能技術(shù)的現(xiàn)狀、應(yīng)用及其工作方式。

例如,通用人工智能模型冒著產(chǎn)生反民主話語的風(fēng)險,例如針對性、種族和宗教少數(shù)群體的仇恨言論。這些模型的風(fēng)險在于,在它們的基礎(chǔ)數(shù)據(jù)中固化了受約束或扭曲的觀點。

通用人工智能應(yīng)在整個產(chǎn)品生命周期內(nèi)進行調(diào)節(jié)

為了讓通用人工智能考慮到涉眾的多樣性,它必須在整個產(chǎn)品周期中進行治理,而不僅僅是在應(yīng)用層。開發(fā)的第一個階段是至關(guān)重要的,創(chuàng)建這些模型的業(yè)務(wù)必須對他們利用的信息和他們做出的體系結(jié)構(gòu)決策負責(zé)。人工智能供應(yīng)網(wǎng)絡(luò)的現(xiàn)有架構(gòu)有效地使參與者能夠從遠程下游應(yīng)用程序中獲利,同時避免因開發(fā)層缺乏監(jiān)管而承擔(dān)任何相應(yīng)的責(zé)任。這包括數(shù)據(jù)的收集、清理和注釋過程,以及模型的創(chuàng)建、測試和評估過程。

一個標準的法律免責(zé)聲明是不夠的

通用人工智能的創(chuàng)建者不可能使用基本的法律免責(zé)聲明來免除他們的責(zé)任。這種方法可能導(dǎo)致一個危險的漏洞,它將釋放原始開發(fā)人員的所有責(zé)任,而將責(zé)任放在下游參與者身上,他們沒有能力管理所有風(fēng)險。理事會的一般方法確實有一個例外,即允許通用人工智能開發(fā)人員免除自己的任何責(zé)任,只要他們在說明中排除所有高風(fēng)險用途并確保系統(tǒng)不會被濫用。

推薦:發(fā)現(xiàn)、解決和揭穿隱藏的人工智能偏見

使非工業(yè)參與者、社會和研究人員參與更廣泛的咨詢

一個基本的、統(tǒng)一的文檔實踐來評估通用人工智能模型,特別是生成人工智能模型,跨越各種危害是一個正在進行的研究領(lǐng)域。為了避免膚淺的復(fù)選框練習(xí),監(jiān)管應(yīng)防止狹隘的評估方法。

在實施或向公眾提供通用人工智能系統(tǒng)之前,必須經(jīng)過細致的警惕、驗證和檢查。最近的建議將通用人工智能模型納入人工智能法案的范圍,要么推遲制定未來的具體標準(由委員會決定),要么試圖在人工智能法案的措辭中這樣做。

例如,在一個達成一致的社會中,可能產(chǎn)生的影響的分布可能會有所不同,這取決于一個原型是為整個社區(qū)構(gòu)建和使用的,還是為一個小社區(qū)使用的。

歐盟人工智能法案即將成為第一個廣泛的人工智能法律,總有一天,它將成為所有國家的統(tǒng)一標準。這就是為什么處理人工智能領(lǐng)域并將其轉(zhuǎn)化為每個人都可以遵循的全球模板至關(guān)重要的原因。