亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動端logo

現(xiàn)在自我調(diào)節(jié)是人工智能的控制標準

沃卡惠2023-04-21 09:58:074636

你是否擔心人工智能發(fā)展過快,可能會產(chǎn)生負面后果?你希望有一部國家法律來規(guī)范它嗎?如今,沒有新的法律來限制人工智能的使用,通常自我監(jiān)管成為采用人工智能的公司的最佳選擇——至少目前是這樣。

盡管“人工智能”取代“大數(shù)據(jù)”成為科技界最熱流行詞匯已經(jīng)很多年了,但2022年11月下旬ChatGPT的推出開啟了一場人工智能淘金熱,這讓包括我們在內(nèi)的許多人工智能觀察者感到驚訝。在短短幾個月內(nèi),大量強大的生成人工智能模型吸引了世界的注意力,這要歸功于它們模仿人類語言和理解的非凡能力。

在ChatGPT的出現(xiàn)的推動下,主流文化中生成模型的非凡崛起引發(fā)了許多關于這一切走向的問題。人工智能能夠產(chǎn)生令人信服的詩歌和異想天開的藝術,這一令人驚訝的現(xiàn)象正在讓位于對人工智能負面后果的擔憂,從消費者傷害和失業(yè),一直到虛假監(jiān)禁,甚至毀滅人類。

這讓一些人非常擔心。上個月,一個人工智能研究人員聯(lián)盟尋求暫停開發(fā)比GPT-4更大的新生成模型六個月(延展閱讀:公開信敦促暫停人工智能研究),GPT-4是OpenAI上個月推出的大規(guī)模語言模型(LLM)。

圖靈獎得主Yoshua Bengio和OpenAI聯(lián)合創(chuàng)始人Elon Musk等人簽署的一封公開信表示:“先進的人工智能可能代表著地球生命史的深刻變化,應該以相應的謹慎和資源進行規(guī)劃和管理。”“不幸的是,這種水平的規(guī)劃和管理并沒有實現(xiàn)。”

毫不奇怪,對人工智能監(jiān)管的呼聲正在上升。民意調(diào)查顯示,美國人認為人工智能不可信,希望對其進行監(jiān)管,尤其是在自動駕駛汽車和獲得政府福利等有影響力的事情上。

然而,盡管有幾項針對人工智能的新地方法律——比如紐約市的一項法律,該法律側重于在招聘中使用人工智能,執(zhí)法工作被推遲到本月——國會沒有專門針對接近終點線的人工智能的新聯(lián)邦法規(guī)(盡管人工智能已涉足金融服務和醫(yī)療保健等高度監(jiān)管行業(yè)的法律范疇)。

在人工智能的刺激下,一家公司該做什么?公司想要分享人工智能的好處并不奇怪。畢竟,成為“數(shù)據(jù)驅(qū)動”的沖動被視為數(shù)字時代生存的必要條件。然而,公司也希望避免使用人工智能不當可能導致的負面后果,無論是真實的還是感知的。

人工智能是狂野的“西部世界”。人工智能律師事務所BNH.AI的創(chuàng)始人Andrew Burt曾說過,“沒有人知道如何管理風險。每個人都有不同的做法。”

話雖如此,公司可以使用幾個框架來幫助管理人工智能的風險。Burt建議使用人工智能風險管理框架(RMF: Risk Management Framework),該框架來自美國國家標準研究所(NIST),于今年早些時候定稿。

RMF幫助公司思考他們的人工智能是如何工作的,以及可能產(chǎn)生的潛在負面后果。它使用“地圖、測量、管理和治理”的方法來理解并最終降低在各種服務產(chǎn)品中使用人工智能的風險。

另一個人工智能風險管理框架來自O'Neil風險咨詢與算法審計(ORCAA)首席執(zhí)行官Cathy O'Neil。ORCAA提出了一個名為“可解釋的公平”的框架。

可解釋的公平性為組織提供了一種方法,不僅可以測試他們的算法是否存在偏見,還可以研究當檢測到結果差異時會發(fā)生什么。例如,如果一家銀行正在確定是否有資格獲得學生貸款,那么哪些因素可以合法地用于批準或拒絕貸款或收取更高或更低的利息?

顯然,銀行必須使用數(shù)據(jù)來回答這些問題。但是,他們可以使用哪些數(shù)據(jù),也就是說,哪些因素反映了貸款申請人?哪些因素在法律上應該被允許使用,哪些因素不應該被使用?O'Neil說,回答這些問題既不容易也不簡單。

O'Neil在上個月舉行的Nvidia GPU技術會議(GTC)上的一次討論中表示:“這就是這個框架的全部意義,即這些合法因素必須合法化。”

數(shù)據(jù)分析和人工智能軟件供應商Dataiku人工智能的負責人Triveni Gandhi表示,即使沒有新的人工智能法律,公司也應該開始自問如何公平、合乎道德地實施人工智能,以遵守現(xiàn)有法律。

“人們必須開始思考,好吧,我們?nèi)绾慰创F(xiàn)有的法律,并將其應用于目前存在的人工智能用例?”“有一些規(guī)定,但也有很多人在思考我們想要構建人工智能的道德和價值導向方式。這些實際上是公司開始問自己的問題,即使沒有總體規(guī)定。”

歐盟將人工智能的潛在危害歸類為“臨界金字塔”

歐盟已經(jīng)在推進自己的法規(guī),即《人工智能法案》,該法案可能在今年晚些時候生效。

《人工智能法案》將為影響歐盟居民的人工智能的使用創(chuàng)建一個共同的監(jiān)管和法律框架,包括人工智能的開發(fā)方式、公司可以將其用于什么目的,以及不遵守要求的法律后果。該法律可能會要求公司在某些用例中采用人工智能之前獲得批準,并禁止某些被認為風險太大的其他人工智能用途。