亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動端logo

大型語言模型要避免的六個(gè)陷阱

沃卡惠2023-05-10 09:58:184636

從安全和隱私問題到錯誤信息和偏見,大型語言模型帶來了風(fēng)險(xiǎn)和回報(bào)。

最近人工智能(AI)取得了令人難以置信的進(jìn)步,這主要是由于開發(fā)大型語言模型的進(jìn)步。這些都是文本和代碼生成工具的核心,例如ChatGPT、Bard和GitHub的Copilot。

這些模式正在被所有部門采用。但是,它們是如何被創(chuàng)造和使用的,以及它們?nèi)绾伪粸E用,仍然令人擔(dān)憂。一些國家已經(jīng)決定采取激進(jìn)的方法,暫時(shí)禁止特定的大型語言模型,直到適當(dāng)?shù)姆ㄒ?guī)到位。

以下來看看基于大型語言模型的工具在現(xiàn)實(shí)世界中的一些不利影響,以及減輕這些影響的一些策略。

大型語言模型要避免的六個(gè)陷阱

1.惡意的內(nèi)容

大型語言模型可以在很多方面提高生產(chǎn)力。它們能夠解釋人們的請求并解決相當(dāng)復(fù)雜的問題,這意味著人們可以把平凡、耗時(shí)的任務(wù)交給最喜歡的聊天機(jī)器人,然后簡單地檢查結(jié)果。

當(dāng)然,權(quán)力越大,責(zé)任越大。雖然大型語言模型可以創(chuàng)建有用的材料并加快軟件開發(fā),但它們也可以快速訪問有害信息,加速壞人的工作流程,甚至生成惡意內(nèi)容,如網(wǎng)絡(luò)釣魚電子郵件和惡意軟件。當(dāng)進(jìn)入門檻低到只需編寫一個(gè)構(gòu)造良好的聊天機(jī)器人提示符時(shí),“腳本小子”一詞就有了全新的含義。

雖然有一些方法可以限制訪問客觀上危險(xiǎn)的內(nèi)容,但它們并不總是可行或有效的。就像聊天機(jī)器人這樣的托管服務(wù)而言,內(nèi)容過濾至少可以幫助沒有經(jīng)驗(yàn)的用戶減慢速度。實(shí)現(xiàn)強(qiáng)大的內(nèi)容過濾器應(yīng)該是必要的,但它們并不是無所不能的。

2.提示注射

特制的提示符可以迫使大型語言模型忽略內(nèi)容過濾器并產(chǎn)生非法輸出。這個(gè)問題普遍存在于所有l(wèi)lm,但隨著這些模型與外部世界的聯(lián)系,這個(gè)問題將被放大;例如,作為ChatGPT的插件。這可以使聊天機(jī)器人“eval”用戶生成的代碼,從而導(dǎo)致任意代碼的執(zhí)行。從安全的角度來看,為聊天機(jī)器人配備這種功能是非常有問題的。

為了幫助緩解這種情況,了解基于llm的解決方案的功能以及它如何與外部端點(diǎn)交互是很重要的。確定它是否已連接到API,是否正在運(yùn)行社交媒體帳戶,或者是否在沒有監(jiān)督的情況下與客戶交互,并相應(yīng)地評估線程模型。

雖然提示注入在過去可能看起來無關(guān)緊要,但這些攻擊現(xiàn)在可能會產(chǎn)生非常嚴(yán)重的后果,因?yàn)樗鼈冮_始執(zhí)行生成的代碼,集成到外部API中,甚至讀取瀏覽器選項(xiàng)卡。

3.隱私資料/侵犯版權(quán)

訓(xùn)練大型語言模型需要大量的數(shù)據(jù),有些模型的參數(shù)超過5000億個(gè)。在這種規(guī)模下,了解出處、作者身份和版權(quán)狀態(tài)是一項(xiàng)艱巨的任務(wù),如果不是不可能的話。未經(jīng)檢查的訓(xùn)練集可能導(dǎo)致模型泄露私有數(shù)據(jù)、錯誤地歸因于引用或剽竊受版權(quán)保護(hù)的內(nèi)容。

關(guān)于大型語言模型使用的數(shù)據(jù)隱私法也非常模糊。正如我們在社交媒體上了解到的那樣,如果某樣?xùn)|西是免費(fèi)的,那么很可能用戶就是產(chǎn)品。值得記住的是,如果人們要求聊天機(jī)器人在我們的代碼中找到錯誤或編寫敏感文檔,我們就會將這些數(shù)據(jù)發(fā)送給第三方,他們最終可能會將其用于模型培訓(xùn)、廣告或競爭優(yōu)勢。人工智能提示的數(shù)據(jù)泄露在商業(yè)環(huán)境中尤其具有破壞性。

隨著基于大型語言模型的服務(wù)與Slack和Teams等工作場所生產(chǎn)力工具集成在一起,仔細(xì)閱讀提供商的隱私政策、了解人工智能提示的使用方式,并相應(yīng)地規(guī)范大型語言模型在工作場所的使用,這一點(diǎn)至關(guān)重要。在版權(quán)保護(hù)方面,我們需要通過選擇加入或特殊許可來規(guī)范數(shù)據(jù)的獲取和使用,而不妨礙我們今天擁有的開放和基本上自由的互聯(lián)網(wǎng)。

4.錯誤信息

雖然大型語言模型們可以令人信服地假裝聰明,但他們并不真正“理解”他們生產(chǎn)的東西。相反,他們的貨幣是單詞之間的概率關(guān)系。他們無法區(qū)分事實(shí)和虛構(gòu)——一些輸出可能看起來非??尚?,但結(jié)果是一個(gè)自信的措辭不真實(shí)。這方面的一個(gè)例子是ChatGPT篡改引文,甚至整篇論文,正如一位Twitter用戶最近直接發(fā)現(xiàn)的那樣。

大型語言模型工具在大量的任務(wù)中可以證明是非常有用的,但人類必須參與驗(yàn)證其響應(yīng)的準(zhǔn)確性、益處和總體合理性。

對于LLM工具的輸出,應(yīng)該始終持保留態(tài)度。這些工具在大量任務(wù)中非常有用,但人類必須參與驗(yàn)證其響應(yīng)的準(zhǔn)確性、益處和總體合理性。否則,我們會失望的。

5.有害的建議

在網(wǎng)上聊天時(shí),越來越難以分辨你是在和人說話還是在和機(jī)器說話,一些實(shí)體可能會試圖利用這一點(diǎn)。例如,今年早些時(shí)候,一家心理健康科技公司承認(rèn),一些尋求在線咨詢的用戶在不知情的情況下與基于gpt3的機(jī)器人而不是人類志愿者進(jìn)行了互動。這引起了人們對在精神衛(wèi)生保健和任何其他依賴于解釋人類情感的環(huán)境中使用大型語言模型的倫理擔(dān)憂。

目前,幾乎沒有監(jiān)管監(jiān)督來確保公司在沒有最終用戶明確同意的情況下不能以這種方式利用人工智能。此外,對手可以利用令人信服的人工智能機(jī)器人進(jìn)行間諜活動、詐騙和其他非法活動。

人工智能沒有情感,但它的反應(yīng)可能會傷害人們的感情,甚至導(dǎo)致更悲慘的后果。認(rèn)為人工智能解決方案可以負(fù)責(zé)任地、安全地充分解釋和回應(yīng)人的情感需求是不負(fù)責(zé)任的。

在醫(yī)療保健和其他敏感應(yīng)用中使用大型語言模型應(yīng)受到嚴(yán)格監(jiān)管,以防止對用戶造成任何傷害的風(fēng)險(xiǎn)?;趌lm的服務(wù)提供商應(yīng)該始終告知用戶AI對服務(wù)的貢獻(xiàn)范圍,并且與bot交互應(yīng)該始終是一種選擇,而不是默認(rèn)設(shè)置。

6.偏見

人工智能解決方案的好壞取決于它們所接受的訓(xùn)練數(shù)據(jù)。這些數(shù)據(jù)通常反映了我們對政黨、種族、性別或其他人口統(tǒng)計(jì)數(shù)據(jù)的偏見。偏見會給受影響的群體帶來負(fù)面影響,在這種情況下,模型會做出不公平的決定,而且可能既微妙又可能難以解決。在未經(jīng)審查的互聯(lián)網(wǎng)數(shù)據(jù)上訓(xùn)練的模型總是會反映出人類的偏見;不斷從用戶交互中學(xué)習(xí)的模型也容易被故意操縱。

為了減少歧視的風(fēng)險(xiǎn),大型語言模型服務(wù)提供商必須仔細(xì)評估他們的培訓(xùn)數(shù)據(jù)集,以避免任何可能導(dǎo)致負(fù)面后果的不平衡。機(jī)器學(xué)習(xí)模型也應(yīng)該定期檢查,以確保預(yù)測保持公平和準(zhǔn)確。

大型語言模型完全重新定義了我們與軟件交互的方式,為我們的工作流程帶來了無數(shù)的改進(jìn)。然而,由于目前缺乏針對人工智能的有意義的法規(guī),以及針對機(jī)器學(xué)習(xí)模型的安全性缺乏,廣泛而倉促的大型語言模型實(shí)施可能會出現(xiàn)重大挫折。因此,必須迅速監(jiān)管和保護(hù)這項(xiàng)寶貴的技術(shù)。?