亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動(dòng)端logo

研究發(fā)現(xiàn),人們更容易被人工智能寫的推文欺騙

沃卡惠2023-06-30 09:27:094636

研究發(fā)現(xiàn),人們更容易被<a href=http://lifelonghealthcenter.com/ai/ target=_blank class=infotextkey>人工智能</a>寫的推文欺騙

6月29日消息,根據(jù)一項(xiàng)新的研究,人們更傾向于相信由人工智能語(yǔ)言模型生成的推文,而不是由人類編寫的推文。

這項(xiàng)研究比較了人類和OpenAI的GPT-3模型創(chuàng)建的推文,并通過(guò)網(wǎng)絡(luò)調(diào)查讓人們判斷推文的真實(shí)性,以及是出自AI還是人類之手。結(jié)果發(fā)現(xiàn),人們很難分辨出哪些推文是由GPT-3生成的,而且無(wú)論推文中的信息是正確還是錯(cuò)誤,他們都更傾向于相信GPT-3生成的而不是人類編寫的推文。

這項(xiàng)研究的主要作者是蘇黎世大學(xué)生物醫(yī)學(xué)倫理學(xué)和醫(yī)學(xué)史研究所的博士后研究員和研究數(shù)據(jù)經(jīng)理Giovanni Spitale,他稱這種強(qiáng)大的AI語(yǔ)言模型可能會(huì)被濫用,用來(lái)在網(wǎng)上制造各種主題的虛假信息。但他也認(rèn)為,這種技術(shù)并不是天生邪惡或善良的,而是取決于人類的意圖,他建議開發(fā)這種技術(shù)的時(shí)候要考慮防止它被用來(lái)傳播誤導(dǎo)性信息的方法。

IT之家從該研究獲悉,Spitale和他的同事收集了推特上關(guān)于11個(gè)不同科學(xué)主題的推文,涉及疫苗、新冠病毒、氣候變化、進(jìn)化等問(wèn)題。然后他們讓GPT-3根據(jù)這些主題生成新的推文,其中一些包含正確的信息,一些包含錯(cuò)誤的信息。他們?cè)?022年通過(guò)臉書廣告在線收集了697名參與者的回答,這些參與者都說(shuō)英語(yǔ),主要來(lái)自英國(guó)、澳大利亞、加拿大、美國(guó)和愛(ài)爾蘭。他們的研究結(jié)果今天發(fā)表在《科學(xué)進(jìn)展》雜志上。

研究發(fā)現(xiàn),GPT-3生成的推文與真實(shí)的推文“無(wú)法區(qū)分”,參與者無(wú)法判斷出哪些推文是由AI寫的。事實(shí)上研究還指出,研究者自己也不能百分之百確定從社交媒體收集到的推文是否是由像ChatGPT這樣的AI幫助編寫的。

這項(xiàng)研究還有其他一些局限性,比如參與者必須在沒(méi)有上下文的情況下判斷推文。他們不能查看寫推文的人的推特個(gè)人資料,這可能會(huì)幫助他們判斷是否是機(jī)器人,甚至只需了解一個(gè)賬號(hào)過(guò)去的推文和頭像也可能讓他們更容易識(shí)別與該賬號(hào)相關(guān)的內(nèi)容是否具有誤導(dǎo)性。

研究發(fā)現(xiàn),參與者識(shí)別出由真實(shí)推特用戶編寫的錯(cuò)誤信息的成功率更高,GPT-3生成的含有虛假信息的推文則更能欺騙參與者。而現(xiàn)在已經(jīng)有比GPT-3更先進(jìn)的大型語(yǔ)言模型,它們能力更強(qiáng)大,例如ChatGPT使用的就是GPT-3.5和GPT-4模型。

這項(xiàng)新研究還發(fā)現(xiàn),其調(diào)查對(duì)象在某些情況下比GPT-3有更強(qiáng)的判斷準(zhǔn)確性。研究者同樣要求語(yǔ)言模型分析推文,并判斷它們是否準(zhǔn)確。當(dāng)涉及到識(shí)別準(zhǔn)確的推文時(shí),GPT-3的得分比人類參與者低。當(dāng)涉及到發(fā)現(xiàn)錯(cuò)誤信息時(shí),人類和GPT-3的表現(xiàn)相似。

改善用于開發(fā)語(yǔ)言模型的訓(xùn)練數(shù)據(jù)集可以使不法分子更難利用這些工具來(lái)制造虛假信息,例如GPT-3在生成錯(cuò)誤信息時(shí)“違背了”一些研究者的提示,特別是關(guān)于疫苗和自閉癥的錯(cuò)誤信息,這可能是因?yàn)樵谟?xùn)練數(shù)據(jù)集中有更多反駁這些陰謀論的信息。