人工智能可以對抗新聞中的錯誤信息和偏見
新聞中的錯誤信息和偏見已成為近年來社會面臨的最大挑戰(zhàn)之一。諸如信息操作、深度偽造、金融影響和利用社會緊張局勢之類的東西是全球個人和國家行為者都在使用的新工具。
錯誤信息是虛假信息的總稱,在輿論操縱中發(fā)揮著重要作用。同時,它被用作對政治領(lǐng)導(dǎo)人的攻擊,并加劇了各國團(tuán)體之間的分離。比以往任何時候都更嚴(yán)重的是,錯誤信息正在席卷投票站,并且變得非常有效。
與錯誤信息略有不同的虛假信息是故意誤導(dǎo)或有偏見的信息。它可以包括被操縱的敘述和事實。換句話說,就是宣傳。
牛津大學(xué)研究人員 2019 年的一份報告詳細(xì)介紹了在 70 個不同國家(包括俄羅斯、中國、越南和危地馬拉)進(jìn)行的有組織的虛假宣傳活動。
數(shù)字經(jīng)濟(jì)導(dǎo)致新聞中的錯誤信息和偏見增加,人工智能技術(shù)和社交媒體平臺成為將其推向大眾的方式。
我們已經(jīng)看到了很多這樣的例子。例如,前兩次美國總統(tǒng)選舉充滿了錯誤信息和偏見,而且這種情況在未來肯定會繼續(xù)存在。金融市場也因錯誤信息和偏見而受到短期操縱,外交事務(wù)也因使用它們而變得更加緊張。針對特定原因的支持者和反對者的虛假信息引發(fā)了社會緊張局勢,假新聞幾乎在每個國家都猖獗。
我們對社交媒體和算法的依賴使我們非常容易受到錯誤信息和偏見的影響,而且操縱一大群人變得很容易。
根據(jù)非營利媒體網(wǎng)絡(luò) The Conversation 發(fā)表的題為“偏見使人們?nèi)菀资艿缴缃幻襟w傳播的錯誤信息的影響”的文章,有三種類型的偏見使社交媒體生態(tài)系統(tǒng)容易受到故意和意外的錯誤信息。重要的是要認(rèn)識到我們現(xiàn)在的大部分新聞都來自社交媒體。
三種類型的偏見是:
- 大腦中的偏見:“認(rèn)知偏見源于大腦處理每個人每天遇到的信息的方式。”
- 社會偏見:“當(dāng)人們直接與同齡人聯(lián)系時,指導(dǎo)他們選擇朋友的社會偏見會影響他們看到的信息。
- 機(jī)器中的偏見:“第三組偏見直接來自用于確定人們在網(wǎng)上看到什么的算法。社交媒體平臺和搜索引擎都使用它們。”
這種偏見的結(jié)合為不良行為者利用我們當(dāng)前的新聞平臺傳播錯誤信息創(chuàng)造了完美的環(huán)境。但重要的是要認(rèn)識到偏見也存在于這個領(lǐng)域之外。由于作者或出版物自身的特定傾向,定期的新聞報道和文章可能會存在偏見。這不是什么新鮮事。
錯誤信息和偏見的人工智能解決方案
人工智能的興起為我們提供了許多新的和創(chuàng)新的工具,可以用來對抗新聞中的錯誤信息和偏見。
例如,如果設(shè)計得當(dāng),人工智能可以有效地檢測和刪除某些錯誤信息和其他有問題的在線內(nèi)容。它已經(jīng)被谷歌、Twitter 和 Facebook 等公司用來識別假冒機(jī)器人。假機(jī)器人經(jīng)常被用來傳播錯誤信息和有偏見的新聞。
必須探索新的人工智能框架來解決這個問題,并且必須改進(jìn)現(xiàn)有的框架,因為許多框架已被證明是有問題的。當(dāng)沖突出現(xiàn)時,這些問題開始變得更加危險。例如,軍事沖突,例如當(dāng)前的俄羅斯-烏克蘭沖突,導(dǎo)致錯誤信息的傳播速度非???。
有各種人工智能驅(qū)動的工具即將推出。例如,國際技術(shù)開發(fā)商N(yùn)T CONNECT最近宣布推出其新聞聚合應(yīng)用程序NOOZ.AI。人工智能驅(qū)動的語言分析引擎旨在為當(dāng)今新聞媒體中存在的兩極分化帶來透明度。它試圖通過讓讀者在閱讀文章之前了解新聞媒體的影響來實現(xiàn)這一目標(biāo)。
“作者或記者往往傾向于一種特定的偏見——通常是在讀者不知情的情況下,”該公司的新聞稿說。“通過了解作者和新聞來源的歷史偏見,消費(fèi)者可以以更客觀的心態(tài)審視文章,并抵制被操縱以某種方式思考任何特定主題。”
NOOZ.AI 工具建立在四個關(guān)鍵支柱之上:
- 意見分析:它幫助讀者確定記者寫作中個人感受、觀點(diǎn)、信仰或判斷的存在。
- 情緒分析:該工具使用情緒分析來幫助讀者衡量作者對一般新聞內(nèi)容或特定主題的支持或反對。
- 宣傳分析:它可以通過識別多達(dá) 18 種可能的說服技術(shù)的使用來檢測潛在的虛假信息。
- 修訂分析:讀者可以調(diào)查新聞故事的演變及其對輿論和情緒的操縱。
該應(yīng)用程序為每篇文章提供評分,意見評分范圍從 0 到 100,情緒評分范圍從 -100 到 100。它還跟蹤每個修訂的所有文本編輯,并讓讀者能夠比較不同的版本。
NT CONNECT 首席技術(shù)官 Garry Paxinos 表示:
“有偏見的報道是當(dāng)今社會的一個主要問題。錯誤信息是最常用(錯誤)使用的流行語。但現(xiàn)實情況是,語言本身可以用來操縱和說服隨便的讀者。通過客觀地分析語言,我們避免了在其他方法中發(fā)現(xiàn)的主觀偏見。與主觀地標(biāo)記錯誤信息相反,我們的方法是闡明如何通過夸大的標(biāo)題、修訂歷史和文章文本來操縱一個人。”
- 上一篇
人工智能可以為用戶體驗設(shè)計問題提供解決方案
人工智能的概念和加速出現(xiàn)在我們面前的速度比任何人想象的都要快。人工智能正在開辟一條道路,它對企業(yè)和個人的生活產(chǎn)生影響?,F(xiàn)在,在 2019 年,AI 0ffers 的功能和特性使其成為
- 下一篇
向機(jī)器人教授具有神經(jīng)輻射場(NeRF)的工具
密歇根大學(xué)的一項新研究通過創(chuàng)建神經(jīng)輻射場(NeRF) 對象來展示這些對象的移動方式,從而為機(jī)器人提供了一種了解工具機(jī)制和其他現(xiàn)實世界鉸接對象機(jī)制的方法,從而可能允許機(jī)器人