AI正在左右TikTok與Instagram觀點?
強大且易于使用的生成式AI正在快速崛起,并開始撼動社交媒體的基本格局。新的AI工具乃至AI影響者正在塑造我們通過TikTok及Instagram等平臺開展交互的方式。這種影響不僅體現(xiàn)在內容的生成與傳播方面,更對人類創(chuàng)作者構成了嚴峻的生存威脅。至于解決之道,也許可以借助區(qū)塊鏈技術對人類的數(shù)字身份加以驗證。
AI影響者的崛起
去年,TikTok宣布正在測試一種新的應用內工具,允許用戶利用AI生成頭像圖片。該工具允許用戶提交個人照片,并據(jù)此生成不同姿態(tài)和風格的獨特圖像。之后,用戶可以下載、分享這些圖像或將其作為自定義個人頭像。
這款簡單的工具能夠讓任何用戶輕松擁有極具視覺效果的有趣化身,打破了設計此類素材的技術障礙。更重要的是,該工具免費且?guī)缀鯇崟r起效,能夠大大增強用戶創(chuàng)造力與內容可及性。而且這個有著崇高動機與扎實理論的探索還僅僅只是開始。TikTok最近又有新舉措,稱該平臺正嘗試開發(fā)AI驅動的高影響力賬號,由它們推廣品牌、討論各種話題——基本與人類意見領袖相似,唯一的區(qū)別就是其并不真實存在。
AI影響者并不算是全新事物,像Imma和Shudu這樣的知名成果已經(jīng)吸引到數(shù)十萬粉絲。但以往數(shù)字化影響者的部署成本往往比真人更高,而如今這種情況正在迅速改變。ChatGPT、Midjourney等工具允許任何人用簡單幾句話就創(chuàng)建出高質量內容,而且這股勢頭似乎沒有任何放緩的跡象。
很快,這種開發(fā)自有AI影響者的能力就不再局限于規(guī)模組織,而將飛入尋常百姓家。在構建完成之后,大家可以利用這些角色推廣自己的任何內容。只要回憶一下虛假賬戶和僵尸腳本給社交媒體帶來的巨大沖擊,就不能想象這將帶來怎樣的風險。
用口碑研究權威、《影響力人物(The Influentials)》一書作者Ed Keller的話來說,“口碑力量(包括作者自己的口碑)的核心在于信任,這也是其如此強大并能夠持續(xù)增長的根源。未經(jīng)檢查、未經(jīng)驗證的AI則帶來令人不安的影響,表明新技術可能會以怎樣的速度摧毀人們對于網(wǎng)絡世界的信任。”
這對于每一位互聯(lián)網(wǎng)用戶來說都不是什么好消息,而首當其沖的自然就是現(xiàn)實生活中的高影響力意見領袖。他們擁有如此龐大的數(shù)字足跡,完全可被用于訓練超現(xiàn)實、超可信的數(shù)字復制體。一旦仿冒創(chuàng)作者的崛起破壞了創(chuàng)作者的經(jīng)濟生態(tài)與可信度基礎,那么正常的營銷行為也將受到潛在的負面影響。
惡意人士將借此散布誤導信息與仇恨內容、左右公眾輿論,甚至可能借助技術的力量影響政治進程,這些都成為不容忽視的客觀威脅。然而潘多拉的魔盒一旦開啟,就再也無法被關上。
正如OpenAI近期針對埃隆·馬斯克發(fā)布的一份批評聲明中所言,“我們正在以增強人們能力并改善他們日常生活的方式推動自身技術的廣泛普及,包括通過各種開源貢獻。我們提供對當今最強大AI成果的廣泛訪問,包括給數(shù)億人帶來可供日常使用的免費版本。”
即使在政府層面通過為AI內容的創(chuàng)建和共享制定相關規(guī)則以應對這種新的網(wǎng)絡現(xiàn)實,規(guī)則本身恐怕也很難得到普遍應用。此外,總有一些人會知法狂潮,因此哪怕出臺嚴格的法規(guī)條文,生成式AI掀起的輿論狂潮恐怕也將超出法律本身的控制范圍。
區(qū)塊鏈或將拯救萬民于AI
我們必須接受已經(jīng)沒有回頭路的事實,同時設計出一套切實可行且面向未來的解決方案。這就是區(qū)塊鏈技術為人類提供支持的場景所在。這項技術能夠建立系統(tǒng)以識別內容的原始來源,而非徒勞地在結果端控制已經(jīng)生成的內容。
無論是人類還是機器人,消費一方都可以看到內容來源,并據(jù)此做出明智的交互判斷??紤]到社交媒體對于整個人類社會的重要意義,這種能力將尤其重要。營銷策略師兼暢銷書作家Mark Schaefer認為,我們正身處商業(yè)領域即將發(fā)生重大轉變的十字路口。
Schaefer指出,“從現(xiàn)在開始,我們的客戶所面臨的頭號問題,就是判斷「這到底是不是真的?」企業(yè)必須不惜一切代價保護其品牌、高管和員工免受deep fakes深度偽造內容的侵害。我認為區(qū)塊鏈一定會作為有力的事實來源證明在其中發(fā)揮作用。”他還補充道,“我擔心企業(yè)還沒有為接下來的現(xiàn)實做好準備。品牌的實質就是信任,沒有信任也就談不上品牌。每個人都應該把這個問題重視起來。”
最近,達沃斯經(jīng)濟論壇上的領導者們正在思考如何使用區(qū)塊鏈來跟蹤、排序并管理AI模型使用的訓練數(shù)據(jù)。正如加密創(chuàng)新委員會CEO Sheila Warren在采訪中的說法,“我堅持認為對AI的驗證及某種程度上的制衡……將由區(qū)塊鏈技術驅動并提供支持。”這也許是建立可信賴自主身份的良好開端,但對那些不可信的身份又該如何處理?
憑借著區(qū)塊鏈網(wǎng)絡的不可變性與透明度,這項去中心化技術能夠以完全可驗證且不可偽造的形式提供憑證。區(qū)塊鏈在原理層面不可能受到黑客攻擊或操縱,而且鏈上發(fā)生的任何變更總是向所有參與者透明開放。
如果我們希望實現(xiàn)帶有驗證憑證的數(shù)字資料,那么區(qū)塊鏈技術就是最佳選擇。如此一來,我們可以向社交媒體上的每個人類與AI參與者分發(fā)數(shù)字ID,定義他們的在線角色、歷史記錄、偏好以及選擇共享的一切其他信息。出于隱私考慮,大部分數(shù)據(jù)將可以進行自我加密并由用戶控制,由用戶決定哪些數(shù)據(jù)可供公眾查看、哪些內容不可對外開放。與此同時,應該有一條始終公開的參數(shù)明確標記當前賬戶是否為真人。
真人用戶可以通過“身份檢查”以證明自己的真實性,人類影響者還可以鏈接各種憑證以支持自己的身份聲明。此外,一切AI影響者都應以無法規(guī)避的方式保持身份的透明公開。
在這樣的系統(tǒng)中,任何不具備人類憑證的資料都可被默認理解為機器生成。這并不代表其內容存在危害或有毒,但可以讓受眾對其看到的內容建立起一定程度的認知。社交媒體平臺可以自由按自己認為合適的方式對AI內容進行標記、屏蔽或者過濾,總之絕不能讓機器人在缺少監(jiān)督的情況下影響社會輿論。
這跟X上的“藍標”認證不同,因為藍標唯一的意義就是表明用戶曾經(jīng)為此而付費。相反,對AI賬戶的區(qū)分必須采取更具現(xiàn)實意義的形式,比如由另一位經(jīng)過驗證的用戶確認,才能被授予區(qū)塊鏈發(fā)放的強制憑證。這樣其他用戶才能相信當前賬戶確實經(jīng)過驗證,而不僅僅是“藍標”那種繳納過入場費。
關于AI化身的總結和展望
如果方法得當,這樣的系統(tǒng)能夠讓我們在保留個人隱私、自由選擇身份以及繼續(xù)通過內容創(chuàng)作謀生的同時,塑造出更加美麗且值得向往的AI新世界。在此過程中當然會有大量細節(jié)需要處理,但目前還沒有其他可行的模型來保護社交媒體免受AI日益普及的影響。法律只能作為指導,后續(xù)落實必須借助更為實際的解決方案。
區(qū)塊鏈與數(shù)字身份有望提供保護消費者和勞動力的現(xiàn)實手段。我們必須盡快行動起來,畢竟AI技術的發(fā)展和落地絲毫不會放緩。能不能為下一代乃至后世留下一套更強大、也更安全的互聯(lián)網(wǎng),關鍵就在于當下我們如何作為。