輿論如何塑造人工智能的未來
今天對人工智能的焦慮非常明顯。斯蒂芬霍金和埃隆馬斯克表達(dá)了他們對人類能否控制人工智能的懷疑。馬克扎克伯格對這些可怕的擔(dān)憂置之不理,稱它們“不負(fù)責(zé)任”。當(dāng)沙特阿拉伯王國授予她公民身份時,人形 AI Sophia成為頭條新聞并引起了一些關(guān)注。這種討論引起了公眾的廣泛關(guān)注,并產(chǎn)生了直接和延遲的后果。
輿論的影響可能會阻礙人工智能的采用。只要人們認(rèn)為這項技術(shù)是危險的,不管它是否真的危險,人工智能的發(fā)展都會受到阻礙。
然而,公眾情緒更多地受到流行文化的影響,而不是專家。凄涼的世界末日情景尤其具有影響力。當(dāng)埃隆馬斯克稱人工智能為“人類文明的根本生存風(fēng)險”時,它引起了人們已經(jīng)擁有的恐懼和懷疑。
他們究竟害怕什么?讓我們來看看最流行的模式。
不受控制的發(fā)展
人工智能將超越僅僅是人類的工具。它將變得強大到足以成為自己命運的主人。根據(jù)這個神話,當(dāng)人工智能進(jìn)化為獨立思考時,它會發(fā)現(xiàn)自己優(yōu)于人類。因此,它們必須被制服或消滅。這是典型的西方反烏托邦。許多專家(包括埃隆·馬斯克、比爾·蓋茨和斯蒂芬·霍金)都對奇點問題持這種看法。
創(chuàng)造毀滅它的創(chuàng)造者是一個非常古老的主題。西方文化中第一個突出的例子是弗蘭肯斯坦的怪物。后來的解釋(HAL 9000、終結(jié)者和矩陣)延續(xù)了這一傳統(tǒng)。然而,這個話題是非常有爭議的。即使是那些對人工智能持謹(jǐn)慎態(tài)度的人也同意這種強大的技術(shù)不會很快到來。
然而,埃隆馬斯克至少有一個觀點——專家必須積極主動。保持行業(yè)領(lǐng)先是不夠的。我們必須向前看。無論人工智能是否真的會構(gòu)成威脅,我們都必須考慮所有可能的情況來讓公眾放心。
在采取預(yù)防措施的同時,我們必須注意不要忽視人工智能實施的積極案例。一個失誤可能會推翻針對整個行業(yè)的不完善的立法,從而在未來幾年內(nèi)阻止人工智能的發(fā)展。
致命錯誤
另一種流行的情況表明,對技術(shù)過分信任是危險的。如果人工智能缺乏情商或數(shù)據(jù),它可能會錯誤地解釋我們的請求?;蛘?,由于錯誤或病毒,人工智能可能變得不穩(wěn)定并具有潛在危險。正如 O'Reilly Media 創(chuàng)始人 Tim O'Reilly 所說:“我們的算法系統(tǒng)有點像阿拉伯神話中的精靈。我們要求他們做某事,但如果我們表達(dá)的愿望不正確,他們就會誤解它,給我們帶來意想不到的、經(jīng)常令人擔(dān)憂的結(jié)果。”
人們還沒有準(zhǔn)備好處理不可預(yù)測的人工智能。百分百安全是消費者讓虛擬助手和機器人走進(jìn)日常生活的必要條件。例如,當(dāng)自動駕駛汽車發(fā)生交通事故時,人工智能的安全性總是受到審查。
到目前為止,只有一個案例是 AI 的錯誤導(dǎo)致死亡。然而,這足以引起爭議。人們無法將這種單獨的事件與人工智能解決危險情況的大量次數(shù)進(jìn)行權(quán)衡。每年有超過421,000 起涉及分心駕駛員的事故導(dǎo)致嚴(yán)重傷害。超過 78% 的司機都在發(fā)短信。這是人工智能永遠(yuǎn)不會做的事情。
此外,在上述特斯拉 Autopilot 的悲慘事故中,系統(tǒng)無法識別明亮天空下的白色軌道,但人類駕駛員也是如此。他至少有 7 秒的時間來踩剎車——顯然他沒有注意。司機認(rèn)為這輛車是 100% 自動駕駛的,但實際上并非如此。人為錯誤(一廂情愿)導(dǎo)致了那次事故。
法院裁定清除特斯拉自動駕駛系統(tǒng)對行業(yè)的未來來說是幸運的,但也算得上是險象環(huán)生。專家們必須用過于樂觀的命名來解決這個問題。如果人工智能的能力有限,它就不能被宣傳為“為你開車”或“理解你的每一個愿望”的東西。如果產(chǎn)品的名稱或其特定功能暗示自主性(“AI”、“Smart”、“Self”、“Intelligent”),則必須有解釋特性和功能的指南。明確您的用戶必須自己采取哪些步驟。
恐怖谷
“恐怖谷”代表了人類對人工智能的形而上學(xué)和存在主義的恐懼。人形人工智能對我們的獨特性和身份構(gòu)成威脅,挑戰(zhàn)人類的“特殊性”概念。人們擔(dān)心這些分身會在工作、人際關(guān)系等方面取代他們。科幻作家在 50 年代和 60 年代積極探索這個概念。
由于當(dāng)今的大多數(shù)人工智能都是虛擬助手和導(dǎo)航系統(tǒng)的無實體組件,因此這種恐懼正在消退。但是,技術(shù)隔離人員和減少可用工作數(shù)量的力量仍然值得考慮。近三分之一的人擔(dān)心人工智能會在他們的工作場所取代他們。
在“恐怖谷”的背景下,另一個需要考慮的非常重要的事情是人工智能的情商。仿生人會夢見電羊嗎?令人毛骨悚然,因為他們沒有同情心。他們確實有情緒,但只是為了自保。他們不尊重生物的痛苦,同情心對他們來說是陌生的。
后者的關(guān)注不僅僅是存在的。許多專家認(rèn)為,如果我們想創(chuàng)建一個真正提高生活質(zhì)量的人工智能,EI 至關(guān)重要。未來很難預(yù)測,但為機器配備情商無疑是朝著正確方向邁出的一步。
制度化偏見
最近,人們開始擔(dān)心人工智能會形式化和復(fù)制其創(chuàng)造者的種族主義、性別歧視和其他偏見。這是迄今為止最現(xiàn)實的恐懼。盡管機器沒有被編程為帶有偏見,但它們被編程為向人們學(xué)習(xí)并采取相應(yīng)的行動。
微軟聊天機器人 Tai的不幸實驗提供了一個說明性示例,說明機器學(xué)習(xí)機制如何適得其反。搜索結(jié)果和人臉識別問題有很多不那么令人震驚但非常令人不安的案例。谷歌照片在 2015 年錯誤地將兩個非裔美國朋友標(biāo)記為大猩猩。2009 年,惠普視頻跟蹤軟件未能識別出深色面孔。同年,尼康的相機軟件錯誤地將東亞人的臉標(biāo)記為眨眼。
HeyHuman的董事總經(jīng)理尼爾戴維森認(rèn)為,品牌應(yīng)該成為當(dāng)今的救星。公司不能讓客戶失望。因此,品牌必須盡其所能創(chuàng)造一個公正無害的人工智能。“隨著該領(lǐng)域的發(fā)展,我們需要從以前的失敗中吸取教訓(xùn),并確保機器以一定程度的意識和直覺運行,”戴維森說。
人類虐待
最后,人們害怕其他人會使用人工智能來欺騙他們,誘騙他們信任、愛等。即使借助人工智能進(jìn)行營銷也被視為操縱。十分之九的美國人認(rèn)為在營銷中使用人工智能應(yīng)該受到具有法律約束力的行為準(zhǔn)則的監(jiān)管。四分之三的人認(rèn)為,品牌在向他們營銷時使用人工智能之前應(yīng)該需要他們的明確同意。這是最新趨勢,部分原因是最近針對社交媒體的丑聞。
焦慮從機器轉(zhuǎn)移到人,這絕對是朝著正確方向邁出的一步。這種世界觀主要代表了日本流行文化中表達(dá)的東方反烏托邦傳統(tǒng)。攻殼機動隊(漫畫和電視連續(xù)劇)展示了未來,仍然有人犯罪。犯罪分子有非常人性化的動機和驅(qū)動力,而機器人只是工具,盡管很復(fù)雜。
我們可以爭論這種清醒的態(tài)度和日本在機器人技術(shù)上的成功是否是巧合。有一件事是肯定的——這種觀點也慢慢成為西方文化的主流。人們不太關(guān)心人工智能,而更多地關(guān)心它的人類創(chuàng)造者。
電影Ex Machina和神秘博士的一集(氧氣)代表了流行文化的這種轉(zhuǎn)變。兩者都顯示了人類的貪婪和自私如何比任何先進(jìn)的人工智能更具破壞性。
事實上,人們對人工智能的信任甚至超過了對其他人的信任。波士頓醫(yī)療中心的 Michael Paasche-Orlow 博士分享了他對絕癥患者的觀察。據(jù)他介紹,他們接受了旨在引導(dǎo)他們度過生命盡頭的系統(tǒng),有時甚至比人類照顧者更喜歡它。“事實證明,患者很樂意用電腦談?wù)撍?rdquo;他說。“他們非常明確地告訴我們,‘醫(yī)生從來沒有問過我這些事情。’”
總結(jié)
- 工程師有責(zé)任確保 AI 的設(shè)計方式不會反映人類最壞的一面。對于在線服務(wù),在邀請所有人加入之前,應(yīng)始終采取反濫用措施和過濾措施。此外,您不能跳過關(guān)于教機器人不該說什么的部分。
- 要訓(xùn)??練您的 AI,請為其提供最多樣化的數(shù)據(jù)。對于語音識別,請使用各種口音。對于面部識別,請使用不同年齡和種族的人。在向公眾發(fā)布最終產(chǎn)品之前,在各種條件下測試所有功能。讓你的算法“隨時隨地學(xué)習(xí)”可能是一個代價太大的錯誤。
- 對人工智能產(chǎn)品過于樂觀的命名通常會導(dǎo)致誤解并損害整個行業(yè)。非常清楚你的人工智能能做什么,不能做什么。
- 人工智能需要情商才能獲得認(rèn)可。EI 在人類和機器人工作場所都有很高的需求。
- 為確保公眾認(rèn)知的改變,我們必須普及人工智能實施的積極案例。幾十年來,公眾習(xí)慣于不信任人工智能。這些根深蒂固的恐懼不能輕易消除。