走鋼絲:應(yīng)對人工智能的風(fēng)險(xiǎn)和回報(bào)
人工智能最近的根本性轉(zhuǎn)變與規(guī)模相關(guān)——人工智能模型現(xiàn)在可以訪問海量數(shù)據(jù)集和強(qiáng)大的計(jì)算能力來進(jìn)行訓(xùn)練。這就是為什么最新的人工智能工具和語言模型看起來像是科幻小說中的東西?,F(xiàn)在的問題是:人工智能真的是一個能夠最終統(tǒng)治和控制社會的潛在威脅嗎?
嗯,很難想象這種威脅會成為現(xiàn)實(shí)。盡管如此,人工智能已經(jīng)展示了其操縱和影響人類觀點(diǎn)的潛力。由于出現(xiàn)的倫理和道德困境以及人們對人工智能失控的日益擔(dān)憂,人工智能的受控和負(fù)責(zé)任的使用正在成為人工智能社區(qū)的一個核心挑戰(zhàn)。一些技術(shù)夢想家呼吁暫停進(jìn)一步的人工智能開發(fā),至少在我們控制到位或了解其真正本質(zhì)和潛在危害之前。
AI樂觀主義者vs.AI悲觀主義者
過去幾個月人工智能的指數(shù)級增長意味著專家們無法充分分析人工智能的風(fēng)險(xiǎn)及其收益。這種不確定性導(dǎo)致人工智能行業(yè)出現(xiàn)了兩個對立的陣營。一方面,我們有以比爾·蓋茨等人物為首的人工智能樂觀主義者,他們主張謹(jǐn)慎開發(fā)人工智能,并設(shè)置適當(dāng)?shù)淖o(hù)欄,以確保負(fù)責(zé)任的增長。另一方面,埃隆·馬斯克和史蒂夫·沃茲尼亞克認(rèn)為人工智能對人類構(gòu)成重大威脅,并可能導(dǎo)致災(zāi)難性后果。
如果說有什么不同的話,那就是這場辯論強(qiáng)調(diào)了負(fù)責(zé)任的人工智能使用和開發(fā)的重要性。雖然人工智能有可能徹底改變世界,但重要的是要確保它的發(fā)展符合道德規(guī)范并考慮到人性。人們對這項(xiàng)技術(shù)的興奮不應(yīng)該讓每個人都忽視潛在的風(fēng)險(xiǎn),例如惡意行為者利用它進(jìn)行惡意軟件編碼、創(chuàng)建深度偽造品、發(fā)起復(fù)雜的網(wǎng)絡(luò)釣魚活動以及傳播錯誤信息或國家宣傳。隨著人工智能的進(jìn)步,需要投資新工具并利用現(xiàn)有工具來安全、負(fù)責(zé)任地處理新技術(shù)。
監(jiān)管人工智能的挑戰(zhàn)
人工智能指數(shù)級增長帶來的最大挑戰(zhàn)之一是弄清楚如何對其進(jìn)行監(jiān)管。由值得信賴的權(quán)威機(jī)構(gòu)來監(jiān)管人工智能領(lǐng)域,而不是將關(guān)鍵決策留給個別技術(shù)人員并希望得到最好的結(jié)果,這一想法聽起來令人放心。但在實(shí)踐中,監(jiān)管總是滯后于市場,而顛覆性技術(shù)的一大挑戰(zhàn)是沒有明確的路線圖。當(dāng)技術(shù)和市場仍處于起步階段時,很難預(yù)測它們將如何發(fā)展以及可能產(chǎn)生什么影響。
目前,圍繞人工智能開發(fā)和使用制定政策所需的技能組合也幾乎不存在。具有計(jì)算機(jī)科學(xué)背景的人通常缺乏對政策、法律和其他相關(guān)方面的理解,而具有政策經(jīng)驗(yàn)的人則缺乏跟上機(jī)器學(xué)習(xí)和人工智能快速發(fā)展所需的直覺。不幸的是,這個缺口不是一朝一夕就能填補(bǔ)的。技術(shù)專家或政策制定者需要數(shù)年時間才能掌握該領(lǐng)域有效監(jiān)管所需的正確技能和知識。
早期發(fā)布和大規(guī)模部署的影響
對于公司來說,將一項(xiàng)新技術(shù)發(fā)布到公共領(lǐng)域始終是一個艱難的決定,尤其是當(dāng)該技術(shù)仍處于起步階段時。專家認(rèn)為,過早發(fā)布如此強(qiáng)大的技術(shù)可能會帶來安全風(fēng)險(xiǎn),因?yàn)槠湓S多用例仍然未知。另一方面,早期發(fā)布可以帶來一定的好處,就像ChatGPT一樣,它的公開發(fā)布和快速采用(兩個月內(nèi)擁有1億用戶)引發(fā)了關(guān)于人工智能的倫理、道德和負(fù)責(zé)任使用的有意義的對話。正是該技術(shù)的倉促大規(guī)模部署可能會引發(fā)重大的安全問題。
許多公司都在追隨人工智能的潮流,旨在用技術(shù)取代人類。例如,IBM最近剛剛宣布可能計(jì)劃停止招聘約30%可以用人工智能取代的非面向客戶的職位。這種方法的問題在于,到目前為止,公司缺乏準(zhǔn)確計(jì)算與部署這些模型并授予其大規(guī)模訪問內(nèi)部數(shù)據(jù)相關(guān)的風(fēng)險(xiǎn)所需的專業(yè)知識。在將任何新技術(shù)集成到業(yè)務(wù)流程中之前,組織必須徹底了解其影響并確保其足夠成熟以最大程度地減少潛在風(fēng)險(xiǎn)。
另一個挑戰(zhàn)是需要確保用于訓(xùn)練人工智能模型的數(shù)據(jù)的準(zhǔn)確性和可靠性。當(dāng)公司根據(jù)人工智能的數(shù)據(jù)驅(qū)動輸出做出決策時,訓(xùn)練數(shù)據(jù)中反映的錯誤、失誤,甚至人類固有的偏見,都會被放大。克服這一問題的一種方法是分析一段時間內(nèi)人工智能支持的決策,以發(fā)現(xiàn)系統(tǒng)性問題。然而,該技術(shù)太新并且仍在不斷發(fā)展,無法通過此類統(tǒng)計(jì)分析確定其可靠性和準(zhǔn)確性。
為負(fù)責(zé)任的人工智能制定路線
人工智能的不成熟、未來的不確定性以及缺乏理論理解是負(fù)責(zé)任人工智能有效決策的一些主要挑戰(zhàn)。最終,它需要來自各個行業(yè)和部門的研究人員、政策制定者和利益相關(guān)者之間的合作。企業(yè)目前必須集體放慢人工智能的采用速度,并仔細(xì)考慮其長期和直接影響。他們必須努力就如何解決人工智能的隱私、安全和道德問題達(dá)成共識,然后才能使其成為關(guān)鍵業(yè)務(wù)流程的主導(dǎo)部分。
- 上一篇
自然語言處理(NLP):釋放資本基礎(chǔ)設(shè)施規(guī)劃的包容性和公平未來
由于最近通過的基礎(chǔ)設(shè)施投資和就業(yè)法案 (IJJA),美國正處于變革性的土木建筑熱潮的邊緣,該法案將 1.2 萬億美元用于重要的基礎(chǔ)設(shè)施項(xiàng)目。涉及的資金數(shù)額巨大,使得這是一項(xiàng)艱巨的
- 下一篇
網(wǎng)絡(luò)安全失敗以及如何預(yù)防
網(wǎng)絡(luò)掠奪者是無情且無情的。一旦出現(xiàn)失誤,您的企業(yè)就可能陷入癱瘓。這就是為什么不僅要建立強(qiáng)大、有彈性的保障措施和實(shí)踐,而且要確保它們有效發(fā)揮作用。在網(wǎng)絡(luò)安全方面,失敗絕