亚洲先锋影音人AV成_免费A级毛片一分钟_人人爽人人爽人人插_日韩少妇极品熟妇人妻潮喷

沃卡惠移動(dòng)端logo

反對(duì)盲目信任人工智能的六個(gè)因素

沃卡惠2023-05-19 09:57:104636

就我們而言,人工智能正在改變世界,ChatGPT所產(chǎn)生的影響遍及各個(gè)行業(yè)。無(wú)論如何,并非這些進(jìn)展從根本上是確定的。我們不能忽視這樣一個(gè)事實(shí),即人工智能缺乏內(nèi)在的道德指南針或事實(shí)核查系統(tǒng)來(lái)指導(dǎo)其決策,盡管它在許多領(lǐng)域提供了令人興奮的新機(jī)會(huì)。

隨著世界變得越來(lái)越以人工智能為中心,我們應(yīng)該始終對(duì)所聽(tīng)到的一切進(jìn)行事實(shí)核查。盲目相信人工智能不是一個(gè)好主意,因?yàn)橐恍┕ぞ呖梢圆倏v數(shù)據(jù),完全誤解上下文,同時(shí)自信地犯錯(cuò)。

反對(duì)人工智能盲目信任的6個(gè)因素

1、安全

最明顯和最根本的是安全。“首先不傷害”這一基本原則指出,背叛會(huì)產(chǎn)生嚴(yán)重且不可改變的影響。2018年,一輛自動(dòng)駕駛特斯拉汽車(chē)與混凝土護(hù)欄相撞,導(dǎo)致一名司機(jī)死亡。2019年的一篇研究論文試圖證明,有策略地在道路上繪制的線(xiàn)條可能會(huì)劫持人工智能算法,或?qū)е缕渥矚к?chē)輛,盡管這個(gè)案例是一個(gè)災(zāi)難性的異常值。

2、穩(wěn)健性和安全性

安全性的核心是限制訪(fǎng)問(wèn),保持框架內(nèi)信息的誠(chéng)實(shí)性,并保持一致的可訪(fǎng)問(wèn)性。數(shù)以千計(jì)的算法利用了人工智能在穩(wěn)健性和安全性方面的弱點(diǎn)。這些惡意攻擊繼續(xù)被想象。更重要的是,在沒(méi)有包羅萬(wàn)象的保護(hù)措施的情況下,模擬智能工程師會(huì)為每個(gè)新的安全措施量身定制安全比例。人工智能可能會(huì)被設(shè)計(jì)缺陷或特定對(duì)抗性攻擊的弱點(diǎn)所愚弄或削弱。如果這是真的,那么也有可能劫持某人的輪椅進(jìn)入安全區(qū)域。

3、隱私

防止傷害也是隱私原則的核心。有太多信息泄露,所有這些都為不法分子提供機(jī)會(huì),可以在未經(jīng)個(gè)人同意的情況下識(shí)別或分析——了解其幸福、金錢(qián)和個(gè)人生活的數(shù)據(jù)。81%的美國(guó)人認(rèn)為數(shù)據(jù)收集的好處大于風(fēng)險(xiǎn),這令人擔(dān)憂(yōu)。然而,研究人員發(fā)現(xiàn),有色人種和少數(shù)民族成員比其他群體更容易受到傷害。由于其代表性不足,因此在前面提到的泄漏之后,其信息更加有效地去匿名化。

4、簡(jiǎn)單性和合理性

關(guān)于基于計(jì)算機(jī)的智能,簡(jiǎn)單性是一個(gè)廣泛的特征。用戶(hù)至少知道其正在與人工智能而不是人類(lèi)進(jìn)行交互。在最極端的情況下,所有專(zhuān)業(yè)周期和信息都得到報(bào)告、可訪(fǎng)問(wèn)且有意義。英國(guó)的考試評(píng)分丑聞就是一個(gè)很好的例子,說(shuō)明缺乏透明度時(shí)會(huì)發(fā)生什么。除了學(xué)生的成績(jī)外,該算法在確定分?jǐn)?shù)時(shí)還考慮了學(xué)校以前的成績(jī)和獲得相同分?jǐn)?shù)的學(xué)生人數(shù)。

5、道德與環(huán)境

道德和公平必須成為人工智能的目標(biāo)。其必須遵守既定和強(qiáng)制執(zhí)行的社會(huì)規(guī)范,也稱(chēng)為法律。這很簡(jiǎn)單,但在技術(shù)上具有挑戰(zhàn)性。真正的情況開(kāi)始于公共權(quán)力執(zhí)行過(guò)時(shí)或采取自由企業(yè)戰(zhàn)略。人工智能工程師和所有者有責(zé)任在利益相關(guān)者的利益、手段和目的、隱私權(quán)和數(shù)據(jù)收集之間找到正確的道德平衡。不僅僅是在工作場(chǎng)所,大型科技企業(yè)經(jīng)常被指責(zé)延續(xù)性別歧視。積極分子和研究人員認(rèn)為,”女性”語(yǔ)音伙伴將女性作為員工和父母的觀(guān)點(diǎn)標(biāo)準(zhǔn)化。

6、問(wèn)責(zé)制

職責(zé)確保可以針對(duì)先前引用的不同組件調(diào)查框架。大多數(shù)組織現(xiàn)在都在內(nèi)部建立負(fù)責(zé)任的人工智能來(lái)篩選進(jìn)展并防止利益損失。但是,其可能不允許外部控制或?qū)彶?。在這方面,Clearview AI就是一個(gè)例子。該企業(yè)提供的面部識(shí)別技術(shù)優(yōu)于市場(chǎng)上的所有其他技術(shù),但其是私人擁有的,并由所有者自行決定。如果被犯罪組織或?qū)V普?quán)使用,可能會(huì)使成千上萬(wàn)的人處于危險(xiǎn)之中。