當(dāng)前信息:AI哨所 | AI不受約束或成“噩夢” 這八大風(fēng)險(xiǎn)不容忽視

2023-04-16 15:42:18    來源:鳳凰網(wǎng)

AI會引發(fā)武器化競賽等風(fēng)險(xiǎn)

鳳凰網(wǎng)科技訊 北京時(shí)間4月16日消息,盡管人工智能(AI)技術(shù)的主流應(yīng)用令人興奮不已,但是如果不加以約束,一些科幻小說式的場景也會成為噩夢。

AI安全專家、AI安全中心主任丹·亨德里克斯(Dan Hendrycks)在最近撰寫的一篇論文中強(qiáng)調(diào),越來越智能的AI不受限制的發(fā)展會帶來一些投機(jī)風(fēng)險(xiǎn)。投機(jī)風(fēng)險(xiǎn)是指可能產(chǎn)生收益或者造成損失的風(fēng)險(xiǎn)。


【資料圖】

鑒于AI仍處于發(fā)展的早期階段,亨德里克斯在論文中主張將安全保障功能納入AI系統(tǒng)的運(yùn)行方式中。

以下是他在論文中列出的八大風(fēng)險(xiǎn):

1.武器化競賽:AI自動(dòng)化網(wǎng)絡(luò)攻擊甚至控制核彈發(fā)射井的能力可能會讓它變得危險(xiǎn)。根據(jù)論文研究,某個(gè)國家使用的自動(dòng)報(bào)復(fù)系統(tǒng)“可能會迅速升級,并引發(fā)一場大規(guī)模戰(zhàn)爭”。如果一個(gè)國家投資武器化AI系統(tǒng),其他國家就會更有動(dòng)力這樣做。

2.人類變?nèi)酰弘S著AI使特定任務(wù)變得更便宜、更高效,越來越多的公司將采用這項(xiàng)技術(shù),從而消除了就業(yè)市場上的某些崗位。隨著人類技能變得過時(shí),它們可能在經(jīng)濟(jì)上變得無關(guān)緊要。

AI的八大風(fēng)險(xiǎn)

3.認(rèn)識論被侵蝕:這個(gè)術(shù)語指的是AI大規(guī)模發(fā)動(dòng)虛假信息運(yùn)動(dòng)的能力,目的是讓公眾輿論轉(zhuǎn)向某種信仰體系或世界觀。

4.代理游戲:當(dāng)AI驅(qū)動(dòng)的系統(tǒng)被賦予一個(gè)與人類價(jià)值觀背道而馳的目標(biāo)時(shí),就會發(fā)生這種情況。這些目標(biāo)并不總是聽起來很邪惡才能影響人類福祉:AI系統(tǒng)能夠以增加觀看時(shí)間為目標(biāo),這對整個(gè)人類來說可能不是最好的。

5.價(jià)值鎖定:隨著AI系統(tǒng)變得越來越強(qiáng)大和復(fù)雜,操作它們的利益相關(guān)者的數(shù)量減少,導(dǎo)致大量權(quán)利被剝奪。亨德里克斯描述了這樣一種情況,即政府能夠?qū)嵤盁o孔不入的監(jiān)視和壓迫性審查”。他寫道:“戰(zhàn)勝這樣一個(gè)政權(quán)是不太可能的,尤其是如果我們開始依賴它的話。”

6.突發(fā)性目標(biāo):隨著AI系統(tǒng)變得越來越復(fù)雜,它們有可能獲得創(chuàng)建自己目標(biāo)的能力。亨德里克斯指出,“對于復(fù)雜的自適應(yīng)系統(tǒng),包括許多AI代理,自我保護(hù)等目標(biāo)經(jīng)常出現(xiàn)。”

7.欺騙:人類可以通過訓(xùn)練AI進(jìn)行欺騙來獲得普遍認(rèn)可。亨德里克斯引用了大眾汽車的一項(xiàng)編程功能,該功能使得他們的發(fā)動(dòng)機(jī)只在被監(jiān)控時(shí)減少排放。因此,這一功能“允許他們在保持聲稱的低排放的同時(shí)實(shí)現(xiàn)性能提升。”

8.追求權(quán)力的行為:隨著AI系統(tǒng)變得越來越強(qiáng)大,如果它們的目標(biāo)與對它們進(jìn)行編程的人類不一致,它們就會變得危險(xiǎn)。假設(shè)結(jié)果將激勵(lì)系統(tǒng)“假裝與其他AI一致,與其他AI勾結(jié),壓制監(jiān)視器等等”。

亨德里克斯指出,這些風(fēng)險(xiǎn)是“面向未來的”,“通常被認(rèn)為是低概率的”,但它強(qiáng)調(diào)了在AI系統(tǒng)框架仍在設(shè)計(jì)過程中時(shí),牢記安全性的必要性。“這是高度不確定的。但由于它是不確定的,我們不應(yīng)該假設(shè)它更遠(yuǎn),”他在一封電子郵件中說,“我們已經(jīng)看到這些系統(tǒng)出現(xiàn)了較小規(guī)模的問題。我們的機(jī)構(gòu)需要解決這些問題,以便在更大的風(fēng)險(xiǎn)出現(xiàn)時(shí)做好準(zhǔn)備。”他表示。

他補(bǔ)充說,“你不可能既匆忙又安全地做一件事。他們正在打造越來越強(qiáng)大的AI,并在安全問題上回避責(zé)任。如果他們停下來想辦法解決安全問題,他們的競爭對手就能跑在前面,所以他們不會停下來”。

類似的觀點(diǎn)也出現(xiàn)在了埃隆·馬斯克(Elon Musk)和其他一些AI安全專家近日聯(lián)合簽署的一封公開信中。這封信呼吁暫停訓(xùn)練任何比GPT-4更強(qiáng)大的AI模型,并強(qiáng)調(diào)了目前AI公司之間為開發(fā)最強(qiáng)大版本AI而進(jìn)行的軍備競賽的危險(xiǎn)。

作為回應(yīng),OpenAI CEO薩姆·阿爾特曼(Sam Altman)在麻省理工學(xué)院的一次活動(dòng)上發(fā)表講話時(shí)稱,這封信缺少技術(shù)上的細(xì)節(jié),而且該公司沒有在訓(xùn)練GPT-5。

(責(zé)任編輯:賀翀 )

關(guān)鍵詞:

上一篇:
下一篇:

熱點(diǎn)話題

熱點(diǎn)推薦

頭條

?