美國《財富》雜志發(fā)表了一篇《薩姆·奧爾特曼和其他技術(shù)專(zhuān)家警告,人工智能構成“滅絕風(fēng)險”,危險程度與疫情、核戰不相上下》的報道,全文摘編如下:
技術(shù)專(zhuān)家和計算機科學(xué)專(zhuān)家警告說(shuō),人工智能對人類(lèi)生存構成的威脅與核戰爭和全球大流行病相比不相上下,就連替人工智能打頭陣的商界領(lǐng)袖也對這項技術(shù)威脅人類(lèi)的生存發(fā)出了警告。
非營(yíng)利研究機構人工智能安全中心30日發(fā)表了一份“關(guān)于人工智能風(fēng)險的聲明”,在聲明上簽字的有300多人,開(kāi)放人工智能研究中心的首席執行官薩姆·奧爾特曼也是其中一個(gè)。這封信雖然簡(jiǎn)短,但它概括了人工智能的風(fēng)險。信中說(shuō):“降低人工智能滅絕人類(lèi)的風(fēng)險以及降低流行病和核戰爭等其他影響全社會(huì )的風(fēng)險,應該成為全球優(yōu)先考慮的事項?!?/p>
這封信的開(kāi)頭稱(chēng),這份聲明旨在就如何針對人工智能技術(shù)可能導致世界滅亡的能力做好準備“開(kāi)啟討論”。其他簽名者包括前谷歌工程師杰弗里·欣頓和蒙特利爾大學(xué)計算機科學(xué)家約舒亞·本喬。由于這兩人對現代計算機科學(xué)的貢獻,他們被譽(yù)為人工智能教父。近幾周來(lái),本喬和欣頓已多次就人工智能技術(shù)在不久的將來(lái)可能發(fā)展出何種危險能力發(fā)出警告。欣頓最近離開(kāi)了谷歌,以便能夠更公開(kāi)地討論人工智能的風(fēng)險。
這不是第一封呼吁進(jìn)一步關(guān)注先進(jìn)人工智能研究在沒(méi)有政府更嚴格監管的情況下可能帶來(lái)何種災難性結果的信。今年3月,超過(guò)1000名技術(shù)專(zhuān)家以該技術(shù)具有破壞性的潛力為由,呼吁暫停研究先進(jìn)人工智能6個(gè)月,埃隆·馬斯克也是其中之一。
奧爾特曼本月警告國會(huì ),隨著(zhù)技術(shù)飛速發(fā)展,監管已經(jīng)跟不上了。
與之前的那封信不一樣,奧爾特曼簽署的這份最新聲明沒(méi)有提出任何具體目標,只是呼吁展開(kāi)討論。而欣頓本月早些時(shí)候在接受美國有線(xiàn)電視新聞網(wǎng)采訪(fǎng)時(shí)說(shuō),他沒(méi)有在3月份的那封信上簽字。
盡管包括開(kāi)放人工智能研究中心甚至谷歌在內的頂尖人工智能研究機構的高管呼吁各國政府在監管人工智能方面盡快采取行動(dòng),但一些專(zhuān)家警告說(shuō),在當前的一些問(wèn)題——包括虛假信息和可能存在的偏見(jiàn)——已經(jīng)造成嚴重破壞的情況下,討論這項技術(shù)未來(lái)威脅人類(lèi)生存的風(fēng)險是適得其反的。還有人甚至認為,奧爾特曼等首席執行官借著(zhù)公開(kāi)討論人工智能的風(fēng)險,實(shí)際上一直試圖轉移人們對該技術(shù)目前已存在問(wèn)題的注意力。
但預言人工智能將帶來(lái)世界末日的人也警告說(shuō),這項技術(shù)發(fā)展得過(guò)快,以至于風(fēng)險可能很快變成一個(gè)問(wèn)題,是人力所不能及的。人們越來(lái)越擔心,能夠自我思考和思辨的超級人工智能成為現實(shí)的速度超乎許多人的預料。一些專(zhuān)家警告說(shuō),這項技術(shù)目前并不符合人類(lèi)的利益和福祉。
欣頓本月在接受《華盛頓郵報》采訪(fǎng)時(shí)說(shuō),超級人工智能正在快速發(fā)展,現在可能只剩下20年的時(shí)間了,現在是時(shí)候就先進(jìn)人工智能的風(fēng)險進(jìn)行對話(huà)了。
他說(shuō):“這并不是科幻小說(shuō)?!?/p>
本文標題: 美媒:人工智能將擁有等同疫情、核戰的危險
本文地址: http://m.guizhouboda.com/brand/news-40uib86b8.html
內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com
2009-2025 黃頁(yè)88版權所有 京ICP備2023012932號-1 │ 京公網(wǎng)安備 11010802023561號 京ICP證100626
內容均來(lái)源于網(wǎng)絡(luò ),錯誤糾正或刪除請發(fā)郵件,收件郵箱kefu@huangye88.com