
據(jù)外媒報道,劍橋、牛津和耶魯大學的25名技術和公共政策研究人員以及隱私和軍事專家周三發(fā)表了一份最新的研究報告,他們在報告中警告說,人工智能的快速發(fā)展引發(fā)了日益增長的風險,惡意用戶很快就能利用人工智能技術來發(fā)動自動黑客攻擊,這些攻擊可能會造成非常嚴重的后果,比如無人駕駛汽車相撞或者將商用無人機變成有針對性的武器。
研究人員和專家們稱,人工智能技術有可能被流氓國家、犯罪團伙或獨來獨往的犯罪分子們?yōu)E用,這已經從數(shù)字、物理和政治層面上對人類社會構成了迫在眉睫的威脅,因為人工智能技術讓大規(guī)模、高精準和高效率的攻擊成為了可能。
牛津大學人類未來學院的研究員邁爾斯-布倫達奇(Miles
Brundage)稱:“我們都承認,人工智能有很多積極的應用,但在惡意使用問題的研究上存在一片空白?!?/p>
人工智能即AI包括利用計算機執(zhí)行一些通常需要人類智能才能完成的任務,比如決策或識別文本、語音或視覺圖像等等。
人們普遍認為人工智能是開啟各種技術可能性的強大力量,但它也成為了尖銳辯論的焦點,人們擔心它所支持的大規(guī)模自動化會導致廣泛失業(yè)和其他社會混亂。
研究人員和專家們在這份長達98頁的報告中警告說,用人工智能來完成可能需要人工勞動和專業(yè)技能才能完成的任務,這可能會降低攻擊的成本和催生新的攻擊方式。這些新的攻擊方式可能是人力無法單獨完成或者需要用到人工智能系統(tǒng)自身弱點才能實現(xiàn)的。
報告審查了越來越多關于人工智能安全風險的學術研究成果,呼吁各國政府和政策與技術專家合作并化解這些危險。
研究人員們詳細說明了人工智能技術的強大力量,人工智能技術可以將圖像、文字和音頻合成在一起以模仿他人在線行為,進而改變公眾的觀點。研究人員們指出,專制政權可能會利用這種技術。
這份報告提出了一系列建議,包括將人工智能作為一種軍民兩用的技術來管理。
它還提出了一些問題,包括學術界和其他人是否應該控制他們發(fā)布或披露人工智能研發(fā)進展,直到該領域的其他專家有機會對潛在危險進行研究并作出反應。
布倫達奇說:“我們最終得出的問題比解決的問題多得多?!?/p>
這篇論文最早源于2017年初的一個研討會,當作者們正式開始撰寫時,報告中提出的某些預測基本上已經實現(xiàn)了。作者們推測,人工智能可能會被用來制作各種逼真的假聲音和假視頻,模仿各行各業(yè)的名人,以達到宣傳的目的。
去年晚些時候,所謂的“深度假”色情視頻開始在網上出現(xiàn),這類視頻實際上是將明星們的面孔融合到不同的身體上。
特斯拉首席執(zhí)行官埃隆-馬斯克(Elon Musk)和硅谷投資者山姆-奧爾特曼(Sam
Altman)創(chuàng)立的人工智能公司OpenAI的政策主管杰克-克拉克(Jack
Clark)表示:“這發(fā)生的色情行業(yè),并不是處于宣傳目的。但是一切都表明,關于深度假的東西也有可能被用于宣傳?!?/p>