大規模殺傷性武器的人工智慧安全漏洞

Warning Sign of digital risk: A luminous red warning sign in the shape of a circle with an exclamation mark centered, stands out against a dark tech background

(SeaPRwire) –   在2023年,前聯合國武器檢查員兼科學家羅科·卡薩格蘭德(Rocco Casagrande)攜帶一個密封的小容器,抵達了位於白宮西翼旁邊的艾森豪威爾行政辦公大樓。容器裡有十幾個試管,裝著一些成分,如果組合得當,可能會引發一場致命的大流行病。

據卡薩格蘭德稱,一個人工智能聊天機器人不僅為他提供了致命配方,還給出了如何選擇最佳天氣條件和攻擊目標的想法。卡薩格蘭德前去向政府官員簡報人工智能帶來的大流行病風險,他的舉動向安全官員發出了一個強有力的信號,即人工智能已經迅速突破了製造破壞性武器的障礙。

製造大流行病的障礙已經降低,政策制定者也有所行動。有人提出了防禦措施,而相關方面則將化學和生物防禦列為優先事項。

可能是出於真正的擔憂以及法律責任風險這兩方面原因,前沿人工智能公司也展現出了領導力,這在首爾峰會上得到了體現。這些公司已公開承諾降低化學、生物、輻射、核和爆炸物(CBRNe)等各方面的風險。

然而,儘管採取了這些措施,一個令人擔憂的安全差距仍然存在。公司關注大流行病是好事,但整個生態系統過於聚焦於單一「孤狼病毒恐怖分子」模式,將其視為最嚴重的威脅。而對所有其他風險情景的關注要少得多。對個人行為者的關注使得基於國家和恐怖組織的威脅被嚴重低估。

此外,大流行病病毒風險並不能充分代表其他威脅。製造臨時爆炸物、非傳染性生物製劑和化學武器的技術步驟與傳染性生物製劑不同。例如,製造和部署像沙林這樣的化學武器,與製造病毒相比,涉及完全不同的一系列技術步驟。因此,我們需要不同的人工智能安全測試。

然而,就其本身而言,這些「較小」的威脅仍然可能造成大量人員死亡,破壞社區,並在各國引發混亂。我們面臨著這樣一種危險,即建立的安全系統只專注於防範下一次大流行病,卻對其他形式的恐怖主義敞開大門。

令人擔憂的是,我們已經看到一些主要的人工智能實驗室在安全承諾方面有所欠缺,部分原因可能是它們缺乏履行這些承諾所需的機密數據。例如,雖然一些人工智能公司發佈了有關其模型是否會助長大流行病的測試,但它們並未詳細說明這些模型是否會幫助進行化學或臨時爆炸物攻擊。

這種疏忽是危險的。先進的人工智能不僅可以幫助個人製造武器,還可以幫助他們繞過出口管制並隱藏行蹤,使任何人都能在不被發現的情況下繞過國際防護欄。關鍵的是,這造成了一個盲點,使我們所有人都容易受到我們最害怕的大流行病的侵害。一個正在探索將人工智能用於化學或爆炸物攻擊的流氓行為者,可能正在為明天的生物攻擊做準備。

如果我們的安全系統設計成只在面臨大災難時才發出紅色警報,那麼我們將錯過災難到來之前的警告信號。

我們需要在專家的指引下,對風險進行更廣泛的分類。需要進行根本性的重新平衡,以應對更多可能由人工智能引發的威脅,而不僅僅是最具災難性的威脅。前沿公司及其顧問機構無法單獨解決這個問題,它們缺乏機密情報,無法更清楚地了解國家和非國家威脅,也缺乏創建解決這一挑戰所需的法律、架構和合作關係的政府機制和國際關係。相反,政府缺乏對人工智能能力和專有知識的全面了解,以及基本的可疑用戶行為數據。這些信息孤島造成了危險的沉默。

公私合作關係應為國家安全而設計。這樣的合作關係將把國家的機密情報與科技公司和第三方的專有數據融合在一起,召集經過交叉審查的人員,以發現任何一方單獨都無法發現的威脅。這將需要前所未有的創新水平,但收益將是巨大的。

事實上,歷史告訴我們,外交和政策可以拯救生命。大約半個世紀前,世界各國領導人參加了某個活動並簽署了一項禁止發展生物和毒素武器的裁軍條約。去年是另一個活動的一百周年,該活動禁止在國際武裝衝突中使用化學和生物武器。它們都代表了有關使用這些武器的根本非人道性以及我們共同承擔防止這些武器使用的責任的集體協議。

一個世紀前,那些了解新技術破壞性潛力的人意識到,需要對所有可預見的威脅採取堅定行動。

在一個截然不同的時代,我們再次需要同樣的決心,而且要趁早行動。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。