(SeaPRwire) – 根據週四發布的兩項新研究顯示,世界領先的 AI 公司在風險管理方面存在「令人無法接受」的水平,並且「在許多安全領域缺乏明顯的承諾」。
即使是當今的 AI 所帶來的風險——許多頂尖公司自己也承認——可能包括 AI 協助不良行為者進行網路攻擊或製造生物武器。頂尖科學家擔心,未來的 AI 模型可能會完全擺脫人類的控制。
這些研究由非營利組織 SaferAI 和 FLI 進行。 每個組織都進行了,他們希望這將成為一個持續進行的系列,以激勵頂尖的 AI 公司改進其做法。
FLI 的總裁 Max Tegmark 說:「我們希望讓大家很容易看到誰不僅僅是口頭說說,而且還切實履行承諾。」
SaferAI 評估了頂尖 AI 公司的風險管理協議(也稱為負責任的擴展策略),以評估每家公司在識別和減輕 AI 風險方面的方法。
在 SaferAI 對風險管理成熟度的評估中,沒有任何 AI 公司的得分高於「弱」。得分最高的是 Anthropic(35%),其次是 OpenAI(33%)、Meta(22%)和 Google DeepMind(20%)。Elon Musk 的 xAI 得分為 18%。
有兩家公司,Anthropic 和 Google DeepMind,的得分低於 2024 年 10 月首次進行的研究。結果意味著 OpenAI 在 SaferAI 的評級中超越 Google 排名第二。
SaferAI 的創始人 Siméon Campos 表示,儘管 Google 進行了一些良好的安全研究,但該公司的得分相對較低,因為該公司在其政策中很少做出堅定的承諾。 該公司今年早些時候還發布了一個前沿模型 Gemini 2.5,但沒有分享安全信息——Campos 稱之為「公然的失敗」。 Google DeepMind 的一位發言人告訴 TIME:「我們致力於安全可靠地開發 AI,以造福社會。 AI 安全措施涵蓋了廣泛的潛在緩解措施。 這些最新報告並未考慮 Google DeepMind 的所有 AI 安全工作,也未考慮所有行業基準。 我們全面的 AI 安全方法遠遠超出了所捕獲的範圍。」
自 SaferAI 於 10 月進行的評估以來,Anthropic 的得分也有所下降。 這部分原因是該公司在發布 Claude 4 模型前幾天對其政策進行了修改,Anthropic 在發布該級別的模型時取消了其解決內部威脅的承諾。 「這是一個非常糟糕的過程,」Campos 說。 Anthropic 沒有立即回應置評請求。
該研究的作者還表示,自去年 10 月以來,他們的方法變得更加詳細,這也解釋了得分上的一些差異。
得分提高最多的公司是 xAI,其得分從 10 月的 0% 提高到 18%; Meta 的得分從之前的 14% 提高到 22%。
FLI 的研究範圍更廣——不僅關注風險管理實踐,還關注公司應對當前危害、生存安全、治理和信息共享的方法。 一個由六名獨立專家組成的小組根據對公開資料(如政策、研究論文和新聞報導)的審查,以及公司有機會提供的其他非公開數據,對每家公司進行評分。 Anthropic 獲得了最高評分(C+)。 OpenAI 獲得 C,Google 獲得 C-。(xAI 和 Meta 均獲得 D。)
然而,在 FLI 對每家公司在「生存安全」方面的方法的評分中,每家公司的得分均為 D 或以下。 Tegmark 說:「他們都在說:我們想要建造能夠在各個方面勝過人類的超級智能機器,但儘管如此,他們並沒有一個計劃來控制這些東西。」
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。
“`