(SeaPRwire) – 一個由60名英國國會議員組成的跨黨派團體,在一份提前獨家提供給TIME的內容中,指控Google DeepMind違反了安全開發人工智慧的國際承諾。這封信由活躍團體PauseAI U.K.於8月29日發布,內容指出Google在3月發布Gemini 2.5 Pro時,沒有同時提供安全測試的詳細資訊,「開創了一個危險的先例」。該信的簽署人包括數位權利倡議者男爵夫人Beeban Kidron和前國防大臣Des Browne,呼籲Google澄清其承諾。
多年來,包括Google DeepMind執行長在內的AI界領導者們一直警告說,人工智慧可能對公共安全構成災難性風險——例如,幫助潛在的生物恐怖分子設計新型病原體,或駭客摧毀關鍵基礎設施。為管理這些風險,在2024年2月由英國和韓國政府共同主辦的國際AI峰會上,Google、OpenAI等公司簽署了《前沿AI安全承諾》(Frontier AI Safety Commitments)。簽署方承諾「公開報告」系統能力和風險評估,並說明外部參與者(例如政府機構)是否以及如何參與了測試。由於缺乏具有約束力的法規,公眾和立法者主要依賴自願承諾所提供的資訊來了解AI的新興風險。
然而,當Google於3月25日發布Gemini 2.5 Pro時——該公司稱其在行業基準測試中以「顯著優勢」擊敗了競爭對手的AI系統——卻在一個多月內未發布詳細的安全測試資訊。這封信表示,這不僅反映了「未能兌現」其國際安全承諾,也威脅到促進更安全AI開發的脆弱規範。Browne在隨信發布的聲明中寫道:「如果像Google這樣的領先公司將這些承諾視為可選的,我們就面臨一場危險的競賽,競相部署越來越強大的AI而沒有適當的保障措施。」
Google DeepMind的一位發言人透過電子郵件向TIME表示:「我們正在履行我們的公開承諾,包括《首爾前沿AI安全承諾》。作為我們開發過程的一部分,我們的模型會經過嚴格的安全檢查,包括由UK AISI和其他第三方測試人員進行——Gemini 2.5也不例外。」
這封公開信呼籲Google為未來發布的模型建立一個分享安全評估報告的具體時間表。Google首次發布Gemini 2.5 Pro的模型卡(一份通常會分享安全測試資訊的文件)是在模型發布後22天。然而,這份八頁的文件只包含了一個簡短的安全測試部分。直到4月28日,即模型公開可用一個多月後,模型卡才更新為一份17頁的文件,其中包含了具體評估的詳細資訊,結論是Gemini 2.5 Pro在包括駭客攻擊在內的領域顯示出「顯著」但尚未危險的改進。該更新還說明使用了「第三方外部測試人員」,但沒有透露是哪些機構,也沒有說明英國AI安全研究所(U.K. AI Security Institute)是否在其中——這封信也將此列為Google違反其承諾的行為。
在先前未能回應一份關於其是否曾與政府分享Gemini 2.5 Pro以進行安全測試的評論請求後,Google DeepMind的一位發言人告訴TIME,該公司確實與英國AI安全研究所(U.K. AI Security Institute)以及「多元的外部專家團體」(包括Apollo Research、Dreadnode和Vaultis)分享了Gemini 2.5 Pro。然而,Google表示,它是在Gemini 2.5 Pro於3月25日發布之後才與英國AI安全研究所分享該模型的。
4月3日,在Gemini 2.5 Pro發布後不久,Google Gemini的高級總監兼產品負責人Tulsee Doshi告訴TechCrunch,之所以缺少安全報告,是因為該模型是「實驗性」發布,並補充說它已經進行了安全測試。她說,這些實驗性發布的目的是以有限的方式發布模型,收集用戶反饋,並在正式生產發布前進行改進,屆時公司將發布一份詳細說明已進行安全測試的模型卡。然而,幾天前,Google已將該模型推廣給其數百萬免費用戶,並在X上的一篇文章中表示,「我們希望盡快將我們最智慧的模型交到更多人手中」。
這封公開信指出,「將公開可用的模型標記為『實驗性』並不能免除Google的安全義務」,並額外呼籲Google建立一個更符合常識的部署定義。「公司有巨大的公共責任來測試新技術,而不是讓公眾參與實驗。」簽署這封信的牛津主教Steven Croft說道。「想像一下一家汽車製造商發布一款車輛,說『我們希望公眾在撞車、撞到行人或煞車失靈時進行實驗並提供反饋』,」他補充道。
Croft質疑在發布時提供安全報告的限制,將問題歸結為優先順序:「Google在AI上的巨額投資,有多少被投入到公共安全和保障中,又有多少被投入到龐大的計算能力上?」
當然,Google並非唯一一家似乎無視安全承諾的行業巨頭。xAI尚未發布其於7月發布的AI模型Grok 4的任何安全報告。與GPT-5和其他最近的發布不同,OpenAI於2月發布的Deep Research工具也缺乏同日發布的安全報告。該公司表示已進行了「嚴格的安全測試」,但直到22天後才發布報告。
PauseAI U.K.總監Joseph Miller表示,該組織擔心其他明顯違規的案例,而之所以關注Google是因為其地理位置上的接近。Google於2014年收購的AI實驗室DeepMind,總部仍設在倫敦。英國現任科學、創新與技術大臣在2024年的競選活動中曾表示,他將「強制」領先的AI公司分享安全測試結果,但2月有報導稱,英國的AI監管計畫因尋求更好地與川普政府的放任態度保持一致而推遲。Miller表示,現在是時候用「真正監管」取代公司承諾了,並補充說「自願承諾根本不起作用」。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。