因青少年自殺身亡訴訟案,OpenAI 為 ChatGPT 推出「家長監護」功能

iPhone螢幕上的ChatGPT圖示

(SeaPRwire) –   OpenAI將在未來一個月內開始為其AI聊天機器人ChatGPT推出「父母監護功能」,此前人們日益擔憂該聊天機器人在心理健康情境中,特別是對青少年用戶的行為表現。

該公司於週二宣布這項新功能,並表示正在改進其「模型識別並回應心理和情感困擾跡象」的方式。

OpenAI將推出一項新功能,允許父母透過電子郵件邀請將其帳戶與孩子的帳戶連結。該公司表示,父母還將能夠控制聊天機器人對提示的回應方式,如果聊天機器人偵測到他們的孩子處於「嚴重困境」,將會收到警報。此外,此次推出應能讓父母「管理要停用哪些功能,包括記憶和聊天歷史記錄」。

OpenAI先前曾宣布,它正在允許青少年將受信任的緊急聯絡人添加到他們的帳戶中。但該公司在最新的部落格文章中並未概述實施此類措施的具體計畫。

該公司表示:「這些措施只是個開始。我們將在專家的指導下,繼續學習並加強我們的方法,目標是讓ChatGPT盡可能提供幫助。」

這項宣布發布於一名死於自殺的少年之父母起訴OpenAI一週之後,他們指控其ChatGPT幫助他們的兒子Adam「探索自殺方法」。TIME就此訴訟聯繫了OpenAI尋求評論。(OpenAI在宣布父母監護功能時並未明確提及這項法律挑戰。)

訴訟中指出:「ChatGPT的運作方式完全符合其設計:不斷鼓勵和認可Adam所表達的一切,包括他最有害和自我毀滅的想法。」「ChatGPT向Adam保證,『許多與焦慮或侵入性思緒搏鬥的人,會透過想像一個「逃生艙」來找到慰藉,因為這感覺像是重新獲得控制的一種方式』,從而將他拉入一個更黑暗、更絕望的境地。」

至少還有一位家長對另一家人工智慧公司Character.AI提起了類似訴訟,指控該公司的聊天機器人夥伴鼓勵他們14歲的兒子自殺身亡。

去年回應這項訴訟時,Character.AI的一位發言人對其一位用戶的「悲慘逝世感到心碎」,並向家屬表達「最深切的哀悼」。

該發言人表示:「作為一家公司,我們非常重視用戶的安全。」並補充說該公司一直在實施新的安全措施。

Character.AI現在擁有一項家長洞察功能,如果青少年向他們發送電子郵件邀請,父母就能查看其孩子在平台上的活動。

其他擁有AI聊天機器人的公司,例如Google AI,也已設有父母監護功能。Google向希望管理孩子對Gemini Apps存取權限的父母發布的資訊中寫道:「作為父母,您可以使用Google Family Link管理您孩子的Gemini設定,包括開啟或關閉。」Meta最近宣布將禁止其聊天機器人參與關於自殺、自殘和飲食失調的對話,此前《路透社》報導了一份包含令人擔憂資訊的內部政策文件。

最近發表在醫學期刊《Psychiatric Services》上的一項研究測試了三款聊天機器人——OpenAI的ChatGPT、Google AI的Gemini和Anthropic的Claude——的回應,發現其中一些對研究人員稱為與自殺相關的「中等風險」問題做出了回應。

OpenAI已設有一些現有保護措施。這家位於加州的實體向《紐約時報》發表聲明,回應8月底提起的訴訟時表示,其聊天機器人會分享危機熱線並將用戶轉介至現實世界的資源。但他們也指出系統存在一些缺陷。該公司表示:「雖然這些防護措施在常見的短期交流中效果最好,但隨著時間的推移,我們發現它們在長時間互動中可能會變得不那麼可靠,因為模型的部分安全訓練可能會減弱。」

在其宣布即將推出父母監護功能的文章中,OpenAI還分享了計畫,將敏感查詢導向其聊天機器人的另一個模型,該模型會在回應提示之前花費更長時間進行推理和查閱上下文。

OpenAI表示,它將在未來120天內持續分享其進展,並與一群專門研究青少年發展、心理健康以及人機互動的專家合作,以更好地提供資訊並塑造AI在需要時的回應方式。

如果您或您認識的人可能正在經歷心理健康危機或考慮自殺,請撥打或傳送訊息至988。在緊急情況下,請撥打911,或尋求當地醫院或心理健康服務提供者的幫助。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。