(SeaPRwire) – Instagram 於週二針對青少年帳戶推出了新的限制,此前,該社交媒體平台針對年輕用戶的安全指南引發了越來越多的爭議。
這款照片分享應用程式很快將根據電影業針對 PG-13 級電影的指南,限制青少年可瀏覽的內容。該應用程式母公司 Meta 表示,這項變更意味著應用程式將隱藏或不推薦包含強烈語言、展示吸毒用具或鼓勵「潛在有害行為」的貼文。
該公司表示,它將使用「年齡預測技術」來防止青少年規避這些限制,這些限制將在今年年底前推出。
這些變更是在 Instagram 因涉嫌未能保護未成年用戶免受有害內容侵害而受到抨擊之際出爐的。上週一份報告指出,在過去六個月中,近五分之三的 13 至 15 歲青少年曾接觸過不安全的內容和不受歡迎的訊息。Meta 告訴 TIME,該報告「高度主觀」,並且「基於對我們青少年安全工具運作方式的根本誤解」。
此外,去年九月,由網路安全團體和 Northeastern University 研究人員進行的另一項研究發現,Instagram 承諾的 40 多項兒童安全功能存在缺陷。Meta 稱該研究「」。
「不適齡內容」
該公司去年已致力於為年輕用戶提供更大的保護,當時它推出了「青少年帳戶」,該帳戶可防止未滿 18 歲的人接觸某些成人內容,並默認將其帳戶設置為私人狀態。
Instagram 表示,新的變更將阻止青少年用戶追蹤發布「不適齡內容,或其名稱或簡介暗示該帳戶不適合青少年」的帳戶。已經追蹤此類帳戶的青少年將無法看到或與其內容互動,這些帳戶也將無法追蹤青少年、向他們發送訊息或在其貼文上留言。Instagram 告訴 NBC News,這些限制將適用於名人和其他大量追蹤的成年帳戶,即使他們只分享了一篇不適齡貼文。
Instagram 的 AI 聊天機器人也將進行新的修復,以防止其向用戶提供不適齡的回答。另外,AI 聊天機器人及其背後的公司也因涉嫌聊天機器人「探索自殺方法」而面臨法律投訴。
Instagram 的新限制將自動適用於青少年用戶。除非獲得父母的許可,否則他們將無法選擇退出。
Instagram 正在為尋求更嚴格控制的父母推出一項功能,允許他們阻止某個帳戶查看、留言或接收貼文下的評論。
Instagram 在州和聯邦法院均面臨人身傷害訴訟,這些訴訟指控它傷害年輕人:超過 1,800 名原告在北加州對包括 Instagram 和 Meta 在內的大型社交媒體公司提起訴訟,指控其「魯莽地忽視其產品對兒童身心健康的影響」。其中一項訴訟將 Instagram 稱為一個「令人上癮、有害,有時甚至致命」的平台。
儘管如此,這家社交媒體公司仍將這些新宣布的變更譽為自 2024 年 1 月推出以來「青少年帳戶最重大的更新」。這些新限制將適用於全球數億使用該應用程式的青少年,不過它們將首先在美國、英國、澳洲和加拿大逐步推出。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。