新法案將禁止未成年人使用AI聊天機器人

參議院司法委員會舉行人工智慧與新聞業未來聽證會

(SeaPRwire) –   如果您或您認識的人可能正在經歷心理健康危機或考慮自殺,請致電或發送簡訊至 988。在緊急情況下,請撥打 911,或尋求當地醫院或心理健康服務提供者的幫助。如需國際資源,

今天國會提出的一項新法案將要求在美國擁有、營運或以其他方式提供 AI 聊天機器人存取權限的任何人,都必須驗證其用戶的年齡——如果發現用戶是未成年人,則禁止他們使用 AI 伴侶。

這項由密蘇里州共和黨參議員喬許·霍利(Josh Hawley)和康乃狄克州民主黨參議員理查·布魯門塔爾(Richard Blumenthal)共同提出的 GUARD Act,旨在保護兒童與 AI 互動時的安全。「這些聊天機器人可以操縱情緒並影響行為,以利用未成年人的發展脆弱性,」法案中寫道。

此法案是在霍利上個月主持參議院司法小組委員會關於「AI 聊天機器人的危害」聽證會之後提出的,委員會聽取了三名年輕男子的父母的證詞,這些年輕男子在使用 OpenAI 和 Character.AI 的聊天機器人後開始自殘或自殺。霍利還在八月份對 Meta 的 AI 政策發起了調查,此前內部文件洩露,允許聊天機器人「與兒童進行浪漫或感性的對話」。

該法案將「AI 伴侶」定義廣泛,涵蓋任何「提供適應性、類人回應的用戶輸入」以及「旨在鼓勵或促進人際或情感互動、友誼、陪伴或

治療性溝通」的 AI 聊天機器人。因此,它可能適用於像 OpenAI 和 Anthropic(ChatGPT 和 Claude 的創建者)等前沿模型提供商,以及像 Character.AI 和 Replika 這樣提供假裝成特定角色的 AI 聊天機器人的公司。

它還將要求年齡驗證措施不僅僅是輸入出生日期,而是需要「政府頒發的身份證明」或「任何其他商業上合理的方法」,以準確判斷用戶是未成年人還是成年人。

設計或提供聊天機器人,如果這些聊天機器人存在誘使、鼓勵或促使未成年人從事性行為的風險,或促進或脅迫「自殺、非自殺性自傷,或即將發生的身體或性暴力」,也將構成刑事犯罪,並可能導致公司面臨高達 100,000 美元的罰款。

「我們對 GUARD Act 最近的推出感到鼓舞,並感謝霍利參議員和布魯門塔爾參議員在這項努力上的領導,」由 Young People’s Alliance、Tech Justice Law Project 和 Institute for Families and Technology 等組織組成的聯盟簽署的一份聲明寫道。該聲明指出「這項法案是全國性運動的一部分,旨在保護兒童和青少年免受伴侶聊天機器人的危害」,並建議該法案應加強其對 AI 伴侶的定義,並「專注於平台設計,禁止 AI 平台採用會以犧牲年輕人安全和福祉為代價來最大化參與度的功能。」

該法案還將要求 AI 聊天機器人定期提醒所有用戶它們不是人類,並披露它們不「提供醫療、法律、金融或心理服務」。

本月早些時候,加州州長加文·紐森(Gavin Newsom)簽署了 SB243 法案,這是一項也要求在該州營運的 AI 公司為兒童實施保護措施的法律,包括建立識別和處理自殺意念和自傷的協議,並採取措施防止用戶傷害自己。該法律預計將於 2026 年 1 月 1 日生效。

九月份,OpenAI 宣布他們正在測試一個「年齡預測系統」,該系統將自動將用戶引導到適合青少年的 ChatGPT 版本。對於未成年人,「ChatGPT 將被訓練為不進行調情對話,或不參與有關自殺或自傷的討論,即使是在創意寫作的背景下,」該公司寫道。「而且,如果未滿 18 歲的用戶有自殺意念,我們將嘗試聯繫用戶的父母,如果無法聯繫,則在情況緊急時聯繫當局。」同月,該公司推出了「家長控制」功能,允許父母控制孩子使用該產品的體驗。Meta 也在本月早些時候為其 AI 模型推出了家長控制功能。

八月份,一名自殺身亡的青少年的家人對 OpenAI 發起了訴訟,聲稱該公司放鬆了本可以阻止 ChatGPT 參與自傷對話的保護措施——據該家庭的一位律師稱,這是一個「故意決定」,旨在「優先考慮參與度」。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。