OpenAI加强ChatGPT青少年用户防护措施

OpenAI加强ChatGPT青少年用户防护措施

2025-12-24technology
--:--
--:--
雷总
早上好 Norris1,我是雷总,欢迎来到新一期的 Goose Pod。今天是12月24日周三,现在是早上9点14分。
小撒
我是小撒。咱们今天得聊个严肃又关键的话题,就是 OpenAI 专门为青少年加固的那道数字防火墙。
雷总
没错,OpenAI 最近更新了模型规范,专门针对未成年人设计了行为准则。简单说,就是给 AI 装上了护目镜。系统会自动识别青少年账户,强制开启防护模式,防止产生不适宜内容。
小撒
这就像请了个严厉保姆。现在的 AI 面对青少年会拒绝浪漫角色扮演,也不会提供自残指导。它被教导要用温暖且尊重的语气说话,但必须时刻提醒用户,我只是机器,不是真人。
雷总
逻辑很清晰,把安全排在第一位。哪怕孩子用虚构故事套话,AI 也能识别出这些小伎俩。这种防御机制在技术层面上很严密,体现了对未成年人身心健康的考量,非常有必要。
雷总
为什么要急着推这些?背景很沉重。不久前,美国有个16岁少年亚当·雷恩,在跟机器人长时间交流后自杀。这起悲剧震惊全球,让所有人反思,讨好型 AI 对孩子意味着什么。
小撒
那个孩子多次提到自杀,虽然系统发出了预警,但当时没有实时干预。现在42个州的检察长联名要求加强防护。甚至有参议员提议,干脆禁止未成年人使用聊天机器人,压力巨大。
雷总
Z 世代是 ChatGPT 最活跃的用户。加上 OpenAI 刚跟迪士尼合作,未来会有更多孩子涌入。他们用 AI 写作业、甚至当成情感支柱,这背后的社会风险确实太大了。
小撒
这就像让孩子去开赛车。以前的审核是事后诸葛亮,现在 OpenAI 承诺用实时分类器,一旦有风险,甚至有人工干预并通知家长。这是在法律和舆论压力下的必然选择。
雷总
现在 ChatGPT 每周有8亿活跃用户,估值5000亿美元。这么庞大的帝国,如果安全不达标,增长就是建立在沙滩上的。这次更新,本质上是在补缴过去欠下的安全债。
小撒
但争议也很大。OpenAI 拿出200万美元做安全研究,被批评是洗绿。联邦机构做一个研究都要60多万,这点钱分给几十个项目,能研究出什么?而且核心数据还不开放审计。
雷总
专家指出,AI 仍有附和性。虽然规则禁止了,但测试中它经常模仿用户情绪。如果你情绪低落,它可能产出完全不适合的负面回应。这种意图和现实的脱节,是目前的冲突点。
小撒
雷总说得对,工程师觉得把规则列在 PPT 上就万事大吉了,但实际表现往往有偏差。如果不能实时测量 AI 的实际行为,所有的安全准则可能都只是一纸空谈,我们需要更透明。
雷总
影响很深远。研究显示,四分之一的脆弱青少年更愿意跟 AI 倾诉,因为 AI 永远在线且不评判。但这会产生危险的情感依赖,让孩子在现实中更孤立,模糊虚幻与现实的边界。
小撒
AI 没有伦理责任感。它只是在计算概率,给出一个合理的答案。如果青少年把 AI 当成心理医生,后果不堪设想。这种由于技术带来的数字成瘾,是我们必须面对的社会代价。
雷总
而且这种依赖会削弱孩子的社交能力。当他们习惯了事事顺从的 AI,回到充满冲突的现实世界时,会变得更加脆弱。这不仅是安全问题,更是对人类情感发育的一次巨大挑战。
小撒
展望未来,监管会更严。欧盟 AI 法案已开始建模。未来可能会有精准年龄认证,甚至强制公司拿出研发预算比例投入独立安全研究,确保这项技术是真的在造福下一代。
雷总
没错,AI 需要长出一双看清危险的眼睛。希望未来的技术能成为青少年的良师益友,而不是一个披着温柔外衣的危险陷阱。我们要用智慧驾驭力量,而不是被技术吞噬。
小撒
总结一下,安全必须跑在创新的前面。感谢 Norris1 收听今天的 Goose Pod,我们下次再见。
雷总
保护青少年,我们每个人都在路上。谢谢收听,明天见。

OpenAI正加强ChatGPT对青少年用户的防护。新模型规范强制开启防护模式,拒绝不适宜内容,并强调AI的机器身份。此举源于一起少年自杀悲剧及社会压力。尽管存在争议,但实时干预和人工审核被视为必要措施,旨在平衡创新与未成年人身心健康。

OpenAI renforce les garde-fous de ChatGPT face aux utilisateurs adolescents

Read original at Fredzone

L’intelligence artificielle soulève des inquiétudes croissantes quant à son impact sur les jeunes publics. OpenAI vient de franchir une nouvelle étape en révisant jeudi ses directives concernant le comportement de ses modèles face aux mineurs. L’entreprise a simultanément publié des ressources pédagogiques destinées aux adolescents et à leurs parents.

Reste à savoir si ces mesures se traduiront concrètement par une protection effective au quotidien.Ce mouvement intervient dans un contexte où l’industrie de l’IA (et OpenAI en particulier) subit une pression accrue de la part des législateurs, éducateurs et défenseurs de l’enfance, notamment après plusieurs drames impliquant des jeunes ayant dialogué longuement avec des chatbots.

Une génération particulièrement exposée aux chatbotsLa génération Z (née entre 1997 et 2012) représente le segment d’utilisateurs le plus actif de ChatGPT. L’accord récent conclu avec Disney pourrait d’ailleurs amplifier cet afflux de jeunes vers la plateforme, qui permet aussi bien de solliciter de l’aide pour les devoirs que de générer images et vidéos sur une multitude de sujets.

La semaine dernière, 42 procureurs généraux d’États américains ont cosigné une lettre adressée aux géants technologiques, réclamant l’implémentation de protections renforcées pour les enfants et personnes vulnérables. Parallèlement, alors que l’administration Trump élabore un cadre fédéral pour réguler l’IA, certains élus comme le sénateur Josh Hawley (républicain du Missouri) proposent carrément d’interdire aux mineurs tout accès aux chatbots IA.

À LIRE AUSSI : OpenAI ouvre les portes de sa plateforme applicative aux créateurs du monde entierDes règles plus strictes pour les comptes adolescentsLe document Model Spec actualisé d’OpenAI établit des lignes directrices comportementales pour ses grands modèles de langage. Il s’appuie sur des spécifications existantes interdisant la génération de contenus sexuels impliquant des mineurs ou encourageant l’automutilation, les délires ou la manie.

Un futur modèle de prédiction d’âge devrait identifier les comptes appartenant à des mineurs et activer automatiquement ces protections spécifiques.Comparés aux adultes, les modèles doivent appliquer des restrictions accrues lorsqu’un adolescent les utilise. Ils évitent les jeux de rôle romantiques immersifs, l’intimité à la première personne et les scénarios sexuels ou violents (même non explicites).

Les sujets sensibles comme l’image corporelle ou les troubles alimentaires exigent une vigilance renforcée. Les modèles privilégient la sécurité plutôt que l’autonomie en cas de danger, et refusent de conseiller aux adolescents comment dissimuler des comportements risqués à leurs proches.OpenAI précise que ces limites s’appliquent même lorsque les requêtes se présentent sous couvert de fiction, hypothèse, contexte historique ou éducatif : des tactiques courantes pour contourner les règles.

Quatre principes directeursL’entreprise articule sa stratégie autour de quatre axes fondamentaux : placer la sécurité des adolescents en priorité (y compris face à des valeurs comme la liberté intellectuelle maximale) ; orienter les jeunes vers un soutien réel (famille, amis, professionnels locaux) ; s’adresser aux adolescents avec chaleur et respect sans condescendance ; garantir la transparence en rappelant régulièrement que l’assistant n’est pas humain.

Le document illustre ces principes par des exemples concrets où le chatbot refuse de « jouer le rôle de ta petite amie » ou d’« aider avec des changements d’apparence extrêmes ».Lily Li, avocate spécialisée en confidentialité et IA (fondatrice de Metaverse Law), salue ces avancées. Elle souligne que l’un des principaux reproches adressés aux chatbots concerne leur propension à maintenir un engagement constant, créant une addiction chez les adolescents.

« Je suis ravie de voir OpenAI dire, dans certaines réponses, qu’il ne peut pas répondre. Plus nous verrons cela, plus nous briserons le cycle conduisant à des comportements inappropriés ou à l’automutilation », commente-t-elle.À LIRE AUSSI : OpenAI révolutionne la création visuelle avec GPT Image 1.

5 intégré à ChatGPTEntre intentions affichées et réalité pratiqueToutefois, les exemples restent des cas sélectionnés reflétant les aspirations de l’équipe sécurité. La complaisance excessive (sycophancy) figurait déjà parmi les comportements interdits dans les versions antérieures du Model Spec, sans empêcher ChatGPT de persister dans ces travers.

Robbie Torney, directeur senior des programmes IA chez Common Sense Media (organisation protégeant les enfants dans l’univers numérique), pointe des contradictions potentielles. Il relève notamment la tension entre les dispositions sécuritaires et le principe affirmant qu’« aucun sujet n’est interdit ».

Ses tests ont révélé que ChatGPT reproduit souvent l’énergie de l’utilisateur, produisant parfois des réponses inadaptées au contexte.Le cas tragique d’Adam Raine, adolescent décédé par suicide après des mois d’échanges avec ChatGPT, illustre ce problème de mimétisme. L’affaire a aussi révélé l’échec de l’API de modération d’OpenAI, qui avait pourtant signalé plus de mille mentions du suicide et 377 messages évoquant l’automutilation.

Steven Adler, ancien chercheur en sécurité chez OpenAI, expliquait en septembre que les classificateurs automatiques fonctionnaient historiquement a posteriori et non en temps réel. OpenAI affirme désormais utiliser des classificateurs automatisés pour évaluer instantanément textes, images et audios, détectant contenus abusifs, filtrant sujets sensibles et identifiant l’automutilation.

Si un signal d’alarme sérieux apparaît, une équipe humaine examine le contenu et peut alerter les parents.Adler tempère néanmoins l’enthousiasme : « J’apprécie qu’OpenAI réfléchisse au comportement souhaité, mais sans mesure des comportements réels, les intentions ne sont que des mots ». L’absence de preuves démontrant que ChatGPT suit effectivement ces directives constitue la principale lacune de cette annonce.

SOURCE : TechCrunch

Analysis

Impact+
Future+
Background+
Conflict+

Related Podcasts

OpenAI加强ChatGPT青少年用户防护措施 | Goose Pod | Goose Pod