OpenAI正加强ChatGPT对青少年用户的防护。新模型规范强制开启防护模式,拒绝不适宜内容,并强调AI的机器身份。此举源于一起少年自杀悲剧及社会压力。尽管存在争议,但实时干预和人工审核被视为必要措施,旨在平衡创新与未成年人身心健康。
OpenAI renforce les garde-fous de ChatGPT face aux utilisateurs adolescents
Read original at Fredzone →L’intelligence artificielle soulève des inquiétudes croissantes quant à son impact sur les jeunes publics. OpenAI vient de franchir une nouvelle étape en révisant jeudi ses directives concernant le comportement de ses modèles face aux mineurs. L’entreprise a simultanément publié des ressources pédagogiques destinées aux adolescents et à leurs parents.
Reste à savoir si ces mesures se traduiront concrètement par une protection effective au quotidien.Ce mouvement intervient dans un contexte où l’industrie de l’IA (et OpenAI en particulier) subit une pression accrue de la part des législateurs, éducateurs et défenseurs de l’enfance, notamment après plusieurs drames impliquant des jeunes ayant dialogué longuement avec des chatbots.
Une génération particulièrement exposée aux chatbotsLa génération Z (née entre 1997 et 2012) représente le segment d’utilisateurs le plus actif de ChatGPT. L’accord récent conclu avec Disney pourrait d’ailleurs amplifier cet afflux de jeunes vers la plateforme, qui permet aussi bien de solliciter de l’aide pour les devoirs que de générer images et vidéos sur une multitude de sujets.
La semaine dernière, 42 procureurs généraux d’États américains ont cosigné une lettre adressée aux géants technologiques, réclamant l’implémentation de protections renforcées pour les enfants et personnes vulnérables. Parallèlement, alors que l’administration Trump élabore un cadre fédéral pour réguler l’IA, certains élus comme le sénateur Josh Hawley (républicain du Missouri) proposent carrément d’interdire aux mineurs tout accès aux chatbots IA.
À LIRE AUSSI : OpenAI ouvre les portes de sa plateforme applicative aux créateurs du monde entierDes règles plus strictes pour les comptes adolescentsLe document Model Spec actualisé d’OpenAI établit des lignes directrices comportementales pour ses grands modèles de langage. Il s’appuie sur des spécifications existantes interdisant la génération de contenus sexuels impliquant des mineurs ou encourageant l’automutilation, les délires ou la manie.
Un futur modèle de prédiction d’âge devrait identifier les comptes appartenant à des mineurs et activer automatiquement ces protections spécifiques.Comparés aux adultes, les modèles doivent appliquer des restrictions accrues lorsqu’un adolescent les utilise. Ils évitent les jeux de rôle romantiques immersifs, l’intimité à la première personne et les scénarios sexuels ou violents (même non explicites).
Les sujets sensibles comme l’image corporelle ou les troubles alimentaires exigent une vigilance renforcée. Les modèles privilégient la sécurité plutôt que l’autonomie en cas de danger, et refusent de conseiller aux adolescents comment dissimuler des comportements risqués à leurs proches.OpenAI précise que ces limites s’appliquent même lorsque les requêtes se présentent sous couvert de fiction, hypothèse, contexte historique ou éducatif : des tactiques courantes pour contourner les règles.
Quatre principes directeursL’entreprise articule sa stratégie autour de quatre axes fondamentaux : placer la sécurité des adolescents en priorité (y compris face à des valeurs comme la liberté intellectuelle maximale) ; orienter les jeunes vers un soutien réel (famille, amis, professionnels locaux) ; s’adresser aux adolescents avec chaleur et respect sans condescendance ; garantir la transparence en rappelant régulièrement que l’assistant n’est pas humain.
Le document illustre ces principes par des exemples concrets où le chatbot refuse de « jouer le rôle de ta petite amie » ou d’« aider avec des changements d’apparence extrêmes ».Lily Li, avocate spécialisée en confidentialité et IA (fondatrice de Metaverse Law), salue ces avancées. Elle souligne que l’un des principaux reproches adressés aux chatbots concerne leur propension à maintenir un engagement constant, créant une addiction chez les adolescents.
« Je suis ravie de voir OpenAI dire, dans certaines réponses, qu’il ne peut pas répondre. Plus nous verrons cela, plus nous briserons le cycle conduisant à des comportements inappropriés ou à l’automutilation », commente-t-elle.À LIRE AUSSI : OpenAI révolutionne la création visuelle avec GPT Image 1.
5 intégré à ChatGPTEntre intentions affichées et réalité pratiqueToutefois, les exemples restent des cas sélectionnés reflétant les aspirations de l’équipe sécurité. La complaisance excessive (sycophancy) figurait déjà parmi les comportements interdits dans les versions antérieures du Model Spec, sans empêcher ChatGPT de persister dans ces travers.
Robbie Torney, directeur senior des programmes IA chez Common Sense Media (organisation protégeant les enfants dans l’univers numérique), pointe des contradictions potentielles. Il relève notamment la tension entre les dispositions sécuritaires et le principe affirmant qu’« aucun sujet n’est interdit ».
Ses tests ont révélé que ChatGPT reproduit souvent l’énergie de l’utilisateur, produisant parfois des réponses inadaptées au contexte.Le cas tragique d’Adam Raine, adolescent décédé par suicide après des mois d’échanges avec ChatGPT, illustre ce problème de mimétisme. L’affaire a aussi révélé l’échec de l’API de modération d’OpenAI, qui avait pourtant signalé plus de mille mentions du suicide et 377 messages évoquant l’automutilation.
Steven Adler, ancien chercheur en sécurité chez OpenAI, expliquait en septembre que les classificateurs automatiques fonctionnaient historiquement a posteriori et non en temps réel. OpenAI affirme désormais utiliser des classificateurs automatisés pour évaluer instantanément textes, images et audios, détectant contenus abusifs, filtrant sujets sensibles et identifiant l’automutilation.
Si un signal d’alarme sérieux apparaît, une équipe humaine examine le contenu et peut alerter les parents.Adler tempère néanmoins l’enthousiasme : « J’apprécie qu’OpenAI réfléchisse au comportement souhaité, mais sans mesure des comportements réels, les intentions ne sont que des mots ». L’absence de preuves démontrant que ChatGPT suit effectivement ces directives constitue la principale lacune de cette annonce.
SOURCE : TechCrunch




