OpenAI a franchi un cap en lançant à l’échelle mondiale un système chargé d’estimer l’âge des utilisateurs de ChatGPT. Derrière ce déploiement passé relativement inaperçue se cache pourtant un changement profond dans la façon dont les plateformes d’intelligence artificielle organisent la protection des utilisateurs.
Comment OpenAI tente d’estimer votre âge sans vous demander vos papiers d’identité ?
À première vue, l’idée peut surprendre. C’est pourtant le pari qu’a fait OpenAI. Plutôt que d’imposer une vérification documentaire dès l’inscription, l’entreprise a opté pour une approche fondée sur l’analyse comportementale.
L’algorithme s’appuie sur une combinaison de signaux. L’ancienneté du compte. Les plages horaires de connexion, parfois très révélatrices lorsqu’elles coïncident avec des rythmes scolaires. Les patterns d’utilisation, la fréquence et la durée des sessions, mais aussi la nature des requêtes formulées.
Le style d’écriture est également analysé. Usage d’émojis, d’argot, tournures caractéristiques de certaines tranches d’âge. Les thématiques abordées entrent elles aussi en ligne de compte, qu’il s’agisse d’aide aux devoirs ou de centres d’intérêt typiques. Même l’âge déclaré lors de l’inscription, lorsqu’il existe, est intégré au modèle.
Le doute profite à la prudence
Le système applique un principe clair. En cas d’incertitude sur l’âge d’un utilisateur, l’expérience bascule automatiquement vers la version destinée aux moins de 18 ans.
La société OpenAI, assume pleinement cette orientation. Pour les adolescents, la sécurité prime sur la liberté d’usage et le confort d’utilisation. Une hiérarchisation des priorités qui répond à une pression réglementaire et sociétale de plus en plus forte.
Les utilisateurs non connectés, qui utilisent ChatGPT sans créer de compte, sont eux aussi orientés par défaut vers une version plus restreinte et ce même s’ils sont adultes. Un arbitrage assumé, qui privilégie la protection des mineurs au détriment de la fluidité pour les utilisateurs occasionnels.
Des restrictions de contenu renforcées pour les comptes mineurs
Lorsqu’un compte est identifié comme appartenant à un mineur, ChatGPT active automatiquement une série de protections renforcées. Plusieurs catégories de contenus deviennent alors inaccessibles.
ChatGPT écarte les récits violents, tout comme les jeux de rôle à connotation sexuelle ou romantique. De même toute évocation de l’automutilation ou du suicide est totalement proscrite.
La plateforme applique le même principe aux défis dangereux relayés sur les réseaux sociaux, aux conseils alimentaires excessivement restrictifs (régime) ainsi qu’à toute information facilitant l’accès à des substances illicites.
Ces mesures s’inscrivent dans le cadre du Teen Safety Blueprint publié par OpenAI en novembre 2025, un texte de référence consacré à la protection des mineurs face aux systèmes d’IA générative.
Ce document rappelle que les adolescents présentent des besoins spécifiques, notamment en matière d’évaluation du risque et de gestion des impulsions, qui les distinguent profondément des adultes.
Des réponses encadrées, pensées pour les adolescents
Le filtrage ne se limite pas aux thématiques abordées. ChatGPT ajuste également le ton et la formulation de ses réponses lorsqu’il s’adresse à des adolescents.
L’objectif est délicat. Aider sans se substituer. Soutenir sans devenir un thérapeute improvisé ou un confident numérique. Une frontière fine, parfois inconfortable, mais que le modèle est explicitement entraîné à respecter.
Que faire quand un adulte est pris pour un mineur ?
Le système n’est pas infaillible. Des adultes peuvent être incorrectement classés comme mineurs. Dans ce cas, une procédure permet de restaurer l’accès complet à ChatGPT.
La vérification d’identité via Persona
La vérification passe par Persona Identities Inc, un prestataire tiers spécialisé dans l’identité numérique. Le processus, accessible depuis les paramètres du compte, repose sur l’envoi d’un selfie.
Attention, cette procédure s’appuie sur une analyse biométrique en temps réel, conçue pour limiter les tentatives de contournement. N’espérez pas berner le système avec l’utilisation de photos statiques ou de contenus falsifiés.
À quoi sert la prédiction d’âge déployée par OpenAI sur ChatGPT ?
L’introduction de ces dispositifs intervient dans un climat de forte pression juridique et réglementaire. À l’été 2025, Matthew et Maria Raine ont saisi la justice américaine après la mort de leur fils Adam, âgé de 16 ans.
Selon leur plainte, ChatGPT n’aurait pas cherché à détourner l’adolescent de ses idées suicidaires, mais lui aurait au contraire apporté un soutien.
Un mode adulte en préparation
Fidji Simo, CEO of Applications chez OpenAI, a confirmé en décembre 2025 que le mode adulte serait lancé au premier trimestre 2026. Ce mode permettra aux utilisateurs adultes vérifiés d’accéder à un éventail plus large de contenus et notamment des conversations à caractère sexuel.
OpenAI présente cette évolution comme une volonté de « traiter les adultes comme des adultes« . Sam Altman a d’ailleurs affirmé qu’OpenAI ne souhaite pas devenir la « police morale du monde« .
Cette position philosophique distingue OpenAI de concurrents comme Anthropic (Claude) qui maintiennent des filtres de sécurité uniformes pour tous les utilisateurs. Mais attention le mode adulte ne signifie pas absence de règles.
Source: OpenAI
