ChatGPT se dotera « dans les prochaines semaines » d’une nouvelle fonctionnalité qui prédit l’âge des utilisateurs. OpenAI souhaite ainsi éviter que les adolescents ne soient exposés à des contenus sensibles.
ChatGPT effectue une prédiction de l’âge afin de déterminer si un compte appartient vraisemblablement à un mineur. Si le modèle estime qu’un utilisateur a probablement moins de 18 ans, ChatGPT active automatiquement des protections supplémentaires. L’estimation n’est pas correcte selon l’utilisateur ? Il est alors possible de vérifier son âge via un selfie.
Modèle de prédiction de l’âge
Pour l’estimation, ChatGPT utilise un modèle de prédiction de l’âge distinct. Ce modèle combine des signaux comportementaux et de compte. Il examine notamment l’âge du compte, les moments d’activité et les schémas d’utilisation au fil du temps. L’âge qu’un utilisateur indique lui-même peut également jouer un rôle.
lire aussi
ChatGPT exigera bientôt un contrôle de l’âge pour la protection des mineurs
Les utilisateurs qui se retrouvent à tort dans l’expérience des moins de 18 ans peuvent confirmer leur âge. Cela se fait via un contrôle de selfie avec Persona, un service de vérification d’identité. Les utilisateurs trouveront cette option dans les paramètres sous Compte. Ils peuvent également y voir si des sécurités supplémentaires sont actives.
Contenu sensible
Lorsqu’il s’avère effectivement que la personne est mineure, ChatGPT limitera l’exposition à certains types de contenu. Il s’agit notamment de la violence graphique, des défis viraux risqués et des jeux de rôle sexuels ou violents. Les images d’automutilation et les contenus qui font la promotion d’idéaux de beauté extrêmes ou de pratiques alimentaires malsaines sont également soumis à des restrictions.
Outre les protections automatiques, les parents peuvent activer des paramètres supplémentaires via le contrôle parental. Ils peuvent définir des heures de silence, gérer des fonctions telles que la mémoire ou la formation de modèles et recevoir des notifications en cas de signaux de détresse aiguë. OpenAI surveillera le déploiement et apportera d’autres ajustements en fonction des résultats.
