
OpenAI implémente un système pour estimer l'âge des utilisateurs
L'entreprise OpenAI a révélé cette semaine une nouvelle fonctionnalité pour ses services grand public : un modèle d'intelligence artificielle conçu pour calculer l'âge probable de ceux qui utilisent ses outils. Cette action vise principalement à détecter les utilisateurs adolescents et ainsi à les protéger de contenus potentiellement nocifs. Le mécanisme ne repose pas seulement sur les données fournies par l'utilisateur, mais examine les habitudes individuelles pour déduire l'âge. 🧠
Mécanisme du modèle qui calcule l'âge
L'outil examine les données sur la façon dont une personne communique avec ChatGPT. Il évalue la périodicité, l'heure de la journée, la nature des questions et le mode de rédaction pour construire un profil de consommation. Avec ces informations, l'algorithme détermine si l'utilisateur est plus probablement un adulte ou un mineur. Cette méthode s'ajoute à d'autres techniques que l'entreprise peut utiliser pour confirmer l'âge.
Facteurs clés analysés par le système :- Fréquence d'utilisation : Combien de fois et avec quelle régularité on interagit avec la plateforme.
- Horaires d'activité : Les moments de la journée où les consultations ont lieu.
- Type de consultations et style linguistique : Le contenu des questions et les caractéristiques de l'écriture.
Cette technologie aide à respecter les réglementations de protection de l'enfance et à répondre aux préoccupations des parents et des éducateurs.
L'objectif : protéger les utilisateurs les plus jeunes
Cette initiative fait partie d'un projet plus large pour construire des espaces numériques plus sûrs. En reconnaissant les consommateurs jeunes, le système peut déployer automatiquement des barrières, comme filtrer des sujets délicats ou restreindre l'accès à certaines fonctionnalités. OpenAI souligne que ce développement facilite le respect des lois de protection des mineurs et répond aux préoccupations des familles et de la communauté éducative. 🛡️
Mesures de protection qu'il peut activer :- Filtrer les conversations sur des sujets sensibles ou inappropriés.
- Limiter l'accès à des fonctionnalités spécifiques de l'intelligence artificielle.
- Ajuster le ton et les réponses pour qu'ils soient adaptés à l'âge estimé.
Considérations sur la confidentialité et la portée
Bien que l'objectif principal soit de protéger les adolescents, le système examine inévitablement et classe les habitudes d'écriture de tous les utilisateurs, quel que soit leur âge. Cela pourrait faire que certains adultes perçoivent une surveillance de leurs interactions. Le paradoxe est qu'un outil créé pour protéger un groupe finit par analyser les schémas de communication de l'ensemble de la base d'utilisateurs. 🤔