Principaux renseignements
- OpenAI lance un modèle de prédiction de l’âge pour les abonnements ChatGPT afin de protéger les mineurs.
- Cette initiative vise à minimiser l’exposition des mineurs à des contenus potentiellement préjudiciables, tout en permettant aux adultes de retrouver un accès complet grâce à une procédure de vérification.
- OpenAI démontre son engagement en faveur d’un développement responsable de l’IA en mettant en œuvre plusieurs mesures de sécurité, notamment des contrôles parentaux.
OpenAI prend des mesures pour protéger les jeunes utilisateurs de sa plateforme ChatGPT en mettant en œuvre un modèle de prédiction de l’âge pour les forfaits grand public. Ce modèle, conçu pour identifier les comptes appartenant à des personnes de moins de 18 ans, analyse une combinaison de facteurs tels que les habitudes d’utilisation, l’âge du compte, les heures d’activité habituelles et l’âge déclaré par l’utilisateur.
Cette initiative intervient dans un contexte de surveillance accrue des mesures de sécurité mises en place par OpenAI, en particulier en matière de protection des mineurs. La société fait l’objet d’une enquête de la FTC, tout comme d’autres entreprises technologiques, qui examine les impacts négatifs potentiels des chatbots IA sur les enfants et les adolescents. En outre, OpenAI est impliquée dans plusieurs procès pour homicide involontaire, l’un d’entre eux alléguant un lien entre l’utilisation de ChatGPT et le suicide d’un adolescent.
Mesures de protection
Lorsque le modèle de prédiction de l’âge signale qu’un utilisateur est potentiellement âgé de moins de 18 ans, ChatGPT active automatiquement des mesures de protection afin de minimiser l’exposition à des contenus sensibles, tels que des représentations d’automutilation.
Les utilisateurs identifiés à tort comme mineurs peuvent utiliser Persona, un service de vérification d’identité utilisé par d’autres entreprises technologiques telles que Roblox, afin de retrouver un accès complet.
Renforcement des mesures de sécurité
Les efforts d’OpenAI pour améliorer la sécurité des utilisateurs vont au-delà du modèle de prédiction de l’âge. En août, l’entreprise a annoncé son intention de lancer un contrôle parental, qui a ensuite été mis en place en septembre.
Elle développe également activement un système de vérification de l’âge des utilisateurs. De plus, OpenAI a créé en octobre un conseil d’experts chargé de fournir des informations sur l’impact potentiel de l’IA sur le bien-être mental des utilisateurs.
OpenAI s’est engagé à améliorer en permanence la précision de son modèle de prédiction de l’âge. Le déploiement concernera dans un premier temps l’Union européenne dans les semaines à venir, puis sera étendu à d’autres régions afin de répondre aux exigences locales. (uv)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

