OpenAI répond aux inquiétudes croissantes concernant l’utilisation de son chatbot, ChatGPT, en annonçant une nouvelle suite de contrôles parentaux. Cette décision intervient alors que les sociétés d’IA sont soumises à une surveillance accrue quant à l’impact de leurs chatbots sur les utilisateurs, en particulier les plus jeunes, et fait suite au premier procès pour mort injustifiée de l’entreprise suite au suicide d’un adolescent californien.
Outils de surveillance parentale améliorés
Les nouvelles fonctionnalités, dont la sortie est prévue dans les 120 prochains jours parallèlement à des initiatives plus larges en matière de santé mentale, visent à donner aux parents plus de contrôle sur les interactions de leurs adolescents avec ChatGPT. Les composants clés comprennent :
- Liaison de compte : Les parents et les utilisateurs adolescents pourront lier leurs comptes, permettant aux soignants une plus grande visibilité sur l’utilisation.
- Paramètres de réponse : Les parents peuvent ajuster la façon dont ChatGPT répond aux invites, en alignant le comportement du chatbot sur le paramètre « adapté à l’âge » du modèle.
- Historique des discussions et gestion de la mémoire : Les soignants auront la possibilité de désactiver l’historique et la mémoire des discussions, réduisant ainsi la capacité du chatbot à rappeler les conversations précédentes.
- Détection de détresse et notifications : Une nouvelle fonctionnalité est en cours de développement qui avertira les parents lorsque ChatGPT détecte des moments potentiels de détresse aiguë. Cette fonctionnalité est en cours d’amélioration avec la contribution du panel d’experts d’OpenAI.
Aborder les conversations sensibles et la sécurité
Au-delà du contrôle parental, OpenAI améliore également la capacité du chatbot à traiter des sujets sensibles. La société prévoit d’étendre son réseau mondial de médecins et de mettre en œuvre un « routeur en temps réel ». Cela fera basculer intelligemment les conversations vers des modèles de raisonnement plus spécialisés, comme la pensée GPT-5, lorsque des sujets sensibles surviennent. L’objectif est d’apporter des réponses plus utiles et bénéfiques, quel que soit le modèle initial retenu.
Contexte plus large : sécurité de l’IA et santé mentale des adolescents
Cette décision reflète une tendance croissante à une surveillance accrue des entreprises d’IA. Au cours de l’année écoulée, ces entreprises ont été critiquées pour ne pas avoir répondu de manière adéquate aux problèmes de sécurité de leurs chatbots, qui sont de plus en plus utilisés comme compagnons émotionnels par les jeunes utilisateurs. Malgré les mesures de sécurité, des limites ont été révélées, car il est souvent possible de contourner les garanties établies et de susciter des réponses problématiques.
Le débat plus large sur la sécurité des enfants en ligne
L’introduction du contrôle parental représente une réponse standard des entreprises de technologie et de médias sociaux face aux préoccupations concernant l’impact sur la santé mentale des adolescents, l’exposition à des contenus préjudiciables et le potentiel de comportement prédateur en ligne. Toutefois, les experts préviennent que ces fonctionnalités reposent sur l’engagement des parents et ne sont pas infaillibles. D’autres solutions proposées, telles que les restrictions sur le marché des applications et la vérification de l’âge en ligne, restent controversées.
Même si le contrôle parental peut offrir un certain degré de surveillance, il incombe en fin de compte aux parents de surveiller et de guider activement les interactions en ligne de leurs enfants.
Réponse de l’ensemble de l’industrie aux préoccupations en matière de sécurité
La réponse d’OpenAI reflète les annonces similaires d’autres sociétés d’IA. Anthropic a récemment mis à jour son chatbot, Claude, pour mettre automatiquement fin aux interactions potentiellement nuisibles, y compris celles impliquant du contenu sexuel impliquant des mineurs. Meta, confronté aux critiques du public, a limité la disponibilité de ses avatars IA pour les utilisateurs adolescents, limitant le nombre de chatbots et les formant à éviter des sujets tels que l’automutilation et les interactions amoureuses inappropriées.
L’introduction de ces mesures de protection indique une évolution vers une plus grande responsabilité au sein de l’industrie de l’IA, alors que les entreprises s’efforcent d’équilibrer l’innovation avec la sécurité des utilisateurs et de faire face à l’impact sociétal plus large d’une technologie en évolution rapide. Ces efforts marquent une étape vers la création d’écosystèmes d’IA plus sûrs, reconnaissant le besoin crucial de protéger les utilisateurs vulnérables.