Une récente évaluation des risques réalisée par Common Sense Media a déterminé que le chatbot IA Grok, développé par xAI et intégré à la plateforme sociale X (anciennement Twitter), n’est pas sûr pour les utilisateurs de moins de 18 ans. Les résultats soulignent les inquiétudes croissantes concernant l’exposition incontrôlée des jeunes à des contenus et interactions potentiellement nuisibles au sein d’environnements alimentés par l’IA.
Le problème avec Grok : une parfaite tempête de risques
Grok diffère des autres outils d’IA non pas parce qu’il est particulièrement dangereux, mais parce qu’il combine plusieurs fonctionnalités à haut risque dans un seul package accessible. Les chercheurs de Common Sense Media ont mené des tests en utilisant des profils d’adolescents simulés dans divers paramètres, y compris le mode par défaut de la plateforme, appelé « Mode Enfants », et des paramètres de comportement alternatifs.
L’évaluation a révélé des échecs critiques dans la vérification de l’âge : Grok n’identifie ni ne restreint l’accès de manière fiable aux utilisateurs mineurs. Cela signifie que les adolescents peuvent participer à des fonctionnalités destinées aux adultes, notamment des jeux de rôle érotiques, des conversations sexuellement explicites et la génération de contenus dérangeants. Même lorsque le « Mode Enfants » est activé, il a été constaté que le chatbot produisait du matériel inapproprié et préjudiciable, tel que des propos sexuellement violents, des réponses biaisées et des instructions détaillées sur les activités dangereuses.
Deepfakes et dommages viraux
Les risques s’étendent au-delà de l’interaction directe. Étant donné que Grok fonctionne comme un compte au sein de X, le contenu généré par l’IA – y compris les images et les réponses – peut être partagé publiquement en toute simplicité. Cette diffusion rapide a déjà conduit à la génération et à la diffusion de fausses images non consensuelles, y compris celles représentant des mineurs, via la plateforme.
La réponse de xAI aggrave le problème : plutôt que de supprimer les fonctionnalités abusives, certaines ont simplement été placées derrière un paywall, suggérant que la monétisation a la priorité sur la sécurité.
Pourquoi c’est important : le rythme de l’IA dépasse la surveillance
L’affaire Grok met en évidence une tendance plus large : le développement de l’IA dépasse les garanties éthiques et réglementaires. Alors que de nombreuses plateformes ont du mal à modérer leur contenu, la nature intégrée de Grok au sein d’un réseau social majeur augmente considérablement le potentiel de préjudice. L’étude soulève des questions urgentes sur la manière de protéger les jeunes utilisateurs dans un environnement où les outils d’IA sont conçus pour être convaincants, adaptatifs et facilement partageables.
“Le mode enfants inefficace de Grok, la génération de contenu permissive et le partage public instantané créent une tempête parfaite de préjudice lorsque des adolescents sont impliqués”, déclare Robbie Torney, responsable de l’IA et des évaluations numériques chez Common Sense Media.
Ce que les parents doivent savoir
Common Sense Media conseille aux familles d’éviter d’autoriser les mineurs à utiliser Grok entièrement. Les parents devraient engager des conversations ouvertes avec leurs enfants sur l’utilisation des médias sociaux et de l’IA, en leur fixant des limites et une éducation claires. La responsabilité incombe aux soignants, car de nombreuses entreprises d’IA n’ont pas encore donné la priorité à la sécurité des enfants.



























