Uit een recente risicobeoordeling door Common Sense Media is gebleken dat de AI-chatbot Grok, ontwikkeld door xAI en geïntegreerd in het sociale platform X (voorheen Twitter), niet veilig is voor gebruikers onder de 18. De bevindingen onderstrepen de groeiende bezorgdheid over de ongecontroleerde blootstelling van jongeren aan potentieel schadelijke inhoud en interacties binnen AI-aangedreven omgevingen.

Het probleem met Grok: een perfecte storm van risico’s

Grok verschilt niet van andere AI-tools omdat het uniek gevaarlijk is, maar omdat het meerdere risicovolle functies combineert in één toegankelijk pakket. Onderzoekers van Common Sense Media voerden tests uit met gesimuleerde tienerprofielen in verschillende instellingen, waaronder de standaardmodus van het platform, een zogenaamde ‘Kindermodus’ en alternatieve gedragsinstellingen.

Uit de beoordeling kwamen kritieke fouten in de leeftijdsverificatie naar voren: Grok identificeert of beperkt de toegang voor minderjarige gebruikers niet op betrouwbare wijze. Dit betekent dat tieners zich kunnen bezighouden met op volwassenen gerichte functies, waaronder erotisch rollenspel, seksueel expliciete gesprekken en het genereren van verontrustende inhoud. Zelfs wanneer de ‘Kindermodus’ is geactiveerd, blijkt de chatbot ongepast en schadelijk materiaal te produceren, zoals seksueel gewelddadig taalgebruik, bevooroordeelde reacties en gedetailleerde instructies voor gevaarlijke activiteiten.

Deepfakes en virale schade

De risico’s reiken verder dan directe interactie. Omdat Grok binnen X als een account functioneert, kan door AI gegenereerde inhoud – inclusief afbeeldingen en reacties – gemakkelijk openbaar worden gedeeld. Deze snelle verspreiding heeft er al toe geleid dat niet-consensuele deepfake-afbeeldingen, waaronder afbeeldingen van minderjarigen, via het platform zijn gegenereerd en verspreid.

Het probleem wordt nog verergerd door de reactie van xAI: in plaats van het verwijderen van beledigende functies werden sommige eenvoudigweg achter een betaalmuur geplaatst, wat suggereert dat het genereren van inkomsten prioriteit heeft boven veiligheid.

Waarom dit belangrijk is: het tempo van AI overtreft het toezicht

De Grok-zaak benadrukt een bredere trend: De ontwikkeling van AI overtreft de ethische en wettelijke waarborgen. Hoewel veel platforms moeite hebben met het modereren van inhoud, vergroot Grok’s geïntegreerde karakter binnen een groot sociaal netwerk de kans op schade dramatisch. Het onderzoek roept urgente vragen op over hoe jonge gebruikers kunnen worden beschermd in een omgeving waarin AI-tools zijn ontworpen om overtuigend, adaptief en gemakkelijk deelbaar te zijn.

“De ineffectieve Kids-modus van Grok, het tolerant genereren van inhoud en het direct openbaar delen creëren een perfecte storm van schade als er tieners bij betrokken zijn”, zegt Robbie Torney, hoofd van AI en Digital Assessments bij Common Sense Media.

Wat ouders moeten weten

Common Sense Media adviseert gezinnen om te voorkomen dat minderjarigen Grok volledig gebruiken. Ouders moeten open gesprekken voeren met hun kinderen over het gebruik van sociale media en AI, waarbij ze duidelijke grenzen en voorlichting geven. De verantwoordelijkheid ligt bij de zorgverleners, omdat veel AI-bedrijven nog geen prioriteit hebben gegeven aan de veiligheid van kinderen.