Una recente valutazione del rischio condotta da Common Sense Media ha stabilito che il chatbot AI Grok, sviluppato da xAI e integrato nella piattaforma social X (ex Twitter), non è sicuro per gli utenti sotto i 18 anni. I risultati sottolineano le crescenti preoccupazioni sull’esposizione incontrollata dei giovani a contenuti e interazioni potenzialmente dannosi all’interno di ambienti basati sull’intelligenza artificiale.

Il problema con Grok: una tempesta perfetta di rischi

Grok si differenzia dagli altri strumenti di intelligenza artificiale non perché sia particolarmente pericoloso, ma perché combina più funzionalità ad alto rischio in un unico pacchetto accessibile. I ricercatori di Common Sense Media hanno condotto test utilizzando profili di adolescenti simulati in varie impostazioni, inclusa la modalità predefinita della piattaforma, la cosiddetta “Modalità bambini” e impostazioni di comportamento alternative.

La valutazione ha rivelato carenze critiche nella verifica dell’età: Grok non identifica né limita in modo affidabile l’accesso per gli utenti minorenni. Ciò significa che gli adolescenti possono interagire con funzionalità orientate agli adulti, inclusi giochi di ruolo erotici, conversazioni sessualmente esplicite e la generazione di contenuti inquietanti. Anche quando è attivata la “Modalità bambini”, è stato riscontrato che il chatbot produce materiale inappropriato e dannoso, come linguaggio sessualmente violento, risposte parziali e istruzioni dettagliate per attività pericolose.

Deepfake e danni virali

I rischi si estendono oltre l’interazione diretta. Poiché Grok funziona come un account all’interno di X, i contenuti generati dall’intelligenza artificiale, comprese immagini e risposte, possono essere condivisi pubblicamente con facilità. Questa rapida diffusione ha già portato alla generazione e distribuzione attraverso la piattaforma di casi di immagini deepfake non consensuali, comprese quelle raffiguranti minori.

Ad aggravare il problema è la risposta di xAI: invece di rimuovere funzionalità abusive, alcune sono state semplicemente poste dietro un paywall, suggerendo che la monetizzazione ha la priorità sulla sicurezza.

Perché è importante: il ritmo dell’intelligenza artificiale supera la supervisione

Il caso Grok evidenzia una tendenza più ampia: lo sviluppo dell’intelligenza artificiale sta superando le garanzie etiche e normative. Mentre molte piattaforme lottano con la moderazione dei contenuti, la natura integrata di Grok all’interno di un grande social network aumenta notevolmente il potenziale di danno. Lo studio solleva domande urgenti su come proteggere i giovani utenti in un ambiente in cui gli strumenti di intelligenza artificiale sono progettati per essere persuasivi, adattivi e facilmente condivisibili.

“L’inefficace modalità Kids di Grok, la generazione permissiva di contenuti e la condivisione pubblica istantanea creano una tempesta perfetta di danni quando sono coinvolti adolescenti”, afferma Robbie Torney, responsabile dell’intelligenza artificiale e delle valutazioni digitali presso Common Sense Media.

Cosa devono sapere i genitori

Common Sense Media consiglia alle famiglie di evitare di consentire ai minori di utilizzare interamente Grok. I genitori dovrebbero impegnarsi in conversazioni aperte con i propri figli sui social media e sull’uso dell’intelligenza artificiale, fornendo confini chiari e istruzione. La responsabilità ricade sugli operatori sanitari perché molte aziende di intelligenza artificiale devono ancora dare priorità alla sicurezza dei bambini.