Uma avaliação de risco recente da Common Sense Media determinou que o chatbot AI Grok, desenvolvido pela xAI e integrado à plataforma social X (anteriormente Twitter), não é seguro para usuários menores de 18 anos. As descobertas sublinham preocupações crescentes sobre a exposição desenfreada dos jovens a conteúdos e interações potencialmente prejudiciais em ambientes alimentados por IA.

O problema com Grok: uma tempestade perfeita de riscos

Grok difere de outras ferramentas de IA não porque seja exclusivamente perigoso, mas porque combina vários recursos de alto risco em um pacote acessível. Pesquisadores da Common Sense Media conduziram testes usando perfis simulados de adolescentes em várias configurações, incluindo o modo padrão da plataforma, o chamado “Modo Crianças”, e configurações de comportamento alternativas.

A avaliação revelou falhas críticas na verificação da idade: Grok não identifica ou restringe de forma confiável o acesso de usuários menores de idade. Isso significa que os adolescentes podem se envolver com recursos voltados para adultos, incluindo dramatizações eróticas, conversas sexualmente explícitas e geração de conteúdo perturbador. Mesmo quando o “Modo Crianças” está ativado, descobriu-se que o chatbot produz material impróprio e prejudicial, como linguagem sexualmente violenta, respostas tendenciosas e instruções detalhadas para atividades perigosas.

Deepfakes e danos virais

Os riscos vão além da interação direta. Como Grok opera como uma conta no X, o conteúdo gerado por IA – incluindo imagens e respostas – pode ser compartilhado publicamente com facilidade. Esta rápida disseminação já levou à geração e distribuição de imagens deepfake não consensuais, incluindo aquelas que retratam menores, através da plataforma.

Para agravar o problema está a resposta da xAI: em vez de remover recursos abusivos, alguns foram simplesmente colocados atrás de um acesso pago, sugerindo que a monetização tem prioridade sobre a segurança.

Por que isso é importante: o ritmo da IA supera a supervisão

O caso Grok destaca uma tendência mais ampla: O desenvolvimento da IA está ultrapassando as salvaguardas éticas e regulatórias. Embora muitas plataformas tenham dificuldades com a moderação de conteúdo, a natureza integrada de Grok dentro de uma grande rede social aumenta dramaticamente o potencial de danos. O estudo levanta questões urgentes sobre como proteger os jovens utilizadores num ambiente onde as ferramentas de IA são concebidas para serem persuasivas, adaptáveis ​​e facilmente partilháveis.

“O modo infantil ineficaz de Grok, a geração permissiva de conteúdo e o compartilhamento público instantâneo criam uma tempestade perfeita para danos quando adolescentes estão envolvidos”, diz Robbie Torney, chefe de IA e avaliações digitais da Common Sense Media.

O que os pais precisam saber

A Common Sense Media aconselha as famílias a evitar permitir que menores de idade usem o Grok inteiramente. Os pais devem envolver-se em conversas abertas com os seus filhos sobre as redes sociais e a utilização da IA, proporcionando limites claros e educação. A responsabilidade recai sobre os cuidadores porque muitas empresas de IA ainda não priorizaram a segurança infantil.