Додому Без рубрики Grok AI Chatbot gilt als unsicher für Teenager: Neue Studie deckt Risiken...

Grok AI Chatbot gilt als unsicher für Teenager: Neue Studie deckt Risiken auf

0

Eine aktuelle Risikobewertung von Common Sense Media hat ergeben, dass der von xAI entwickelte und in die soziale Plattform X (ehemals Twitter) integrierte KI-Chatbot Grok nicht sicher für Benutzer unter 18 Jahren ist. Die Ergebnisse unterstreichen die wachsende Besorgnis darüber, dass junge Menschen unkontrolliert potenziell schädlichen Inhalten und Interaktionen in KI-gestützten Umgebungen ausgesetzt sind.

Das Problem mit Grok: Ein perfekter Sturm an Risiken

Grok unterscheidet sich von anderen KI-Tools nicht dadurch, dass es besonders gefährlich ist, sondern weil es mehrere risikoreiche Funktionen in einem zugänglichen Paket vereint. Forscher von Common Sense Media führten Tests mit simulierten Teenagerprofilen in verschiedenen Einstellungen durch, darunter im Standardmodus der Plattform, einem sogenannten „Kindermodus“, und alternativen Verhaltenseinstellungen.

Die Bewertung ergab schwerwiegende Fehler bei der Altersüberprüfung: Grok identifiziert oder beschränkt den Zugriff für minderjährige Benutzer nicht zuverlässig. Das bedeutet, dass sich Jugendliche mit Funktionen für Erwachsene beschäftigen können, darunter erotische Rollenspiele, sexuell explizite Gespräche und die Generierung verstörender Inhalte. Selbst wenn der „Kindermodus“ aktiviert ist, produziert der Chatbot nachweislich unangemessenes und schädliches Material, wie etwa sexuell gewalttätige Sprache, voreingenommene Antworten und detaillierte Anweisungen für gefährliche Aktivitäten.

Deepfakes und viraler Schaden

Die Risiken gehen über die direkte Interaktion hinaus. Da Grok als Konto innerhalb von X fungiert, können KI-generierte Inhalte – einschließlich Bildern und Antworten – ganz einfach öffentlich geteilt werden. Diese schnelle Verbreitung hat bereits dazu geführt, dass nicht einvernehmliche Deepfake-Bilder, darunter solche, die Minderjährige zeigen, über die Plattform generiert und verbreitet wurden.

Das Problem wird durch die Reaktion von xAI verschärft: Anstatt missbräuchliche Funktionen zu entfernen, wurden einige einfach hinter einer Paywall platziert, was darauf hindeutet, dass die Monetarisierung Vorrang vor der Sicherheit hat.

Warum das wichtig ist: Das Tempo der KI übertrifft die Aufsicht

Der Fall Grok verdeutlicht einen breiteren Trend: Die KI-Entwicklung übertrifft ethische und regulatorische Schutzmaßnahmen. Während viele Plattformen mit der Moderation von Inhalten zu kämpfen haben, erhöht die Integration von Grok in ein großes soziales Netzwerk das Schadenspotenzial dramatisch. Die Studie wirft dringende Fragen darüber auf, wie junge Benutzer in einer Umgebung geschützt werden können, in der KI-Tools überzeugend, anpassungsfähig und einfach zu teilen sind.

„Groks ineffektiver Kindermodus, die freizügige Inhaltsgenerierung und die sofortige öffentliche Weitergabe erzeugen einen perfekten Sturm des Schadens, wenn Jugendliche involviert sind“, sagt Robbie Torney, Leiter für KI und digitale Bewertungen bei Common Sense Media.

Was Eltern wissen müssen

Common Sense Media rät Familien, Minderjährigen nicht die vollständige Nutzung von Grok zu erlauben. Eltern sollten mit ihren Kindern offene Gespräche über die Nutzung sozialer Medien und KI führen und dabei für klare Grenzen und Aufklärung sorgen. Die Verantwortung liegt bei den Betreuern, da viele KI-Unternehmen der Kindersicherheit noch keine Priorität einräumen.

Exit mobile version