Niedawna ocena ryzyka przeprowadzona przez Common Sense Media wykazała, że chatbot AI Grok, opracowany przez xAI i zintegrowany z platformą społecznościową X (dawniej Twitter), nie jest odpowiedni dla użytkowników poniżej 18 roku życia. Odkrycia podkreślają rosnące obawy związane z niekontrolowanym dostępem młodych ludzi do potencjalnie szkodliwych treści i interakcji w środowiskach opartych na sztucznej inteligencji.
Problem z Grokiem: idealna burza zagrożeń
Tym, co odróżnia Grok od innych narzędzi sztucznej inteligencji, nie jest to, że jest wyjątkowo niebezpieczny, ale to, że łączy wiele czynników wysokiego ryzyka w jeden przystępny cenowo pakiet. Naukowcy z Common Sense Media przeprowadzili testy, korzystając z symulowanych profili nastolatków przy różnych ustawieniach, w tym w domyślnym trybie platformy, tzw. „Trybie dziecięcym” i alternatywnych ustawieniach zachowania.
Ocena wykazała krytyczne błędy w weryfikacji wieku: Grok nie wykrywa w sposób niezawodny ani nie ogranicza dostępu dla nieletnich użytkowników. Oznacza to, że nastolatki mogą wchodzić w interakcję z funkcjami przeznaczonymi dla dorosłych, w tym z erotycznym odgrywaniem ról, rozmowami o charakterze jednoznacznie seksualnym i generowaniem niepokojących treści. Nawet po włączeniu „Trybu dziecięcego” chatbot generuje niewłaściwe i szkodliwe treści, takie jak język zawierający przemoc seksualną, stronnicze odpowiedzi i szczegółowe instrukcje dotyczące niebezpiecznych działań.
Deepfakes i szkody wirusowe
Ryzyko wykracza poza bezpośrednie interakcje. Ponieważ Grok działa jako konto w X, treści generowane przez sztuczną inteligencję – w tym obrazy i odpowiedzi – można łatwo udostępniać publicznie. To szybkie rozprzestrzenianie się doprowadziło już do przypadków generowania i rozpowszechniania za pośrednictwem platformy fałszywych obrazów, w tym zdjęć osób nieletnich.
Co gorsza, reakcja xAI: zamiast usuwać szkodliwe funkcje, niektóre z nich po prostu umieszczono za ścianą płatności, co sugeruje, że monetyzacja ma pierwszeństwo przed bezpieczeństwem.
Dlaczego to ma znaczenie: tempo rozwoju sztucznej inteligencji przewyższa kontrolę
Sprawa Groka pokazuje szerszą tendencję: Rozwój sztucznej inteligencji wyprzedza zabezpieczenia etyczne i regulacyjne. Podczas gdy wiele platform ma trudności z moderowaniem treści, zintegrowanie Groka z dużą siecią społecznościową znacznie zwiększa ryzyko wyrządzenia szkód. Badanie rodzi palące pytania o to, jak chronić młodych użytkowników w środowisku, w którym narzędzia AI zaprojektowano tak, aby łatwo przekonywały, dostosowywały się i udostępniały.
„Nieskuteczny sposób Groka na dzieci, pozwalający na tworzenie treści i natychmiastowe udostępnianie ich publicznie, tworzy idealną burzę szkód, gdy w grę wchodzą nastolatki” – mówi Robbie Torney, dyrektor ds. sztucznej inteligencji i oceny cyfrowej w Common Sense Media.
Co rodzice powinni wiedzieć
Common Sense Media zaleca, aby rodziny całkowicie unikały używania Groka przez nieletnich. Rodzice powinni otwarcie komunikować się ze swoimi dziećmi na temat mediów społecznościowych i korzystania ze sztucznej inteligencji, wyznaczając jasne granice i zapewniając edukację. Odpowiedzialność spoczywa na opiekunach, ponieważ wiele firm zajmujących się sztuczną inteligencją nie traktuje jeszcze bezpieczeństwa dzieci priorytetowo.
