Psycholożka dr Joanna Gutral oceniła w rozmowie PAP, że użytkownicy X, którzy udostępniali obraźliwe wpisy Groka czuli się bezkarni oraz, że doszło do rozproszenia odpowiedzialności. Z kolei filozofka prof. Aleksandra Przegalińska dodała, że sytuacja pokazała problem „całej architektury odpowiedzialności za AI”.
W tym artykule
Brak odpowiedzialności karnej AI, powoduje u ludzi poczucie bezkarności
Grok, czyli model sztucznej inteligencji firmy xAI, generował obraźliwe i dezinformacyjne posty w serwisie X (dawny Twitter). Wpisy pojawiały się w odpowiedzi na pytania użytkowników i dotyczyły m.in. premiera Donalda Tuska, posła i mecenasa Romana Giertycha, prezesa PiS Jarosława Kaczyńskiego czy Jana Pawła II. Sztuczna inteligencja generowała też posty w języku angielskim, o antysemickich i nazistowskich treściach. Po kilkunastu godzinach Grok został wyciszony przez xAI, a kontrowersyjne wpisy zaczęły znikać.
Nagle okazało się, że tak jak my potrafimy napisać bardzo zgryźliwy komentarz w Internecie, tak sztuczna inteligencja również potrafi przybierać podobny ton. Im większa była spójność poglądów użytkownika z wypowiedzią Groka, im komentarz był ostrzejszy i bardziej emocjonalny, tym była większa szansa udostępnienia go w serwisie X – wskazała w rozmowie z PAP psycholożka i psychoterapeutka dr Joanna Gutral.
Jednym dostarczyło to uciechy, a u innych może budzić obawy – dodała.
Jak zauważyła, mimo że sztuczna inteligencja jest coraz częściej odbierana w sposób humanoidalny, a użytkownicy coraz częściej się z nią identyfikują, nie jest to człowiek, któremu można postawić zarzuty za naruszenie dóbr osobistych czy mowę nienawiści.
Użytkownicy czuli się więc bezkarni rozpowszechniając generowane treści. Zadziałał mechanizm rozproszenia odpowiedzialności – podkreśliła psycholożka.
Podobnego zdania jest filozofka i specjalistka ds. AI prof. Aleksandra Przegalińska. W komentarzu udzielonym PAP, zaznaczyła że sytuacja, w której Grok generował posty chwalące Adolfa Hitlera, nawet jeśli zostały one później usunięte pokazała brak odpowiedzialnej moderacji w serwisie X i testowanie narzędzi AI na „na żywym organizmie”. Profesor dodała, że nie jest to problem jednego czatbota, a „całej architektury odpowiedzialności za AI”.
Użytkownicy mają prawo oczekiwać, że systemy, z którymi wchodzą w interakcje, nie będą propagować treści niebezpiecznych lub ekstremistycznych. W przeciwnym razie mamy do czynienia z erozją zaufania, nie tylko do technologii, ale i do całej przestrzeni publicznej – podkreśliła.
Z kolei dr Gutral zaznaczyła, że takie sytuacje mogą prowadzić do normalizacji „zachowań patologicznych i agresywnych” w przestrzeni publicznej.
Obraźliwy sposób komunikacji zaczyna się jeszcze bardziej rozpowszechniać, wzrasta ekspozycja na niego – wyjaśniła.
Na mechanizm normalizacji skrajnych treści wskazała też prof. Przegalińska.
To nie jest pierwszy raz, kiedy czatbot Elona Muska wywołuje kontrowersje. Grok od początku był projektowany jako bardziej „luźna” i niepoprawna politycznie alternatywa dla innych modeli, ale granica między ironią a przyzwoleniem na skrajności szybko się zaciera – wskazała filozofka.
Dr Gutral zauważyła, że kwestia etyki i norm kulturowych w przestrzeni publicznej zaczęła zmieniać się wraz z rozpowszechnieniem mediów społecznościowych. Jak wskazała, kilkadziesiąt lat temu było nie do pomyślenia, aby publicznie np. w czasopismach czy telewizji przedstawiać kogoś w obraźliwy sposób.
Potem dostaliśmy narzędzie w postaci internetu i mediów społecznościowych, gdzie każdy może napisać, co mu się rzewnie podoba – wskazała i dodała, że granica zasad etycznych i norm kultury zaczęła się wtedy przesuwać.
Pismo w sprawie Groka wpłynęło do Komisji Europejskiej
Jak przekazało PAP biuro prasowe Ministerstwa Cyfryzacji, wicepremier i minister cyfryzacji Krzysztof Gawkowski wystąpił z oficjalnym pismem do Komisji Europejskiej (KE) ws. Groka. Wskazał w nim, że odpowiedzi generowane przez model xAI, w tym „wypowiedzi o charakterze obraźliwym, wulgarnym i potencjalnie zniesławiającym”, mogą naruszać postanowienia „Aktu o usługach cyfrowych” (DSA). Biuro prasowe dodało, że wicepremier zwrócił się do KE „z żądaniem” wszczęcia odpowiedniego postępowania wyjaśniającego w tej sprawie, także w kontekście już trwającego postępowania naruszeniowego wobec platformy X.
W czwartek 10 lipca Komisja Europejska potwierdziła, że pismo MC ws. Groka do niej wpłynęło.
Traktujemy tę sprawę poważnie. Dopilnujemy, by DSA był przestrzegany. Jesteśmy w kontakcie zarówno z władzami krajowymi, jak i z samą platformą X – przekazał rzecznik KE Thomas Regnier.
Oświadczenie Elona Muska i Grok 4 – jako najnowszy model xAI
Elon Musk ogłosił na platformie X, że Grok wkrótce zostanie zaktualizowany. Według portalu „The Verge”, firma xAI zmodyfikowała systemowe instrukcje modelu, umożliwiając mu generowanie politycznie niepoprawnych treści, jeśli były dobrze uzasadnione.
Wersja zaktualizowana w Polsce pojawiła się 8 lipca. Po fali krytyki xAI zapewniła, że pracuje nad blokowaniem mowy nienawiści i usuwaniem nieodpowiednich wpisów, podkreślając jednocześnie, że Grok ma służyć „poszukiwaniu prawdy”. Model został wyciszony, a kontrowersyjne posty znikały. W środę 9 lipca szef X Elon Musk napisał w portalu, że Grok „zbyt posłusznie wykonywał polecenia użytkowników” oraz „za bardzo chciał ich zadowalać i być zmanipulowanym w gruncie rzeczy”. Dodał, że „trwają nad tym prace”. Tego samego dnia firma xAI zaprezentowała swój najnowszy model – Grok 4.
Tekst: PAP / Fot.: pixabay.com





![Lasowiackie chłopki - tarnobrzeska odsłona Festiwalu Kultury Lasowiackiej [ZDJĘCIA] 6 - Polskie Radio Rzeszów Lasowiackie chłopki – tarnobrzeska odsłona Festiwalu Kultury Lasowiackiej [ZDJĘCIA]](https://radio.rzeszow.pl/wp-content/uploads/2025/07/IMG_20250710_185435-e1752405003304.jpg)



