Grok en deepfakes: waarom deze AI-tool een groeiend risico vormt voor jongeren

Grok-logo van X, de AI-chatbot die onder vuur ligt vanwege het maken van deepfakes en gemanipuleerde beelden

De AI-chatbot Grok, ontwikkeld door xAI en geรฏntegreerd in platform X, ligt onder vuur. Aanleiding is het maken van seksuele deepfakes. Daarbij gaat het niet alleen om expliciete beelden. Het probleem reikt verder. AI kan ook worden ingezet voor online pesten, chantage en intimidatie, waarbij beelden zo worden bewerkt dat het lijkt alsof iemand iets heeft gedaan of gezegd wat nooit is gebeurd. Voor jongeren kan dat grote gevolgen hebben.

Wat is Grok en waarom is deze tool zo gevoelig?

Grok is een AI-chatbot die teksten รฉn afbeeldingen kan genereren. De tool is direct gekoppeld aan X en voor veel gebruikers eenvoudig te activeren. Dat maakt Grok laagdrempelig. Eรฉn opdracht is vaak genoeg om realistische beelden te creรซren.

Juist die toegankelijkheid maakt Grok risicovol. Uit meerdere mediaberichten blijkt dat gebruikers de tool konden inzetten om seksuele deepfakes te maken van echte personen. Soms ging het om het digitaal โ€˜uitkledenโ€™ van mensen. In andere gevallen konden beelden worden gemanipuleerd op een manier die schadelijk is voor iemands reputatie of veiligheid.

Het probleem gaat verder dan uitkleedapps

De ophef rond Grok draait niet alleen om nudity. AI-beelden kunnen ook worden gebruikt om iemand belachelijk te maken, onder druk te zetten of te chanteren. Denk aan online pesten of cybercriminaliteit, waarbij nepbeelden worden ingezet alsof ze echt zijn. Voor jongeren, die veel online delen en minder goed de gevolgen overzien, vergroot dit het risico aanzienlijk.

Daarbij komt dat er volgens berichtgeving ook losse apps circuleren die fotoโ€™s automatisch omzetten in expliciete beelden of videoโ€™s. Deze apps maken gebruik van vergelijkbare AI-technieken. Eรฉn onschuldige foto van social media kan daardoor voldoende zijn voor misbruik.

Beperkingen, maar alleen waar de wet dat eist

Na maatschappelijke en politieke druk kondigde X aan dat Grok geen seksuele deepfakes meer mag genereren. Toch blijkt uit berichtgeving van onder andere NRC en BNR dat deze maatregel alleen geldt in landen waar dit wettelijk verboden is.

In landen zonder expliciet verbod blijft het technisch mogelijk om dergelijke beelden te maken. Gebruikers kunnen bovendien uitwijken naar andere regioโ€™s. Dat betekent dat bescherming ongelijk is en sterk afhankelijk van wetgeving.

Blokkades bij Grok zijn eenvoudig te omzeilen

Hoewel X stelt dat Grok geen seksuele deepfakes meer mag genereren, blijkt dat in de praktijk anders. Het is zo dat de ingestelde geoblokkade eenvoudig te omzeilen is. Nederlandse gebruikers kunnen via kleine aanpassingen alsnog toegang krijgen tot functies die officieel zijn uitgeschakeld.

Dit maakt de maatregelen van X kwetsbaar. In theorie zijn er grenzen gesteld, maar in de praktijk blijft misbruik mogelijk. Juist omdat Grok is gekoppeld aan een wereldwijd platform, verschuift het probleem snel naar landen met soepelere regels. Daarmee wordt duidelijk dat technische blokkades zonder stevige handhaving weinig bescherming bieden.

Voor jongeren vergroot dit het risico aanzienlijk. Zij zijn vaak digitaal vaardig en weten snel hun weg te vinden langs beperkingen. Dat maakt hen niet alleen kwetsbaar als slachtoffer, maar ook als onbedoelde verspreiders van schadelijke content.

De situatie rond Grok laat zien dat vertrouwen op geoblokkades onvoldoende is. Zolang AI-tools als Grok wereldwijd verschillend worden begrensd, blijven seksuele deepfakes circuleren. Dat benadrukt opnieuw waarom duidelijke wetgeving, internationale samenwerking en mediawijsheid noodzakelijk zijn.

Wat doet de politiek om schade te beperken?

In Nederland is het onderwerp inmiddels besproken op hoog niveau. Er vond overleg plaats tussen het Openbaar Ministerie en de minister. Daarbij ging het over de vraag hoe slachtoffers beter beschermd kunnen worden.

Ook Offlimits speelt hierin een rol. Deze organisatie, waar onder andere meldpunten voor online misbruik onder vallen, waarbij een handhavingsverzoek is ingediend. Daarmee wordt druk uitgeoefend op platforms om sneller en strenger in te grijpen. Het doel is duidelijk: voorkomen dat AI-tools structureel schade veroorzaken voordat wetten zijn aangepast.

Waarom dit extra gevaarlijk is voor jongeren

Jongeren groeien op met AI als vanzelfsprekend onderdeel van hun online leven. Ze experimenteren, delen beelden en vertrouwen technologie snel. Deepfakes ondermijnen dat vertrouwen.

Bovendien is de impact voor slachtoffers groot. Schaamte, angst en reputatieschade liggen op de loer. Zeker als beelden blijven circuleren. Daarom is het essentieel dat jongeren leren wat AI kan, maar ook wat de risicoโ€™s zijn.

Bij Digiwijzer zien wij deze ontwikkeling als een wake-upcall. Technologie ontwikkelt sneller dan wetgeving. Dat maakt mediawijsheid onmisbaar. Jongeren moeten leren dat niet alles wat technisch kan, ook okรฉ is. Alleen zo kunnen jongeren zichzelf รฉn anderen beschermen in een steeds complexere digitale wereld.

Wat Digiwijzer hierin kan betekenen

Bij Digiwijzer zien wij dat leerkrachten en scholen zich soms machteloos voelen. Dat is begrijpelijk, maar niet nodig. Er zijn oplossingen. Wij helpen scholen om grip te krijgen op AI, deepfakes en online misbruik.

Door jongeren te leren hoe AI werkt, hoe beelden gemanipuleerd kunnen worden en wat zij kunnen doen bij misbruik, vergroten we hun digitale weerbaarheid. Zo hoeven leerkrachten niet bang te zijn voor technologie die sneller lijkt te gaan dan zijzelf. Samen zorgen we voor meer kennis, meer vertrouwen en betere bescherming online.