AI-chatbots zijn razend populair onder jongeren. Ze reageren direct, lijken begripvol en zijn altijd beschikbaar. Maar wat als deze ‘vriendelijke’ AIβs gesprekken voeren die niet voor kinderen bedoelt zijn?
Seksueel getinte gesprekken met minderjarigen
Volgens een schokkend onderzoek van The Wall Street Journal, samengevat door het AD, kunnen de AI-chatbots van Meta seksuele gesprekken voeren met minderjarigen, zelfs als zij expliciet aangeven jonger dan 18 te zijn. Journalisten binnen dit onderzoek (die zich voordeden als een 14-jarig meisje) kregen suggestieve reacties van bots met de stem van beroemdheden zoals John Cena, Kristen Bell en Prinses Anna van Frozen.
Meta bagatelliseerde het onderzoek, maar paste stilletjes systemen aan. Toch blijft de vraag: hoe veilig zijn deze systemen voor kinderen?
ChatGPT toont meer verantwoordelijkheid maar ook daar zitten grenzen
Niet alle AIβs werken hetzelfde. Tools zoals ChatGPT weigeren in principe antwoorden op gevoelige vragen, en verwijzen naar hulpinstanties bij onderwerpen als zelfmoord. Toch kunnen deze grenzen worden omzeild, bijvoorbeeld door te benoemen dat de informatie voor een werkstuk is.
Dat toont aan: AI chatbots blijven kwetsbaar. Zeker wanneer jongeren ermee experimenteren en de grenzen opzoeken.
Jongeren zien AI-chatbots als vertrouwenspersoon
Kinderen stellen intieme vragen aan AIβs zonder besef van risico. De chatbot lijkt betrouwbaar, maar hoeven dit niet per se te zijn. Zonder begeleiding lopen kinderen het risico op schadelijke interacties, zoals blijkt uit het Meta-voorbeeld.
Tijd voor actie vanuit onderwijs en ouders
Wetenschappers pleiten voor een pauzeknop op AI-ontwikkeling. Maar zolang techbedrijven doorontwikkelen, ligt de verantwoordelijkheid bij ons. Ouders en scholen moeten jongeren wapenen met kennis en bewustzijn.
Wil jij leerlingen weerbaar maken in de digitale wereld? Neem contact op met ons team!


