AI en privacy: wat weten slimme systemen eigenlijk over jouw kind?

Een robotachtige hand die een toets indrukt op een laptop, als symbool voor kunstmatige intelligentie die digitale systemen bedient.

Kunstmatige intelligentie (AI) is slim en weet soms meer dan je denkt. Dat roept vragen op over AI in relatie tot privacy. 

Om dat beter te begrijpen, hebben we een interview gehouden met niemand minder dan ChatGPT, de AI van OpenAI. In gewone mensentaal beantwoordde ChatGPT onze vragen over privacy, persoonsgegevens en foto’s.

Interview met ChatGPT over privacy en AI

We vroegen ChatGPT hoe AI-systemen omgaan met persoonlijke gegevens van kinderen. Hieronder lees je de belangrijkste inzichten uit het gesprek.

1. Wat zijn de grootste privacyrisico’s van AI?
AI kan soms meer informatie herkennen dan je doorhebt. Volgens ChatGPT zijn dit de belangrijkste risico’s:

  • AI kan per ongeluk persoonlijke gegevens herkennen, zoals een naam of adres.
  • AI doet voorspellingen over mensen (“dit kind kijkt veel YouTube, dus hij houdt van gamen”), maar die kloppen niet altijd.
  • Je weet vaak niet wie toegang heeft tot die data of wat ermee gebeurt.
  • AI wordt ook gebruikt voor deepfakes en nepbeelden, wat risico’s met zich meebrengt.

Kortom: AI is niet altijd veilig. Vooral niet als je niet weet wat het systeem met de info doet.

2. Hoe gaat ChatGPT om met persoonsgegevens?
ChatGPT stelt gerust:

  • De chat is privé en tijdelijk. Wat je typt, wordt niet opgeslagen.
  • ChatGPT weet niet wie je bent of waar je woont.
  • Als je zegt “mijn kind heet Sam”, wordt dat niet bewaard.

Let op: dat geldt specifiek voor ChatGPT van OpenAI. Andere AI-systemen zouden andere regels kunnen hanteren en data wel opslaan of gebruiken voor reclamedoeleinden.

3. Wat gebeurt er met foto’s die je uploadt naar een AI-systeem?
ChatGPT legt uit:

  • Bij ChatGPT worden foto’s alleen gebruikt om je vraag te beantwoorden. Daarna verdwijnen ze.
  • Andere AI-apps, zoals sommige gezichtsfilters of tekenprogramma’s, kunnen foto’s wel opgeslagen worden of zelfs worden doorverkocht.

Deel dus geen foto van je kind met een AI-systeem als je niet zeker weet wat ermee gebeurt.

Hoe herken je een veilige AI-app?

Veel populaire AI-apps maken het verleidelijk om foto’s of informatie te delen. Maar veiligheid is niet altijd gegarandeerd. Kijk dus altijd naar:

  • Wie heeft de AI ontwikkeld?
  • Is er een privacyverklaring?
  • Wordt de data opgeslagen of gedeeld?

OpenAI is hier transparant over, maar dat geldt lang niet voor alle aanbieders.

Wat kunnen ouders en scholen doen?

Kinderen groeien op in een wereld waarin AI steeds normaler wordt. Daarom is het essentieel om hierover in gesprek te gaan. Als ouder of leerkracht hoef je geen tech-expert te zijn, maar wel bewust. Let op wat je deelt, stel vragen en leer kinderen hetzelfde te doen.

Bij Digiwijzer helpen we scholen met praktische lessen over mediawijsheid, privacy en digitale veiligheid. Onze digicoaches geven interactieve gastlessen die aansluiten bij de leefwereld van kinderen. Zo leren zij zelf nadenken over wat ze wel of niet delen online.

Wil je op de hoogte blijven van dit soort onderwerpen? Meld je dan aan voor onze nieuwsbrief vol handige tips en actuele inzichten.