Naar hoofdinhoud Naar footer

Deel deze pagina via:

Stel je vraag aan

AI-chatbots als assistent

Gepubliceerd op: 11-03-2026

Onderzoekers van Vilans spraken met mantelzorgers die AI-chatbots, zoals ChatGPT, gebruiken voor zorgtaken. Om mantelzorgers te helpen bepalen óf en hoe ze chatbots willen gebruiken, delen experts bij Vilans een reflectie bij de verhalen.

De verhalen en reflecties kunnen mantelzorgers helpen om ideeën op te doen over hoe chatbots steun kunnen geven, maar ook waar voorzichtigheid nodig is. Zorgprofessionals kunnen via de verhalen en reflecties inzicht krijgen in de kansen en risico’s van chatbots rondom mantelzorg.

Tijd en stress besparen

Carla is mantelzorger voor haar moeder met beginnende dementie. Ze gebruikt een AI‑chatbot vooral voor praktische en zakelijke taken om tijd en stress te besparen, zoals het schrijven van brieven of het vragen om advies. Ze deelt weinig persoonlijke informatie uit privacy zorgen, waardoor antwoorden van de chatbot soms te algemeen blijven. De AI-chatbot helpt haar, maar ze probeert voorzichtig en kritisch te zijn over betrouwbaarheid en risico’s. Toch lukt het Carla niet altijd even goed om hier rekening mee te houden.

Carla is 39 jaar en werkt als HR-manager. Ze heeft een drukke baan en zorgt daarnaast voor haar moeder van 81, die beginnende dementie heeft. Haar dagen bestaan uit werk, reistijd en zorgzaken: het invullen van formulieren, het regelen van medicatie en het maken van afspraken. Ze heeft het gevoel altijd achter de feiten aan te lopen, maar wil ook niet alles uit handen geven.

Gebruik van AI-chatbots

Carla gebruikt een AI-chatbot vooral zakelijk en voor praktische taken. Ze ziet het als een hulpmiddel om tijd te winnen in een overvolle week. Ze vraagt de AI-chatbot om brieven te herschrijven voor organisaties, mails op te stellen voor de gemeente of bezwaarbrieven te formuleren. Dit deed ze bijvoorbeeld toen ze een parkeerboete kreeg tijdens een zorgbezoek. Ze heeft geleerd dat ze de AI-chatbot feedback moet geven voor een beter resultaat. Bijvoorbeeld: 'Het taalgebruik mag wat formeler en wees duidelijker'. Ze gaat door met het geven van feedback tot ze tevreden is met het antwoord. De steun van AI neemt veel druk bij haar weg. Het scheelt haar namelijk denkwerk, stress en tijd.

Ideeën voor makkelijke maaltijden

Af en toe gebruikt Carla de chatbot ook voor praktische vragen rond de zorg. Bijvoorbeeld het bedenken van makkelijke maaltijden voor haar moeder, ideeën voor rustige spelletjes, of het vergelijken van hulpmiddelen. Soms uploadt ze zelfs een foto met bijvoorbeeld de vraag 'Welke stekker hoort bij deze wasmachine?'. Ze krijgt dan meteen advies. Toch blijft ze voorzichtig. Ze haalt meestal alle persoonlijke informatie weg voordat ze iets met een AI-chatbot deelt en ze noemt haar moeder nooit bij naam. Toch lukt het Carla niet altijd even goed om hier rekening mee te houden. Soms zoekt ze in de haast naar snelle antwoorden en dan let ze minder op privacy.

Weinig informatie delen

Omdat Carla bewust weinig achtergrondinformatie deelt, zijn de antwoorden van AI vaak algemeen. Dat betekent dat ze nog veel denkstappen moet zetten. Ze merkt dat ze daardoor soms minder voordeel heeft van de chatbot. Maar dat vindt ze een goede ruil voor haar privacy. AI mag haar helpen, maar mag haar niet kennen. Carla vindt: 'AI-chatbots zijn nog vol in ontwikkeling, dus je weet niet precies waar je aan meewerkt'.

Andere zorgen

Carla ziet ook andere risico’s. Ze weet dat AI-chatbots vaak het antwoord geven wat je wil horen. Sommige functies, zoals spraak, kunnen zelfs hele slechte antwoorden geven. Dit komt doordat ze snel moeten antwoorden, waardoor ze weinig tijd hebben om een reactie te berekenen.

'AI-chatbots zijn handig, zolang ik bepaal wat ik ermee doe. Ik laat het niet in mijn leven kijken.'


Kansen en risico’s mantelzorg en AI

Er zijn verschillende kansen en risico’s verbonden aan het gebruik van AI-chatbots. In deze reflectie geven experts van Vilans een aantal punten mee om over na te denken.

Carla gebruikt AI-chatbots bewust voor duidelijke, praktische taken. Ze ziet AI als hulpmiddel. Het is handig, maar kent ook grenzen. AI kan niet alles voor je oplossen. Ze probeert weinig informatie te delen en de technologie zo op afstand van haar persoonlijke leven te houden. De AI-chatbot helpt haar tijd te besparen, zonder dat ze het gevoel heeft dat het 'meekijkt' in haar privéleven.

Gevoel van controle en privacy

Voor Carla levert de chatbot zo tijdwinst op bij administratieve taken, terwijl zij haar gevoel van controle en privacy behoudt. Om op de manier van Carla te werken is het wel belangrijk dat je digitaal handig bent en kritisch nadenkt. Ook moet je hier continu op letten. Terwijl we de ene dag nu eenmaal oplettender zijn dan de andere dag.

Bewust en actief voorzichtig

Het verhaal van Carla laat zien dat je de AI-chatbot voorzichtig kunt gebruiken, maar ook dat deze voorzichtigheid nu vooral bij de individuele gebruiker zelf ligt. De meeste AI-chatbots zijn meestal niet zo gemaakt dat ze zo min mogelijk gegevens bewaren en deze goed beschermen. Als je bewust grenzen wilt stellen, moet je dit dus steeds actief zelf blijven doen.

Algemene antwoorden

Wanneer je weinig informatie over je situatie deelt, blijven de antwoorden van de AI-chatbot soms algemeen. Hierdoor zijn ze soms minder goed te gebruiken voor je situatie. Je zou misschien meer tijd besparen en handigere antwoorden krijgen als je meer informatie zou delen. Carla heeft hierin een keuze gemaakt. Zij kiest er liever voor om wat minder goede antwoorden te krijgen dan voor extra risico’s met haar gegevens.

Toch laat dit een probleem zien dat voor meer gebruikers geldt. Hoe meer je AI-chatbots inzet als handig hulpmiddel, hoe groter de verleiding kan worden om toch meer persoonlijke informatie te delen. Juist vanwege de betere resultaten. Daardoor kun je als gebruiker toch gaandeweg keuzes maken die je eigenlijk niet wil maken, zonder dat je het doorhebt.

Schijnzekerheid

Daarnaast bestaat het risico van schijnzekerheid, waarbij je je onterecht zeker voelt over de resultaten van de AI-chatbot. De chatbot kan fouten maken, ook bij taakgerichte en onschuldig lijkende taken, zoals het herschrijven van brieven of het geven van praktisch advies.

AI-chatbots kunnen bijvoorbeeld suggesties doen die juridisch of inhoudelijk niet kloppen. Of ze maken subtiele aannames die niet passen bij je situatie. Omdat de antwoorden vaak netjes en overtuigend klinken, bestaat het gevaar dat je deze adviezen te snel als 'goed genoeg' ziet, zonder dit extra te controleren.

Conclusie

Carla’s wens voor privacy laat zien dat er een behoefte is aan het beschermen van publieke waarden bij de inzet van chatbots. Het gaat hier om transparantie, zorgvuldigheid, toegankelijkheid en privacybescherming.

Het verhaal van Carla laat zien dat AI-chatbots waardevol kunnen zijn als hulpmiddel. Maar dat kan alleen wanneer gebruikers niet steeds zelf de fouten en beperkingen van de chatbot hoeven op te vangen. Zolang het bewaken van waarden zoals privacy, betrouwbaarheid en veiligheid afhangt van hoe goed een gebruiker oplet, blijft er een risico bestaan. Dan kunnen juist de mensen die het meeste voordeel zouden hebben van een AI-chatbot:

  • er het minst veilig gebruik van kunnen maken;
  • er het minst voordeel uit halen;
  • er de meeste nadelen bij ervaren.

Gebruikers zoals Carla zouden zich eigenlijk geen zorgen hoeven te maken over hun privacy, maar dat is bij de meeste chatbots nu nog wel nodig. Het ontwerp van AI-chatbots zou verantwoord gebruik moeten bevorderen. Zo zouden chatbots duidelijker moeten zijn over de kwaliteit en de betrouwbaarheid van hun antwoorden.

De kans die we zien

We zien dat AI-chatbots zeker veel waarde kunnen toevoegen, maar alleen wanneer er vanuit zowel ontwikkelaars als gebruikers bewust omgegaan wordt met intimiteit, autonomie, betrouwbaarheid en privacy. Rondom de mantelzorg kunnen chatbots het beste waarde opleveren wanneer het gebruik ervan bespreekbaar is in de zorg. Niet als vervanging van professionals, maar als gedeeld hulpmiddel dat bijdraagt aan beter begrip en betere gesprekken.

Mantelzorg en AI-chatbots: 3 verhalen en reflecties

Het verhaal van Carla is onderdeel van een serie van 3 verhalen. Lees ook de verhalen van Annemiek en Youssef. Die omschrijven andere ervaringen met AI-chatbots. Ook bij deze verhalen is een reflectie gedeeld, met andere onderwerpen om over na te denken.

De verhalen zijn gebaseerd op een verkennend onderzoek uit 2025. In 2026 kijken wij ook naar hoe het gebruik van AI-chatbots door mantelzorgers en cliënten de zorgdriehoek beïnvloedt, zowel positief als negatief. Heb jij hier ideeën bij of ervaring mee en wil je hierover meedenken? Neem dan contact op met Dirk Lukkien.

Lees meer over de verhalen en het verkennend onderzoek op de introductiepagina.