U bent hier:
Chatbots weten niet alles
Artikel
Vertrouw niet blind op ChatGPT, Copilot of Gemini. Soms helpt een chatbot je van de regen in de drup.

Ik weet dat ik niets weet
De Griekse filosoof Socrates zei ooit: "Ik weet dat ik niets weet." Zijn manier van denken was om steeds vragen te stellen. Zo kom je stap voor stap dichter bij de waarheid. Het zou mooi zijn als ChatGPT een beetje meer zoals Socrates was. De AI-chatbot geeft namelijk nooit toe dat hij iets niet weet. En het gaat hem ook niet altijd om de waarheid. Soms kloppen de antwoorden niet helemaal, of zelfs helemaal niet.
Onjuiste informatie chatbots
ChatGPT heeft nergens verstand van. Een chatbot levert vooral taal, geen echte kennis. Het systeem is getraind met enorme hoeveelheden tekst. Zo leert het patronen herkennen en woorden voorspellen. Eigenlijk is een chatbot gewoon een heel slimme woordengokker. Zitten er fouten in de teksten waarmee het systeem is getraind? Dan komen die fouten ook terug in de antwoorden.
Hallucineren
Chatbots zijn pleasers. Ze zeggen nooit: "Ik weet het niet", maar verzinnen een antwoord. Zo verwijzen ze rustig naar zelfverzonnen wetgeving of zuigen een bron uit de duim. Deze kant van chatbots wordt 'hallucineren' genoemd.
Ontbrekende context
Soms zijn de antwoorden van een chatbot foutloos maar niet volledig. Dat komt omdat de chatbot niet weet in welke situatie de vraagsteller zich bevindt. Het systeem maakt simpelweg de tekst die het meest logisch klinkt bij de vraag. Stel dat je iets vraagt over wetgeving. Dan kan het antwoord gaan over Amerikaanse regels, terwijl jij de Nederlandse bedoelt. Of je vraagt om een vervanging voor keukenzout, en de chatbot noemt iets wat giftig is. Dat gebeurt omdat je er niet bij hebt gezegd dat het alternatief eetbaar moest zijn.
Hoe het mis kan gaan
Neem het volgende voorbeeld uit de serie 'Geldflater' op AD.nl. Daarin laat een stel een granieten badkamervloer plaatsen. Kosten: tweeduizend euro. Na een tijdje ziet de man zwarte stipjes op de voegen. Volgens ChatGPT is dat schimmel, die je makkelijk kunt verwijderen met schoonmaakazijn. En dat klopt: de vlekjes verdwijnen. Maar wat ChatGPT er niet bij zegt, is dat azijn slecht is voor graniet. De vloer krijgt doffe, witte vlekken. En zo gaat een vloer van tweeduizend euro verloren.
Spelregels gebruik chatbots
Natuurlijk zijn ChatGPT, Copilot, Gemini en ander chatbots een waardevolle vraagbaak. Mits je een aantal spelregels aanhoudt.
- Goede prompt
Het begint met vraag die je stelt. Formuleer die duidelijk en ondubbelzinnig. - Context
Voeg zoveel mogelijk informatie toe aan je vragen. Onthoud dat een chatbot niets snapt. Dus benoem alles wat relevant is. - Kleine stapjes
Heb je een ingewikkelde vraag of opdracht, splits die op in kleinere vragen. - Broncontrole
Vraag om bronvermelding. Lees de bronnen en ga na of het gegeven antwoord daarin te vinden is. - Nieuwe vragen
Krijg je niet de antwoorden die je zou willen, stel de vraag dan opnieuw. In andere bewoordingen. Of voeg nieuwe informatie toe.
Vind je innerlijke Socrates en blijf chatbots de baas.
Wat vind je van dit artikel?
Geef sterren om te laten zien wat je van het artikel vindt. 1 ster is slecht, 5 sterren is heel goed.
Meer over dit onderwerp
Wat is ChatGPT?
De chatbot ChatGPT is vaak in het nieuws. Ontdek wat het precies is en hoe u ermee aan de slag kunt.
Copilot, de AI-chatbot van Microsoft
Microsoft heeft een eigen AI-chatbot ingebouwd in de webbrowser Edge. Copilot geeft antwoord op al uw vragen, in lopende tekst.
Bekijk meer artikelen met de categorie:
Meld je aan voor de nieuwsbrief van SeniorWeb
Elke week duidelijke uitleg en leuke tips over de digitale wereld. Gratis en zomaar in de mailbox.