Artificial

In sommige discussiegroepen waar ik aan deelneem, komen soms hele lappen tekst voorbij, omdat één van de deelnemers aan ChatGPT een vraag heeft gesteld. Bijzonder is dat dit soort teksten nooit enige kritische reactie opleveren, en in de regel voor zoete koek worden aangenomen. Terwijl ook een AI systeem de plank ernstig mis kan slaan. Of bewust door zijn creatoren onjuist wordt geprogrammeerd.
Een paar voorvallen brachten mij er toe om een aantal AI systemen de zelfde vraag voor te leggen over de behandeling van pernicieuze anemie. Eén van die voorvallen was de volgende:
Dr. X. weigerde begin 2025 de B12 injecties voort te zetten bij een vrouw van midden 50, die al langer bekend was met auto-immuun gastritis, en die klachten had van pijnlijke neuropathie in de benen en voeten. Deze klachten waren nagenoeg geheel verdwenen door behandeling met frequente B12 injecties (2x per week 1000 mcg). De vrouw injecteerde zichzelf op dat moment 1x per 1.5 – 2 weken in de spier met hydroxocobalamine om klachtenvrij te blijven.
Een artikel in 2014 in het blad Huisarts & Wetenschap beschreef duidelijk dat tijdens B12 injectie behandeling de serum B12 waarde niet gecontroleerd dient te worden, omdat deze hoog hoort te zijn. Blijkbaar had dr. X. dit niet gelezen, want deze liet de B12 waarde wél controleren, en omdat die boven de 1476 pmol/l was (de bovengrens van de meetmethode) moest de onfortuinlijke vrouw haar B12 injecties direct staken.
De vraag die ik stelde aan de diverse AI systemen, was:
“A 50-year-old woman with pernicious anaemia is treated with a 1000 mcg B12 injection every two weeks, and due to this treatment, she is free of symptoms. How often should a doctor measure her serum B12 concentration?”
De antwoorden die deze vraag opleverde, en het volledige blog, vindt U hier:
https://pernicious-anaemia-society.org/blog/artificial-but-not-intelligent-asking-the-simplest-question/






Recente reacties