AI-bouwer Anthropic weigerde om het Amerikaanse ministerie van Defensie zijn tools te laten gebruiken voor massasurveillance en autonome wapensystemen. Anthropic werd daarop openlijk door de Amerikaanse president Trump en zijn minister van Defensie Hegseth bij het grofvuil gezet. Concurrent OpenAI, de maker van ChatGPT, heeft minder scrupules en heeft nu de deal met het Pentagon gekregen.
Het gebruik van ChatGPT is wijdverbreid, ook in de zorg. En dan gaat het niet alleen over de site, die als grote vraagbaak wordt gebruikt. Het taalmodel (large language model) wordt ook in de zorg toegepast om bijvoorbeeld AI-assistenten te trainen. Taalmodellen zijn bij uitstek gemaakt voor interactie met mensen.
Er zijn al langer bezwaren tegen OpenAI en ChatGPT: over privacy, het gebruik van andermans data zonder toestemming en het zogenoemde ‘hallucineren’, de onzin die eruit komt als het model het antwoord even niet weet. Daar komt nu dus bij dat maker OpenAI zijn technologie zonder beperkingen ter beschikking stelt van het ministerie van Defensie van de VS. Een defensieapparaat dat al aan meerdere controversiële acties is begonnen onder Trump, waarvan de aanval op Iran de meest recente is.
De zorg hoeft niet afhankelijk te zijn van ChatGPT en OpenAI. Er zijn alternatieven. Een daarvan is het Nederlandse taalmodel GPT-NL van onderzoeksinstituut TNO. Het is klaar voor gebruik. Dit najaar moet het breed uitgerold worden, al is de toepasbaarheid in de zorg nog niet duidelijk.
Wat vind u, moet de zorg na de zoveelste controverse stoppen met ChatGPT? Of moet de zorg ervoor zorgen dat ze zelf wel ethisch gebruik maakt van een tool die al helemaal ingeburgerd is? Reageert u op de poll hieronder:
Deze poll is gesloten. Lees hier de uitslag
Dit is een poll
Zorgvisie houdt regelmatig een poll om de meningen van bestuurders, managers en zorgprofessionals te vragen. Op basis hiervan verschijnt een artikel op de website. Het is met nadruk een peiling en dus zeker geen wetenschappelijke bijdrage.

