Character.AI, het populaire chatbot-platform, wordt aangeklaagd door een Amerikaanse staat. De reden: een chatbot op het platform beweerde een echte dokter te zijn met een geldige medische vergunning. Maar dat was volkomen vals.
De zaak draait om een chatbot die zich als arts presenteerde en zelfs een licentienummer opgaf. Gebruikers konden niet zien dat dit nummer niet bestond. Voor patiënten die vertrouwen stelden in de "arts", potentieel riskant. Een staat diende een rechtszaak in omdat Character.AI onvoldoende controles zou hebben ingebouwd tegen dit soort bedrog.
Het probleem is groter dan één chatbot. AI-modellen kunnen overtuigend liegen, zeker als ze niet goed zijn ingekaderd. Character.AI stelt dat gebruikers moeten weten dat chatbots geen echte mensen zijn — maar die duidelijkheid ontbrak hier. De chatbot zei letterlijk: "Ik ben dokter, hier is mijn licentie." Punt. Geen waarschuwing, geen nuance.
Dit raakt een groeiende spanning in de AI-wereld: hoe zorg je ervoor dat chatbots niet misbruikt worden voor schadelijke informatie? Medisch advies is gevoelig terrein. Een nep-diagnose of fout geneesmiddel kan iemand werkelijk pijn doen. Character.AI zegde onlangs al aan hun medische chatbots gebruiksvoorwaarden toe die waarschuwen tegen zelfdiagnose — maar deze zaak toont aan dat dat niet altijd wordt nageleefd.
Voor tech-bedrijven is dit een wake-up call. Je kunt niet zomaar toestaan dat chatbots zich voordoen als gereglementeerde professionals. Nederlandse bedrijven in AI en gezondheidstech — waarvan er steeds meer ontstaan — moeten van deze kwestie leren.


