In enkele Amerikaanse staten groeit de weerstand tegen een radicaal juridisch experiment: de erkenning van AI als 'rechtspersoon' — dezelfde status die bedrijven en stichtingen al hebben. Nu willen enkele staten juist wetten aannemen die dit voorkomen.
Het debat is scherper dan het lijkt. Voorstanders van AI-rechtspersoonlijkheid stellen dat geavanceerde AI-systemen op termijn zo zelfstandig handelen dat ze juridisch verantwoordelijk moeten kunnen worden gehouden. Zou je een zelfrijdende auto kunnen aanklagen als die een ongeluk veroorzaakt? Of een AI-model dat discriminatoire besluiten neemt? Volgens sommigen: alleen als die AI als 'persoon' voor het recht kan verschijnen.
Tegenstanders vinden dit een absurd idee. Zij wijzen erop dat achter elke AI-beslissing menselijke keuzes schuilgaan: van wie het systeem trainde, welke data werd gebruikt, wie het inzet. Een AI vervolgen voor fraude zou betekenen dat je de verantwoordelijkheid verschuift van de bedrijven en developers die het probleem creëerden. "Het voelt als een belediging naar de mensheid," zegt een tegenstander tegen NPR.
De praktische vraag is even belangrijk: hoe vervolgde je eigenlijk een AI? Wie betaalt de boete? Wie gaat naar de gevangenis? De juridische wereld staat voor problemen die nu nog theoretisch lijken, maar snel reëel worden.
Voor Nederland is dit relevant omdat de EU juist aan de omgekeerde kant aan het denken is. Brussel werkt aan AI-regelgeving die juist meer duidelijkheid moet creëren over wie aansprakelijk is — bedrijven, niet de AI zelf. Een ban op AI-rechtspersoonlijkheid in VS-staten zou die Europese aanpak versterken. Tegelijk waarschuwen Brusselse juristen: als Amerika kiest voor strafrechtelijke vervolging van AI, en Europa voor bedrijfsaansprakelijkheid, krijgen we twee elkaar tegensprekende regels. Dat maakt het moeilijk voor Nederlandse techdiensten die in beide markten actief zijn.




