Een aantal Amerikaanse staten onderzoekt wetten die AI-systemen expliciet uitsluiten van juridische rechtspersoonlijkheid. Het gaat om een vraag die tot voor kort vooral in science-fiction thuishoorde: zouden kunstmatig intelligente systemen ooit strafrechtelijk aansprakelijk kunnen worden gesteld?
De discussie is niet zuiver hypothetisch meer. Naarmate AI-modellen geavanceerder worden, ontstaan praktische vragen: wie is verantwoordelijk als een AI-systeem schade veroorzaakt? Het bedrijf dat het trainde? De eigenaar? Of het algoritme zelf? Sommigen betogen dat het moment nadert waarop rechtspersoonlijkheid voor AI in de wet moet worden vastgesteld — anderen zien dat als een bedreiging voor menselijke waardigheid.
De voorgestelde wetten zijn voorzorg. Ze zouden voorkomen dat bedrijven later kunnen claimen dat hun AI-systemen als juridische personen moeten worden behandeld, vergelijkbaar met hoe bedrijven zelf in sommige jurisdicties rechtspersonen zijn. Voorstanders zeggen dat dit duidelijkheid schept: AI blijft een tool, geen subject van recht. Tegenstanders waarschuwen dat te rigide wetgeving innovatie kan remmen.
De timing is opvallend: dit speelt zich af terwijl de VS nog steeds worstelt met basale AI-regelgeving. Veel staten hebben geen overkoepelende AI-wetten, laat staan bepalingen over rechtspersoonlijkheid. Dit voorstel wijst op een groeiende behoefte aan juridische helderheid — voordat technologie en rechtszaken de overheid dwingen tot reactief beleid.
Hoe dit afloopt, is open. Maar het toont aan dat AI niet langer alleen een technisch vraagstuk is. Het raakt het hart van wat "rechtspersoon" betekent.




