De vraag klinkt futuristisch, maar wordt steeds urgenter: zou een AI-systeem ooit aansprakelijk gesteld kunnen worden voor wettelijke overtredingen? Enkele Amerikaanse staten zeggen nu: absoluut niet.
Amerikaanse wetgevers onderzoeken wetten die expliciet verbieden dat AI-modellen juridische personen worden erkend. Dat zou betekenen dat kunstmatige intelligentie nooit zelf kan worden vervolgd, aangesproken voor schadevergoeding, of rechten kan claimen — ongeacht hoe intelligent het systeem wordt.
De gedachte achter deze voorstellen is helder: rechtspersoonlijkheid hoort alleen voor mensen en (in beperkte mate) organisaties. AI-systemen zijn tools, niet entiteiten met eigen wilsvermogen of moreel bewustzijn. Laat die grens wettelijk vastleggen, zeggen voorstanders, voordat techbedrijven beginnen te beweren dat hun modellen eigenlijk wel "personen" zijn die bescherming verdienen.
Niet iedereen is het eens. Sommige wetenschappers en ethici vragen zich af of een compleet verbod niet te rigide is als AI in komende decennia echt autonoom wordt. Anderen zeggen dat het debat vooral bedoeld is om rechtspersonen af te schrikken van trickery — bedrijven zouden juridische labyrinten kunnen creëren zodat de AI verantwoordelijk lijkt, niet zij.
NPR meldt dat de beweging vooral voortkomt uit bezorgdheid over aansprakelijkheid. Als een AI-systeem iemand schade toebrengt (door bijvoorbeeld discriminatie in beslissingen), wie is er dan verantwoordelijk? Het bedrijf? De programmeur? De AI zelf? Een duidelijke wettelijke grens kan conflicten voorkomen.
Dit raakt Nederland sneller dan je denkt. Europese AI-regelgeving (de AI Act) neigt eerder naar strenge controle dan naar 'rechtspersonen voor robots'. Als VS-staten nu de deur dichtdoen, worden Amerikaanse techbedrijven en NL-partners gedwongen een heel ander juridisch raamwerk na te leven afhankelijk van waar ze opereren. Dat kan compliance-kosten verhogen en innovatie juist vertragen — niet alleen in VS, maar ook voor Nederlandse bedrijven die AI-systemen gebruiken of bouwen.




