OpenAI heeft zich verdedigd tegen beschuldigingen dat het bedrijf medeverantwoordelijk zou zijn voor een schietpartij op Florida State University. Het bedrijf, medeopgericht door Sam Altman, stelt stellig "niet verantwoordelijk" te zijn voor de aanval.
De exacte details van de zaak zijn nog niet volledig duidelijk, maar aanwijzingen suggereren dat de schutter mogelijk ChatGPT heeft gebruikt in verband met de voorbereiding van de aanval. Dit heeft geleid tot een crimineel onderzoek naar de mogelijke rol van OpenAI's AI-chatbot. Onderzoeksbronnen hebben echter niet bevestigd in welke mate het systeem werkelijk bij de planning betrokken zou zijn geweest.
OpenAI benadrukt dat AI-tools zoals ChatGPT gebruikersrichtlijnen hebben die het maken van plannen voor geweld verbieden. Het bedrijf stelt dat het niet verantwoordelijk kan worden gehouden voor misbruik van zijn technologie, net zoals telefooniebedrijven niet aansprakelijk zijn voor criminele gesprekken op hun netwerk. Deze vergelijking vormt al jaren het centrale argument van techreuzen tegen regelgeving.
De zaak werpt echter opnieuw vragen op over de verantwoordelijkheid van AI-bedrijven voor de gevolgen van hun producten. Regelgevers in de VS en Europa worstelen met hoe te handelen met krachtige AI-systemen die voor verschillende doeleinden kunnen worden gebruikt. Voorstanders van strengere regels wijzen op incidenten als deze om hun standpunt kracht bij te zetten.
De uitkomst van dit onderzoek kan belangrijke implicaties hebben voor hoe AI-bedrijven in de toekomst worden gereguleerd.




