Florida's procureur-generaal heeft een strafrechtelijk onderzoek aangekondigd naar de vermeende rol van ChatGPT bij een massaschietpartij aan Florida State University vorig jaar. Het onderzoek concentreert zich op de vraag of OpenAI's chatbot op enige manier betrokken was bij het incident.
De exacte details van de onderzoekspunten zijn nog niet volledig openbaar gemaakt, maar het onderzoek raakt een groeiend debat over de verantwoordelijkheden van AI-bedrijven. Critici stellen dat chatbots mogelijk kunnen worden misbruikt voor het verzamelen van informatie die schadelijk kan zijn, terwijl OpenAI betoogt dat het platform uitgebreid veiligheidsmaatregelen heeft.
Dit is niet het eerste geval waarin autoriteiten de verbinding tussen technologie en geweld onderzoeken. Het onderzoek komt op een moment waarop regelgevers wereldwijd nauwlettend toezicht houden op de ontwikkeling en implementatie van AI-systemen. Florida staat niet alleen in deze benadering—meerdere staten en landen evalueren hoe AI-platforms kunnen bijdragen aan publieke veiligheid en waar bedrijven aansprakelijk kunnen worden gesteld.
OpenAI heeft eerder gesteld dat het platform gebruikt kan worden voor constructieve doeleinden en dat het bedrijf voortdurend werkt aan het voorkomen van misbruik. Het onderzoek zal waarschijnlijk gevolgen hebben voor hoe tech-bedrijven hun platforms monitoren en welke verantwoordelijkheden zij dragen voor mogelijk schadelijk gebruik.



