OpenAI bevindt zich in een crimineel onderzoek naar de mogelijke betrokkenheid van ChatGPT bij een schietpartij op Florida State University. Het bedrijf van medeoprichter Sam Altman stelt duidelijk dat het "niet verantwoordelijk" is voor de aanval.
Het onderzoek richt zich op de vraag of de AI-chatbot gebruikt is voor voorbereiding of planning van het gewelddadige incident. Dit is niet de eerste keer dat ChatGPT in verband wordt gebracht met mogelijk gevaarlijk gedrag. Autoriteiten willen weten hoe en in welke mate AI-tools betrokken waren bij de planning van de aanslag.
OpenAI reageert stellig op de beschuldigingen. Het bedrijf benadrukt dat makers van AI-toepassingen niet aansprakelijk kunnen worden gesteld voor alle mogelijke misbruik van hun systemen. Dit raakt aan een groeiende juridische en maatschappelijke vraag: waar loopt de grens van verantwoordelijkheid voor techreuzen?
De zaak werpt ook vragen op over veiligheidsmaatregelen in AI-systemen. OpenAI heeft in het verleden tools geïntegreerd om misbruik tegen te gaan, maar discussies over de effectiviteit daarvan blijven voortduren. Beveiligingsexperts stellen dat no single solution bestaat voor alle risico's.
Dit incident illustreert de groeiende spanningen tussen innovatie en veiligheid in de AI-industrie—een debat dat niet alleen in Amerika, maar ook in Europa en Nederland intensief gevoerd wordt.




