De procureur-generaal van Florida is een strafrechtelijk onderzoek gestart naar de vermeende betrokkenheid van ChatGPT bij een schietpartij op de Florida State University. Dit markeert een belangrijke stap in de groeiende juridische vragen rond AI-systemen en hun verantwoordelijkheid bij gewelddadige incidenten.
Het onderzoek richt zich op de vraag of het chatbot-systeem van OpenAI op enige manier heeft bijgedragen aan de planning of uitvoering van de aanslag. Deze stap volgt op toenemende bezorgdheid onder beleidsmakers en veiligheidsexperts over hoe geavanceerde AI-modellen mogelijk kunnen worden misbruikt voor schadelijke doeleinden. De Floridaanse autoriteiten willen bepalen of ChatGPT bijvoorbeeld is gebruikt voor het verzamelen van informatie, planning of andere aspecten van het incident.
De zaak roept fundamentele vragen op over de verantwoordelijkheden van AI-bedrijven. Hoe moeten makers van chatbots omgaan met potentieel schadelijk gebruik van hun systemen? OpenAI heeft veiligheidsmaatregelen ingebouwd in ChatGPT, maar geen systeem is volledig ondoordringbaar. Dit onderzoek zal waarschijnlijk richting geven aan toekomstige regulering van generatieve AI.
De zaak illustreert de spanning tussen innovatie en veiligheid. Terwijl AI-bedrijven stellen dat zij niet aansprakelijk kunnen zijn voor elk misbruik van hun systemen, argumenteren critici dat zij meer verantwoordelijkheid moeten nemen voor misbruik op groot schaal. De uitkomst van Flordia's onderzoek kan invloed hebben op hoe andere staten omgaan met AI-gerelateerde incidenten.
Bron: NPR Technology




