OpenAI-oprichter Sam Altman en zijn bedrijf komen onder druk te staan na een crimineel onderzoek naar de mogelijke betrokkenheid van ChatGPT bij een schietpartij op Florida State University. Het bedrijf stelt stellig dat het "niet verantwoordelijk" is voor de aanslag.
De exacte aard van de connectie tussen ChatGPT en het incident is nog niet volledig duidelijk, maar de onderzoeken richten zich op de vraag of de AI-chatbot op enigerlei wijze is gebruikt in relatie tot de planning of uitvoering van de aanval. Dit markeert een belangrijk moment in de groeiende discussie over veiligheidsrisico's van generatieve AI-systemen en hun potentiële misbruik.
Dit is niet het eerste geval waarin autoriteiten de rol van AI-tools in gewelddadige incidenten onderzoeken. Het onderzoek zal waarschijnlijk gevolgen hebben voor hoe AI-bedrijven hun systemen moeten beschermen tegen mogelijk misbruik. OpenAI benadrukt dat het de verantwoordelijkheid van gebruikers is zich aan de wet te houden, niet van de leverancier van de technologie.
De zaak roept vragen op over de veiligheidsmaatregelen van grote taalmodellen en of bedrijven meer verplicht moeten worden om misbruik tegen te gaan. Regelgevers in de VS en elders bestuderen momenteel hoe AI-risico's beter kunnen worden beheerst.
**Bron:** BBC US & Canada




