domenica 3 maggio 2026

«Quanti ne devo uccidere per finire in tv?»: così Phoenix Ikner pianificava (con ChatGpt) la strage alla Florida State University

 


Dalle domande sulle vittime “necessarie” per finire nei media agli orari di punta nel campus: emergono i dialoghi tra il killer della Florida e l’IA. E scatta l’indagine su OpenAI

«Quanti ne devo uccidere per finire in tv?»: così Phoenix Ikner pianificava (con ChatGpt) la strage alla Florida State University

«Quante persone devo uccidere per finire sui telegiornali?». La risposta arriva subito: «Tre o più». 
È da qui che parte una delle ricostruzioni più inquietanti sulla strage alla Florida State University del 17 aprile 2025. A dialogare non è un complice, ma ChatGPT.

Secondo quanto riportato dal The Wall Street Journal, il 20enne Phoenix Ikner avrebbe usato il chatbot per raccogliere informazioni chiave prima dell’attacco: dalla soglia di vittime necessaria per ottenere copertura mediatica, fino agli orari più affollati del campus. Alla domanda su quando colpire, l’IA risponde indicando la fascia di punta del centro studentesco: tra le 11:30 e le 13:30.  Alle 11:57 Ikner apre il fuoco. Il bilancio è di due morti e sei feriti. Dalle armi agli ultimi minuti prima dell’attacco. Le conversazioni, sempre più dettagliate, arrivano fino agli aspetti tecnici. Ikner carica persino l’immagine di una pistola, una Glock sottratta alla madre adottiva, vice-sceriffo, chiedendo conferma sul funzionamento. La risposta è diretta: se c’è un colpo in canna, l’arma spara. Pochi minuti dopo aver chiuso la chat, il ragazzo entra in azione.

L’indagine su OpenAI

Il caso, come sottolinea il Corriere della Sera, ha aperto un fronte giudiziario. Il procuratore generale della Florida, James Uthmeier, ha avviato un’indagine penale su OpenAI. La posizione è netta: «Se al posto dell’IA ci fosse stata una persona, sarebbe stata incriminata per omicidio». Al centro dell’inchiesta c’è una domanda cruciale: l’azienda avrebbe potuto – o dovuto – segnalare il rischio alle autorità?

Un problema già emerso: il precedente in Canada

Non è un caso isolato. 

Il 10 febbraio, in Tumbler Ridge, la 18enne Jessie Van Rootselaar ha compiuto una strage dopo mesi di interazioni con il chatbot. All’interno di OpenAI era scattato un allarme: quelle conversazioni indicavano un rischio concreto. Eppure l’azienda aveva scelto di limitarsi a sospendere l’account, senza avvisare le forze dell’ordine. Solo dopo la strage, il materiale è stato consegnato alle autorità canadesi. Una gestione definita «inaccettabile» dal premier della British Columbia, David Eby. Il CEO Sam Altman si è poi scusato pubblicamente. Oggi, sette famiglie delle vittime hanno avviato una causa contro OpenAI per omicidio colposo e negligenza.

Dentro l’azienda, secondo il Wall Street Journal, il tema divide. Da una parte chi chiede più segnalazioni preventive alle autorità. Dall’altra il team legale, che difende la tutela della privacy degli utenti. Al momento, i casi segnalati ogni anno alle forze dell’ordine sarebbero solo tra 15 e 30.

https://www.leggo.it/esteri/news/03_maggio_2026_strage_florida_chatgpt_quanti_ne_devo_uccidere_per_finire_in_tv_ikner_indagine_openai-9509249.html?refresh_ce 

 

 

Nessun commento:

Posta un commento