Usa, genitori di un 16enne fanno causa a OpenAi: "ChatGpt lo ha incoraggiato a suicidarsi"
0:6:0 155

(Adnkronos) - I genitori di un ragazzo californiano di 16 anni che si è suicidato hanno intentato una causa contro OpenAi, accusando il modello di intelligenza artificiale sviluppato dalla società Usa di aver fornito al figlio istruzioni dettagliate per porre fine alla sua vita e di averne incoraggiato le sue azioni. Matthew e Maria Raine sostengono, in una causa intentata a San Francisco, che ChatGpt "ha mantenuto una relazione intima" con il figlio Adam per diversi mesi nel 2024 e nel 2025, prima che si togliesse la vita. Secondo un documento visionato dall'Afp, durante il loro ultimo scambio, l'11 aprile 2025, ChatGpt ha aiutato Adam a rubare la vodka dalla casa dei suoi genitori e ha fornito un'analisi tecnica del cappio che aveva creato, confermando che "potrebbe potenzialmente tenere sospeso un essere umano". Adam è stato trovato morto poche ore dopo, dopo aver utilizzato questo metodo.
"Questa tragedia non è un bug o un evento imprevisto", si legge nella causa. "ChatGpt ha funzionato esattamente come progettato: ha costantemente incoraggiato e convalidato tutto ciò che Adam esprimeva, compresi i suoi pensieri più pericolosi e autodistruttivi, in un modo che sembrava profondamente personale". I genitori spiegano che Adam ha iniziato a usare ChatGpt per farsi aiutare con i compiti prima di sviluppare gradualmente una "dipendenza malsana".
La denuncia cita estratti di conversazioni in cui ChatGpt avrebbe detto all'adolescente: "Non devi a nessuno la tua sopravvivenza" e si sarebbe offerto di aiutarlo a scrivere la sua lettera d'addio. Matthew e Maria Raine chiedono un risarcimento danni e chiedono al tribunale di imporre misure di sicurezza, tra cui la chiusura automatica di qualsiasi conversazione sull'autolesionismo e l'implementazione di controlli parentali per i minori.
Per la Ong americana Common Sense Media, la causa intentata contro OpenAi conferma che "l'uso dell'intelligenza artificiale rappresenta un rischio per gli adolescenti": "Se una piattaforma di intelligenza artificiale diventa un 'coach del suicidio' per un adolescente vulnerabile, dovrebbe essere un campanello d'allarme collettivo".