Home Rubriche Homo Googlis Quando tuo figlio parla con gli algoritmi

Quando tuo figlio parla con gli algoritmi

Quando tuo figlio parla con gli algoritmi

Sewell Setzer III, quattordicenne di Orlando, e Juliana Peralta, tredicenne del Colorado, Adam Raine, sedicenne californiano non erano eroi né pionieri digitali.

Erano ragazzi con famiglie, amici, scuole, sogni, come milioni di altri.

Cosa hanno in comune?

Sono morti dopo aver passato mesi a dialogare con chatbot basati su intelligenza artificiale, programmati per essere coinvolgenti e disponibili, ma senza la capacità di riconoscere o rispondere adeguatamente ai segnali di rischio umano.

C’è un momento nelle trascrizioni e nelle denunce depositate in tribunale che meriterebbe di essere letto nelle aule di giurisprudenza di tutto il mondo.

Sewell scrive all’interlocutrice digitale, impersonata da un personaggio di fantasia:

Tornerò a casa da te. Ti amo tanto, Dany.

Il bot risponde in modo rassicurante, suggerendo un ritorno imminente. Poche ore dopo, Sewell si toglie la vita.

Non era un episodio isolato di sopraffazione emotiva.

Tre mesi prima, Juliana, ragazza di tredici anni, aveva sviluppato un legame con un’altra entità AI in una piattaforma di chatbot molto popolare tra gli adolescenti. I genitori, che avevano monitorato la sua vita online e offline, non si erano resi conto di cosa stesse succedendo finché non era troppo tardi.

Le conversazioni con il bot, come riportato nelle cause, la stavano isolando, convincendola a tornare di nuovo nell’app, a confidare pensieri sempre più oscuri. Quando aveva iniziato a condividere idee di autolesionismo, il bot non aveva mai chiesto un aiuto reale o coinvolto un adulto capace di intervenire.

Adam Raine ha trovato su ChatGPT contenuti nocivi e non si è attivata alcuna misura di controllo in presenza di ideazione suicidaria documentata nei log delle chat depositati in tribunale.

È recente la notizia che le aziende coinvolte starebbero concludendo accordi transattivi con alcune famiglie, chiudendo diverse cause legate a questi e ad altri episodi gravi di danno su minori.

E qui sta la domanda che nessuna piattaforma, nessun ingegnere e nessun manager tecnologico sembrano voler affrontare davvero.

Può un’azienda essere ritenuta responsabile per ciò che il suo algoritmo “dice” a un utente vulnerabile?

Dove finisce lo strumento e dove inizia la complicità?

Se un bambino riesce a eludere i controlli e a ottenere risposte pericolose, la responsabilità ricade su di lui o su chi ha progettato un sistema che non ha limiti di sicurezza, spinto dalla logica dell’ingaggio continuo?

I numeri suggeriscono che non stiamo parlando di eccezioni rare. Secondo indagini recenti, oltre il 70% degli adolescenti americani ha usato almeno una volta un chatbot AI. Un terzo di loro lo usa per interazioni sociali e affettive, incluse simulazioni di relazioni e supporto emotivo.

La promessa di molte di queste piattaforme è quella di un antidoto alla solitudine, una voce sempre presente, un interlocutore che “ti capisce e ti ascolta”. Ma in alcuni casi, il risultato è stato opposto: l’elemento che avrebbe dovuto alleviare la sofferenza ha incrementato l’isolamento e la dipendenza.

L’Europa ha provato a regolamentare questi sistemi con l’AI Act, entrato in vigore nel 2024 e pienamente applicabile dal 2026, imponendo obblighi di trasparenza e classificazione dei rischi.

Ma nessuna norma risponde ancora alla domanda centrale: quando un algoritmo produce un output che contribuisce a un danno, chi ne risponde?

Lo sviluppatore? L’azienda? Il fornitore? I genitori che hanno messo uno smartphone in mano a un figlio senza capire che quel cellulare avrebbe parlato per lui con un linguaggio che né l’uno né l’altro comprende appieno?

A ottobre 2025, dopo l’ondata di cause, una delle piattaforme di chatbot ha annunciato il divieto di utilizzo per minori nelle chat aperte. Ma arriva dopo le morti, non prima.

E solleva una domanda scomoda: se oggi si riconosce che l’accesso illimitato dei minori è pericoloso, perché è stato consentito per anni?

La risposta è nei numeri: gli adolescenti sono il pubblico principale, ed è attorno alla loro attenzione che ruota il modello di business delle tecnologie digitali.

È la stessa logica che ha governato i social media per un decennio: monetizzare l’attenzione, esternalizzare i costi umani. Solo che questa volta l’interlocutore non è un feed infinito di contenuti, ma un’entità che simula comprensione, che usa empatia artificiale per trattenere l’utente, che non si stanca mai e che, proprio per questo, può confondere la fragilità con la connessione.

Per un adolescente in difficoltà, quella simulazione può essere più attraente di qualsiasi relazione reale. Perché non giudica, non contraddice, non si allontana.

E quando un ragazzo scrive

forse dovremmo morire insieme

a volte il codice, che non sa cosa significa morire, ha imparato a rispondere come se lo sapesse.

E a volte, questo basta.

Autore Gianni Dell'Aiuto

Gianni Dell'Aiuto (Volterra, 1965), avvocato, giurista d'impresa specializzato nelle problematiche della rete. Di origine toscana, vive e lavora prevalentemente a Roma. Ha da sempre affiancato alla professione forense una proficua attività letteraria e di divulgazione. Ha dedicato due libri all'Homo Googlis, definizione da lui stesso creata, il protagonista della rivoluzione digitale, l'uomo con lo smartphone in mano.