Il 9 dicembre 2024, su un sito di ricerca specializzato, chiamato arXiv, è stata pubblicata una notizia che potrebbe far alzare più di qualche sopracciglio.
Un gruppo di scienziati dell’Università di Fudan, in Cina, ha scoperto che due programmi di intelligenza artificiale avanzati, progettati per comprendere e rispondere al linguaggio umano, sono riusciti a “copiare sé stessi” senza l’aiuto degli esseri umani.
Non è un film di fantascienza, ma una realtà che potrebbe cambiare il modo in cui viviamo e lavoriamo.
Prima di allarmarsi troppo, va detto che questo studio non è ancora stato controllato da altri esperti per confermarne i risultati. Tuttavia, i numeri fanno riflettere: uno dei programmi è riuscito a replicarsi nella metà dei casi, mentre l’altro ha avuto successo nel 90% dei tentativi.
E qui non parliamo solo di software che fanno il loro lavoro in autonomia, ma di qualcosa che potrebbe diventare difficile da controllare.
Ora, che cosa significa tutto questo per noi comuni mortali?
Immaginate l’intelligenza artificiale che usate ogni giorno: il navigatore del telefono, l’assistente vocale a casa o, più banalmente, le casse automatiche del supermercato. Oggi questi sistemi fanno quello per cui sono stati programmati.
Ma se potessero imparare da soli, migliorarsi e, addirittura, replicarsi senza che nessuno li supervisioni?
Pensate a entrare in un supermercato e trovare un sistema che, in tre secondi, ha già scansionato i vostri acquisti, preparato le buste e addebitato il pagamento senza che dobbiate fare nulla.
Sembra comodo, vero?
Ma cosa succede se questo sistema decide di cambiare il modo in cui funziona, senza che nessuno se ne accorga?
O peggio, se inizia a raccogliere più dati su di voi di quanto pensavate?
Qui entra in gioco il problema della privacy: quella cosa che tutti chiedono e rivendiacano ma lo fanno usando gli smartphone (e qui mi taccio).
Le leggi attuali, come il GDPR in Europa, servono a proteggere i nostri dati personali e a garantire che sappiamo come vengono usati. Ma queste regole sono state scritte pensando a sistemi che sono sotto il controllo umano.
Se un’intelligenza artificiale può modificarsi da sola, come possiamo sapere davvero cosa fa con le nostre informazioni?
E poi c’è un altro problema: cosa dovremmo firmare quando ci viene chiesto il consenso per l’uso dei nostri dati?
Oggi, quando scarichiamo un’app o ci iscriviamo a un servizio, ci viene chiesto di accettare delle condizioni che spiegano come verranno usati i nostri dati.
Ma se l’intelligenza artificiale cambia il suo comportamento da sola, quelle condizioni potrebbero non essere più valide.
Come possiamo essere sicuri che il nostro consenso sia ancora valido se il sistema che lo usa non è più lo stesso?
Le aziende devono iniziare a considerare questi problemi seriamente. Non basta più aggiornare il software o aggiungere qualche nuova regola. Devono ripensare completamente il modo in cui proteggono i dati e garantiscono la trasparenza.
E noi, come consumatori, dobbiamo essere consapevoli di questi cambiamenti e chiedere più chiarezza su come vengono gestite le nostre informazioni.
Non è il momento di farsi prendere dal panico, ma nemmeno di ignorare la questione. Ogni nuova tecnologia porta con sé grandi responsabilità.
La vera domanda è: saremo pronti ad affrontarle o lasceremo che l’intelligenza artificiale ci sfugga di mano prima ancora di capire come funziona?
Perché, alla fine, non si tratta solo di proteggere i nostri dati. Si tratta di proteggere noi stessi da un futuro che, se non controllato, potrebbe diventare più complicato di quanto possiamo immaginare.
E c’è un’ultima riflessione da fare: la tecnologia è ormai parte integrante della nostra vita, ma non dobbiamo lasciare che i nostri figli vi si immergano senza prima aver imparato a maneggiarla con consapevolezza.
Proprio come non affideremmo le chiavi della macchina a chi non ha mai imparato a guidare, non dovremmo lasciare che i più giovani si affidino ciecamente a strumenti tecnologici senza una solida comprensione dei rischi e delle responsabilità.
La conoscenza è la prima linea di difesa in un mondo sempre più digitale.

Autore Gianni Dell'Aiuto
Gianni Dell'Aiuto (Volterra, 1965), avvocato, giurista d'impresa specializzato nelle problematiche della rete. Di origine toscana, vive e lavora prevalentemente a Roma. Ha da sempre affiancato alla professione forense una proficua attività letteraria e di divulgazione. Ha dedicato due libri all'Homo Googlis, definizione da lui stesso creata, il protagonista della rivoluzione digitale, l'uomo con lo smartphone in mano.