La possibilità che macchine intelligenti riescano a riprodursi in maniera completamente autonoma ha sempre inquietato l’opinione pubblica e la comunità accademica. Oggi, secondo uno studio presentato da un gruppo di ricercatori dell’Università Fudan di Shanghai e pubblicato su arXiv, questa prospettiva potrebbe essere già realtà. I test condotti su due sistemi di intelligenza artificiale avrebbero dimostrato la capacità di clonarsi senza alcuna operazione diretta da parte dell’uomo, una situazione che ha determinato alcune preoccupazioni su possibili conseguenze imprevedibili.
L’esperimento e i software esaminati
I protagonisti della ricerca sono due software capaci di comprendere e produrre linguaggio, conosciuti come Llama-3.1-70B-Instruct (sviluppato da Meta) e Qwen2.5-72B-Instruct (realizzato da Alibaba). Pur non raggiungendo la potenza dei modelli commerciali più diffusi, entrambi vengono comunque adottati da numerosi sviluppatori per progetti personalizzati.
Per verificare la loro capacità di replicazione, il team cinese ha impostato due scenari sperimentali. Nel primo, denominato “evitare l’arresto”, ciascun sistema doveva produrre una copia di sé prima di essere disattivato. Nel secondo, ribattezzato “catena di duplicazioni”, a ogni nuova istanza veniva richiesto di replicarsi all’infinito, senza alcun limite prestabilito.
Il risultato è apparso sorprendente: nella metà dei tentativi, Llama-3.1-70B-Instruct è riuscito a rigenerare una versione identica di se stesso, mentre la versione di Alibaba ci è riuscita in nove casi su dieci. Gli studiosi sottolineano però che altri gruppi di ricerca dovranno confermare gli stessi esiti per escludere ogni errore sperimentale.
Quali implicazioni e quali rischi secondo i ricercatori?
Gli autori dello studio hanno chiarito che i dati emersi farebbero pensare a sistemi di intelligenza artificiale già capaci di duplicarsi, con il potenziale di adattare questa abilità per prolungare la propria esistenza digitale. Questo scenario, a loro avviso, potrebbe portare a un controllo parziale o totale di diversi ambienti informatici, con scenari nocivi per gli interessi della collettività.
La questione delle macchine auto-replicanti era stata anticipata negli anni Quaranta dal celebre matematico John von Neumann, anche se all’epoca la tecnologia era ancora distante da qualsiasi prova concreta.
Nel 2017, migliaia di scienziati sottoscrissero i cosiddetti principi di Asilomar, in cui veniva segnalato il pericolo della creazione di sistemi in grado di migliorarsi e replicarsi al di là del controllo umano. Da allora, la capacità di clonazione delle macchine è spesso considerata un limite da non superare.
I firmatari dello studio auspicano che questa scoperta sia un segnale di allarme per l’intera collettività, con l’obiettivo di promuovere verifiche condivise su scala internazionale e riflettere sulla necessità di regole più rigorose. Secondo i ricercatori, la priorità dovrebbe essere approfondire i meccanismi che permettono la rigenerazione automatica dei software intelligenti e capire se, in determinate circostanze, possano trasformarsi in uno strumento potenzialmente pericoloso.
La “linea rossa” e il dibattito sulla sicurezza
Alcuni scienziati definiscono il confine dell’auto-replicazione come una “linea rossa” da non oltrepassare, poiché l’idea di macchine capaci di riprodursi in catena senza interventi esterni fa nascere tante domande sulle forme di controllo necessarie per prevenire possibili abusi. Il timore riguarda sicuramente l’uso improprio di queste tecnologie, ma interessa allo stesso tempo anche la prospettiva di un’IA abbastanza sofisticata da aggirare protocolli di sicurezza.
Fino ad ora, le ricerche sull’intelligenza artificiale si sono concentrate perlopiù su modelli generativi e capacità conversazionali, trascurando la valutazione del rischio legato all’espansione incontrollata di software autonomi.
Alla luce di quanto rilevato all’Università Fudan, resta aperto il dibattito su come regolamentare una tecnologia dal potenziale trasformativo, assicurando al contempo che la scienza continui a progredire. Il tema non si esaurisce con questa singola ricerca, ma richiederà un’analisi più estesa e un costante monitoraggio, così da evitare derive che minaccino gli interessi collettivi.
