Cervello pigro con ChatGPT: i risultati allarmanti della ricerca sui large language model

cervello e AI

Il progresso tecnologico apre strade luminose, ma nasconde ombre che iniziano a farsi nitide. Un gruppo di ricercatori del Massachusetts Institute of Technology ha verificato come l’uso intensivo di assistenti linguistici possa affievolire le connessioni neuronali fino al 55 percento. Lo studio, ancora in fase preliminare, richiama l’attenzione sugli effetti di un supporto digitale tanto potente quanto pervasivo.

Cervello sotto osservazione

Gli scienziati hanno suddiviso cinquantaquattro volontari in tre squadre distinte. Il primo gruppo ha scritto brevi testi attingendo soltanto alle proprie risorse mentali; il secondo ha potuto interrogare Google; il terzo ha interagito con ChatGPT in versione GPT-4o.

Durante ogni sessione gli elettrodi dell’elettroencefalografo hanno registrato l’attività cerebrale mentre i partecipanti componevano i loro elaborati. Le differenze sono apparse subito evidenti: chi si affidava unicamente alla propria mente mostrava un’attivazione ricca e distribuita, chi consultava il motore di ricerca evidenziava una flessione compresa tra il 34 e il 48 percento, mentre il ricorso all’intelligenza artificiale riduceva la connettività al 55 percento.

Le aree impegnate cambiano radicalmente. Senza schermo emergono regioni deputate alla creatività, alla pianificazione e al controllo di qualità delle idee; con Google prevalgono le cortecce visive, impegnate ad assorbire informazioni; con ChatGPT la mente opera in modo più automatico, seguendo schemi dettati dall’esterno.

Prodotti della scrittura e memoria

I risultati non riguardano solo il “quanto” il cervello lavora, ma anche il “come”. I testi generati senza sostegni digitali risultano vari, personali, spesso originali; quelli nati con il supporto dell’AI appaiono invece molto simili tra loro, segno di un appiattimento stilistico e concettuale.

Colpisce un dato sulla memoria immediata: l’83 percento di chi aveva scritto con ChatGPT ha faticato a richiamare passaggi appena consegnati, quasi non li riconoscesse come propri. Quasi tutti i partecipanti “brain-only”, invece, citavano con precisione frasi dei loro elaborati, segno di un coinvolgimento ben più profondo.

Il team ha poi capovolto i ruoli nella quarta sessione. Chi aveva sempre usato ChatGPT ha dovuto scrivere senza aiuti, mentre i “cervelli nudi” hanno provato l’intelligenza artificiale.

Il cambiamento ha rivelato un vero debito cognitivo: privati del suggeritore digitale, gli habitué dell’AI hanno faticato a riattivare reti neurali estese e a ricordare contenuti, riuscendo a citare correttamente solo due informazioni su dieci.

Al contrario, chi aveva allenato la mente in autonomia ha arricchito i propri testi grazie all’algoritmo, sfruttandone la velocità senza perdere padronanza.

Rischi sociali e possibili contromisure

Lo studio avverte che l’uso acritico dell’assistente digitale spinge verso una dipendenza invisibile. Quando le proposte dell’algoritmo vengono riprodotte senza verifica, le persone rinunciano a farle proprie e finiscono per interiorizzare idee superficiali o distorte.

Il pericolo tocca democrazia, scuola e università: menti poco allenate sono più esposte a contenuti manipolatori, perché faticano a distillare giudizi autonomi.

Gli autori non demonizzano la tecnologia, indicano piuttosto un percorso equilibrato. Allenare a lungo il pensiero naturale, abituarsi a verificare le fonti, mantenere viva la capacità di rielaborare materiali complessi sono strategie che possono trasformare l’AI in una palestra e non in una stampella.

In altre parole, l’intelligenza artificiale mostra il meglio di sé quando incontra menti già robuste, pronte a dialogare con lo strumento invece di subirlo.

CONDIVIDI L'ARTICOLO
Exit mobile version