Mentre gran parte dell’industria tecnologica accelera sullo sviluppo dell’intelligenza artificiale, riducendo o chiudendo interi reparti dedicati alla riflessione etica, la voce di Papa Francesco ha continuato a ribadire l’importanza di mettere l’uomo al centro.
Il Pontefice, negli ultimi mesi, era intervenuto in diverse sedi internazionali per richiamare governi, imprese e comunità scientifica a una responsabilità condivisa: senza custodire valori quali trasparenza, equità e tutela della privacy, l’innovazione rischia di tramutarsi in uno strumento che rafforza disuguaglianze e distorsioni informative.
Un richiamo etico che non si affievolisce
Al vertice di Davos, lo scorso gennaio, il Papa ha invitato i leader presenti a una “valutazione approfondita” degli effetti sociali delle tecnologie intelligenti, sottolineando la necessità di monitorarne costantemente l’evoluzione per contenere pericoli e pregiudizi.
Poche settimane più tardi, in un messaggio al forum di Lima, ha messo in guardia sulla facilità con cui deepfake e fake news possono alterare la percezione collettiva: secondo il suo ragionamento, il fatto di non produrre direttamente quei contenuti illegittimi potrebbe indurre a sentirsi estranei alla responsabilità, ma la macchina – ha ricordato – obbedisce sempre a un comando umano e non decide al di fuori delle istruzioni ricevute.
Il Pontefice affronta queste questioni da anni. Già nel 2020, con la “Rome Call for AI Ethics”, promossa dalla Pontificia Accademia per la Vita insieme a aziende come Microsoft, IBM e Cisco, ha definito sei principi guida per l’algoretica: trasparenza, partecipazione, responsabilità, imparzialità, affidabilità e protezione di sicurezza e dati personali.
Un filo conduttore che è tornato anche nel discorso pronunciato al G7 tenuto in Puglia: il Papa ha affermato che privare gli individui della facoltà di decidere per se stessi significherebbe consegnarli a un futuro privo di speranza, dominato da automatismi incontrollati.
Algoretica e sintonia con il percorso europeo
La linea della Santa Sede dialoga con quella dell’Unione Europea, impegnata a definire un quadro normativo attraverso l’AI Act. Secondo padre Paolo Benanti, francescano e docente di Etica delle Tecnologie alla Pontificia Università Gregoriana, il Papa ha considerato l’AI una forma di potere capace di ridisegnare i rapporti sociali: come la scelta del tracciato ferroviario determina chi potrà viaggiare e chi resterà a terra, così gli algoritmi influenzano chi ottiene un vantaggio e chi viene penalizzato.
Da qui nasce la proposta di stabilire confini precisi tra le decisioni che devono restare prerogativa umana e quelle delegabili alle macchine, evitando che l’automazione amplifichi i divari economici e culturali.
Questa visione, spiega Benanti, si avvicina per affinità culturale e per un costante scambio diplomatico, alle posizioni maturate dalle istituzioni comunitarie: entrambe puntano alla salvaguardia della dignità personale e a una regolamentazione che prevenga l’uso distorto delle tecnologie.
Anche se nel dibattito europeo emergono spinte a rendere le normative più snelle per attrarre capitali, l’impianto di fondo resta orientato a regole ferme.
In un’epoca in cui talune figure pubbliche invocano l’automazione come rimedio ai “costi” dell’amministrazione o come leva di produttività illimitata, il Pontefice ricordava che la tecnologia è una scelta politica prima ancora che tecnica.
Dirigere la potenza computazionale verso un bene condiviso diventa pertanto il banco di prova di una modernità realmente inclusiva. Senza questo orientamento, l’AI rischia di trasformarsi da promessa di progresso in strumento di esclusione.
Con un richiamo costante alla responsabilità collettiva, Papa Francesco ha proposto dunque un’idea di innovazione che non sacrifica la persona sull’altare dell’efficienza, ma fa dell’etica il motore di un progresso autenticamente umano.