Capita sempre più spesso di ritrovarsi a fissare una foto arrivata in chat o apparsa sui social e chiedersi se sia davvero frutto di una macchina fotografica oppure di un modello generativo. Fino a pochi mesi fa, l’istinto spingeva a cercare errori grossolani: dita di troppo, mani deformate, volti sullo sfondo poco definiti. Con i nuovi sistemi di intelligenza artificiale, però, questi indizi stanno sparendo e il dubbio resta, mentre gli strumenti “casalinghi” di verifica perdono efficacia.
In questo scenario si inserisce la scelta di Google: invece di obbligare l’utente a usare servizi esterni, il gruppo integra un sistema di controllo direttamente nell’app Gemini, sfruttando la stessa tecnologia alla base del recente modello Nano Banana Pro basato su Gemini 3 pensato per la generazione di immagini.
Dalla ricerca di errori al watermark invisibile
L’ascesa delle immagini sintetiche ad altissima qualità ha prodotto un cambiamento netto. Il vecchio metodo basato sull’osservazione di dettagli anatomici incongruenti funziona sempre meno, mentre cresce il rischio di scambiare per vere foto prodotte da un algoritmo.
Google, che genera una quota rilevante di questi contenuti attraverso i propri modelli, ha riconosciuto di avere un ruolo chiave nel fornire strumenti di controllo affidabili. L’obiettivo è aiutare le persone a capire quando stanno guardando un contenuto artificiale, senza dover esportare file o affidarsi a siti terzi.
La risposta arriva con SynthID, una tecnologia di filigrana digitale integrata nei sistemi di generazione dell’azienda. Il principio è semplice: ogni immagine creata dagli strumenti di Google viene arricchita da segnali impercettibili all’occhio umano, ma facilmente leggibili dal software, che ne certificano l’origine.
Dal debutto nel 2023, questa soluzione ha già “marchiato” oltre 20 miliardi di contenuti generati dall’IA. Con il nuovo aggiornamento, tutte queste immagini possono essere riconosciute direttamente dall’interfaccia di Gemini, che diventa così un punto di riferimento per la verifica.
SynthID dentro Gemini: come avviene il controllo
Il funzionamento è stato studiato per risultare immediato. Chi ha un dubbio sull’origine di una foto può caricarla dentro l’app Gemini e porre una domanda esplicita, per esempio “Questa immagine è stata creata dall’IA di Google?” oppure “È generata dall’IA?”.
A quel punto il sistema analizza il file alla ricerca della firma SynthID. Se la filigrana è presente e riconducibile ai generatori di Google, l’app segnala chiaramente che si tratta di un contenuto artificiale. Non si limita a una risposta secca: sfruttando le proprie capacità di ragionamento, Gemini può fornire anche un contesto, spiegando che l’immagine è stata creata o modificata tramite gli strumenti dell’azienda.
Tutto avviene in pochi passaggi, senza configurazioni complesse e senza necessità di competenze tecniche. La verifica viene così integrata nel flusso d’uso quotidiano dell’assistente, rendendo più semplice capire se si ha a che fare con una foto reale o con un risultato dell’IA di Google.
I limiti attuali del rilevatore e cosa aspettarsi
Per quanto rappresenti un passo importante verso una maggiore trasparenza digitale, questo meccanismo non è universale. Il rilevatore è in grado di stabilire soltanto se un’immagine è stata generata o modificata con i modelli di Google che adottano SynthID.
Strumenti di altre aziende – come Midjourney, DALL-E di OpenAI o Stable Diffusion – restano fuori dal raggio d’azione della funzione. Se una foto proviene da questi sistemi, o più in generale non contiene la firma digitale di Google, Gemini non può certificarne la natura artificiale, neppure quando l’alterazione è evidente agli occhi di chi osserva.
Questo significa che la verifica tramite SynthID rappresenta un aiuto concreto, ma non sostituisce del tutto il senso critico di chi guarda e condivide contenuti. Rimane essenziale continuare a valutare il contesto, la fonte e l’uso che viene fatto delle immagini.
Il rilevatore è già attivo e disponibile per la prova all’interno dell’app Gemini: un primo tassello verso un ecosistema in cui le immagini generate dall’IA possano essere riconosciute con maggiore chiarezza, almeno quando nascono dalla tecnologia messa a disposizione da Google.

