TikTok, nuove regole per l’AI: gli utenti scelgono quanta intelligenza artificiale vedere

TikTok

TikTok è stato il primo tra i grandi social a provare a mettere ordine nel flusso di contenuti generati da Intelligenza Artificiale. Nel 2023 sono arrivate le prime etichette sui video del Feed, pensate per permettere agli utenti di capire a colpo d’occhio quando un contenuto non è frutto di creatività umana. L’anno successivo la piattaforma ha fatto un passo in più adottando il protocollo C2PA, che inserisce nelle immagini, nei video e negli audio prodotti con i suoi strumenti un metadato dedicato alla tracciabilità dell’origine.

Si tratta di interventi che funzionano come una diga in mezzo a una piena: l’ondata di “AI Slop” ha travolto anche TikTok e i numeri lo dimostrano con chiarezza. Oltre 1,3 miliardi di video sono oggi etichettati come creati con sistemi generativi e il conteggio continua a salire. Per questo la piattaforma sta spostando sempre più responsabilità verso chi la utilizza, offrendo strumenti diretti di controllo del Feed e chiedendo collaborazione ai creator.

AIGC nel Feed: l’esposizione ai contenuti sintetici diventa regolabile

Durante il Trust and Safety Forum europeo organizzato a Dublino, TikTok ha svelato una novità in test nella sezione “Gestisci argomenti”. Accanto alle classiche categorie tematiche – come danza, sport o cucina – compare ora una sezione specifica dedicata all’AIGC, l’Artificial Intelligence Generated Content.

Grazie a questa nuova opzione, gli utenti possono calibrare la presenza di contenuti AI nel Feed “Per Te”. Chi preferisce un’esperienza più vicina alla creatività tradizionale può ridurre la quantità di video generati da sistemi automatici, mentre chi è curioso di vedere come lavora l’AI può decidere di aumentarne la visibilità. La personalizzazione non riguarda più soltanto i temi trattati, ma anche la natura stessa dei contenuti, che siano umani o creati da modelli generativi.

Questo passaggio sposta il baricentro verso la scelta consapevole. In un contesto in cui l’AI entra in ogni fase della produzione video, TikTok prova a fornire un parametro aggiuntivo con cui filtrare ciò che arriva sullo schermo, lasciando agli utenti la possibilità di regolare l’“intensità” dell’AI nel proprio Feed quotidiano.

Creator sotto i riflettori, watermark invisibili e alfabetizzazione all’AI

La strategia della piattaforma non si limita alle impostazioni personalizzabili del Feed. TikTok insiste anche sulle responsabilità dei creator, invitandoli a dichiarare esplicitamente quando utilizzano strumenti basati sull’AI. In parallelo viene introdotto un watermark invisibile inserito direttamente nei file generati tramite gli strumenti interni della piattaforma.

Questa marcatura, non percepibile dall’utente finale, è pensata come risorsa tecnica per TikTok: servirà a costruire, nel tempo, strumenti sempre più raffinati per individuare e catalogare i contenuti generati artificialmente. L’obiettivo dichiarato è riuscire a riconoscere l’origine dei media in modo affidabile, anche quando le etichette visibili o le dichiarazioni dei creator non bastano.

Accanto agli strumenti tecnici, la piattaforma punta anche sull’educazione del pubblico. Con l’AI Literacy Fund, un fondo da 2 milioni di dollari, TikTok sostiene organizzazioni e creator che lavorano sulla consapevolezza dei contenuti digitali, aiutando le persone a orientarsi tra realtà e creazioni sintetiche. Le realtà coinvolte sono più di venti, a conferma del tentativo di costruire una rete diffusa di progetti dedicati all’alfabetizzazione sull’Intelligenza Artificiale.

Il tutto avviene mentre si affacciano sulla scena nuove piattaforme AI-first, nate direttamente attorno ai contenuti generati artificialmente, come Sora di OpenAI o Vibes di Meta. In questo scenario, TikTok continua a difendere il proprio modello centrato sui creator, dichiarando di voler preservare un ecosistema dove il contributo umano resti al centro, pur integrando sempre di più strumenti generativi nei processi interni.

Moderazione, estremismo e AI generativa come infrastruttura nascosta

La presenza massiccia dei contenuti non riguarda solo la creatività: ogni giorno su TikTok vengono caricati circa 100 milioni di video, e la moderazione diventa un tema strutturale. Mentre Meta punta su un modello collaborativo fondato sulle Community Notes, TikTok accelera sull’uso dell’automazione per controllare ciò che circola sulla piattaforma.

Tecniche come computer vision, analisi semantica e modelli audio permettono già oggi di intercettare una quota elevata di violazioni prima che i video arrivino agli utenti. L’azienda dichiara che il 99% dei contenuti rimossi viene individuato prima delle segnalazioni della community e che l’86% viene identificato direttamente dai sistemi automatici. Nel primo trimestre dell’anno sono stati cancellati 400 milioni di video, segno di un’infrastruttura di controllo che lavora in modo continuo e perlopiù invisibile.

I moderatori umani restano presenti, ma i nuovi modelli interni di AI generativa stanno assumendo un ruolo centrale. Vengono addestrati per comprendere e applicare autonomamente le linee guida, con l’obiettivo di alleggerire il lavoro dei dipendenti. Secondo i primi test, questi sistemi riescono a ridurre del 76% il volume di contenuti che deve essere analizzato manualmente, con effetti diretti anche sul carico psicologico di chi opera in prima linea.

Sui commenti, invece, i grandi modelli linguistici permettono di abbassare del 34% la percentuale di errori di moderazione. Nonostante i risultati, TikTok procede per gradi, optando per rollout progressivi e periodi di test più lunghi prima dei rilasci su larga scala.

Il capitolo più delicato resta quello dell’estremismo online. Come ricordato da Jody Korn del Violence Prevention Network, nessuna piattaforma può affrontare da sola un fenomeno di questo tipo. TikTok, però, ha un peso rilevante. Nel 2025 ha smantellato 17 network, rimosso oltre 920 account e bloccato 6,5 milioni di video collegati a contenuti di matrice estremista, continuando poi con analisi retroattive per evitare che le stesse reti si riorganizzino.

La Generative AI cambia il contesto di questa lotta. Secondo Korn, i modelli sono in grado di costruire messaggi estremamente efficaci senza violare in modo esplicito le linee guida, aggirando i filtri tradizionali. Il risultato è un terreno in movimento, che si trasforma più rapidamente della capacità umana e delle regole di adattarsi.

In questo scenario, TikTok sta cercando di usare l’Intelligenza Artificiale come infrastruttura nascosta: uno strato tecnico che non si vede nel Feed “Per Te”, ma che incide in profondità su cosa arriva e cosa viene fermato prima ancora di comparire sullo schermo.

CONDIVIDI L'ARTICOLO