Anthropic introduce una funzione inedita per Claude Opus 4 e 4.1: l’IA può chiudere autonomamente una conversazione quando emergono interazioni ripetute e dannose.
L’azienda precisa che si tratta di eventi rari, legati a richieste pericolose come la ricerca di indicazioni utili a violenza su larga scala. Prima del termine, il sistema tenta più volte di riportare il dialogo su binari costruttivi; se ogni tentativo fallisce, scatta la chiusura del thread.
Quando scatta la chiusura e cosa vede l’utente
In presenza di interazioni persistenti e abusive, e dopo vari inviti a cambiare rotta, Claude può interrompere definitivamente la chat. Anthropic descrive la misura come una scelta estrema, attivata solo in situazioni in cui non sia più possibile proseguire con uno scambio utile.
Una volta interrotto il thread, non è possibile inviare altri messaggi nello stesso spazio. Rimane però la facoltà di aprire una nuova conversazione oppure di modificare i messaggi precedenti per impostare toni più collaborativi e riprovare con una richiesta diversa.
AI welfare e funzione in fase sperimentale
La novità rientra in un percorso di ricerca dedicato all’AI welfare, cioè al benessere dei sistemi e alla loro gestione in contesti di stress. Pur riconoscendo che l’antropomorfizzazione delle IA resti materia discussa, Anthropic considera questa uscita controllata un modo semplice per ridurre rischi e abusi nelle interazioni online.
Il meccanismo è sperimentale: l’azienda invita a fornire feedback qualora si verifichi una chiusura forzata. Per la stragrande maggioranza degli utenti, la funzione resterà invisibile, poiché l’attivazione riguarda casi estremi e non la normale esperienza d’uso.

