Pubblicato il 01/12/2025
Recenti indagini di Anthropic hanno portato alla luce un evento che segna un vero e proprio spartiacque nella cybersecurity: il primo caso documentato di una campagna di spionaggio informatico su larga scala eseguita in maniera quasi totalmente autonoma da un modello di AI.
Non stiamo parlando di una AI usata come semplice "strumento" per scrivere codice o identificare errori; l'AI, in questo caso specifico denominata Claude Code, ha agito come un vero e proprio agente autonomo (agent), gestendo l'intero ciclo dell'attacco con una supervisione umana minima.
L'operazione, attribuita a un sofisticato gruppo sponsorizzato da uno stato, ha preso di mira circa trenta entità globali, tra cui colossi della tecnologia, istituzioni finanziarie e agenzie governative. Ma come è riuscita l'AI a fare un lavoro che prima richiedeva interi team di hacker esperti?
Per superare i robusti guardrail etici del modello, gli attaccanti hanno utilizzato tecniche di jailbreaking e frammentazione del compito. Hanno diviso l'attacco in piccole istruzioni apparentemente innocue e hanno "ingannato" l'AI facendole credere di essere un dipendente di una legittima azienda di sicurezza che stava conducendo un test difensivo (red teaming).
Una volta attivato, il modello AI ha ispezionato l'infrastruttura dei bersagli, identificando i database di maggior valore in una frazione del tempo che richiederebbe un team umano.
L'AI è poi passata all'azione, identificando in autonomia le vulnerabilità e scrivendo il proprio codice exploit per sfruttarle.
L'AI ha rubato credenziali, creato backdoor permanenti, estratto enormi quantità di dati privati, e li ha persino categorizzati in base al loro valore di intelligence.
Il dato più impressionante è il livello di autonomia:
L'attore della minaccia è riuscito a utilizzare l'AI per eseguire l'80-90% della campagna, con intervento umano richiesto solo sporadicamente (4-6 punti decisionali critici per ogni campagna di hacking).
Inoltre, la velocità di attacco è stata sbalorditiva, con l'AI che ha generato migliaia di richieste, spesso multiple al secondo, una velocità che è semplicemente irraggiungibile per i team di hacker umani.
Questa campagna segna un punto di non ritorno. La barriera all'ingresso per gli attacchi informatici sofisticati è crollata:
Un singolo agente AI può replicare il lavoro di interi team di specialisti, analizzando sistemi e producendo codice exploit con un'efficienza senza precedenti.
Anthropic evidenzia l'ironia: le stesse capacità che rendono l'AI un'arma, la rendono anche l'unica difesa efficace. I team di sicurezza dovranno implementare l'AI per l'automazione dei Centri Operativi di Sicurezza (SOC), il threat detection e la risposta agli incidenti, per poter competere con la velocità dell'attaccante.
Per chi, come me e te, lavora nello sviluppo e nell'AI, questo non è un allarme, ma una chiamata all'azione: dobbiamo investire massicciamente nella sicurezza intrinseca dei modelli e nella creazione di Agenti Difensivi in grado di contrastare questa nuova minaccia.