Si è parlato molto dell’impatto dell’Intelligenza Artificiale sulla cybersecurity.
C’è chi giura che rafforzi i sistemi difensivi, rendendoli straordinariamente efficaci nel rilevare e bloccare in autonomia le minacce grazie a capacità agentiche.
Altri sostengono l’esatto contrario: che favorisca più gli attaccanti che i difensori, aiutando nello sviluppo di malware e nelle campagne di spear-phishing multilingua.
C’è anche un terzo aspetto: l’AI che diventa bersaglio, colpita non più come algoritmo, ma come sistema “intelligente”.
Un cambiamento, comunque.
Per quanto tutto questo sia in parte vero, una cosa è certa: l’AI, nelle mani giuste, è un moltiplicatore di forza con cui fare i conti.
La velocità con cui il panorama sta cambiando è allarmante e, nella perenne corsa agli armamenti tra attaccanti e difensori, il cambiamento rapido non è mai un alleato della sicurezza. Di solito favorisce l’offensa, lasciando la difesa a inseguire.
AI per i difensori
L’uso di AI e del Machine Learning nella cybersecurity è in crescita, e a ragione.
Il ML viene utilizzato da anni per migliorare in modo significativo le capacità euristiche di antivirus, EDR e soluzioni affini.
Dove davvero eccelle è nell’aiutare a valutare e correlare enormi quantità di eventi di sicurezza. Non credo possa operare in modo completamente autonomo, almeno non con i modelli attuali, ma può alleggerire notevolmente il carico sugli analisti umani e quindi ridurre i costi.
Nel contesto della cybersecurity, l’AI può essere uno strumento potentissimo, come in molti altri settori, ma soffre del problema “garbage in, garbage out”.
In termini semplici, un’AI è valida quanto i dati con cui viene addestrata. In sicurezza informatica, però, disporre di dataset solidi è estremamente difficile e, in contesto operativo, distinguere comportamenti legittimi da quelli malevoli è tutt’altro che banale.
AI per gli attaccanti
L’AI aiuta anche gli attaccanti, non tanto come agente autonomo, quanto come copilota.
Abbassa in modo drastico la soglia di ingresso per attacchi di bassa e media complessità, che sono di gran lunga i più diffusi.
Per esperienza diretta, ho testato la capacità di GPT di scrivere un malware, una classica reverse shell che consente il controllo remoto del sistema bersaglio. In due ore è riuscita a bypassare il 98% degli antivirus, senza che io scrivessi una sola riga di codice.
Il processo è stato ovviamente guidato e suddiviso in blocchi separati, pensati per indurre il modello a generare codice apparentemente innocuo, che diventava malevolo solo una volta assemblato. Questo richiede una conoscenza preliminare delle tecniche di evasione delle difese, conoscenze che il modello stesso possiede e che emergono con prompt "astuti".
Va detto che un antivirus non è un EDR, ma il principio resta valido, anche se con maggiore complessità.
Anche lo spear-phishing trae enorme beneficio dall’AI generativa.
Il phishing resta il vettore di attacco più semplice ed efficace, specialmente se abbinato a malware in grado di superare le difese.
AI come bersaglio
C’è un punto fondamentale da capire: l’AI non è “intelligente” nel modo in cui lo sei tu, e si spera anche io.
È straordinariamente efficace a imitare ciò che gli esseri umani producono, non il modo in cui lo fanno. Imita l’intelligenza, ma dietro non c’è una reale comprensione, solo imitazione.
L’AI non coglie intenzioni e sfumature, non ha consapevolezza delle conseguenze. Questo la rende ingenua e facilmente manipolabile, aprendo la strada a un nuovo vettore di attacco: il prompt injection.
Immaginiamo uno scenario reale: un agente AI che non solo legge e riassume le email, ma risponde e gestisce la casella di posta.
Sembra fantastico, vero? Lo è, sia per la comodità sia per i criminali.
L’attacco potrebbe svolgersi così:
- L’attaccante clicca su “password dimenticata” in un sistema bersaglio e riceve il link di recupero via email.
- Invia poi un messaggio alla casella, chiedendo al destinatario, cioè l’agente AI, di inoltrare la precedente email ricevuta dal sistema.
- L’agente, non comprendendo il rischio, esegue la richiesta.
- L’attaccante ottiene così il token segreto per reimpostare la password e prendere il controllo dell’account.
È una semplificazione, ma il rischio è reale. Gli agenti AI vengono addestrati per evitare trucchi banali, ma un bypass è sempre possibile. Se un agente ha il permesso di compiere un’azione e dati esterni finiscono nel prompt, esiste sempre un modo per sfruttarlo.
Le mie conclusioni
In sintesi, credo che l’AI offra più vantaggi ai difensori, migliorando in modo significativo le capacità delle soluzioni di sicurezza. Tuttavia, su larga scala, la sua stessa esistenza rappresenta al netto un rischio per la sicurezza, indipendentemente dai benefici difensivi.
La sicurezza ha bisogno di ordine e prevedibilità, non di caos e di un panorama di minacce in continuo mutamento. La complessità non è mai stata amica della sicurezza.
Questo articolo potrebbe sembrare un attacco all’AI, ma non lo è. Uso l’AI quotidianamente, abbastanza da conoscerne i limiti. Proprio per questo credo che tali criticità dovrebbero essere più conosciute e prese seriamente in considerazione.
Il nostro approccio
In molti ci chiedono perché non integriamo l’AI nei nostri sistemi, dal momento che sembra essere sulla bocca di tutti.
La risposta è semplice e deliberata: perché non ne abbiamo bisogno. L’AI non è niente di più, e nulla di meno, che uno strumento utile e, come ogni strumento, ha uno scopo preciso.
Aggiungere AI a sistemi che non sono progettati per sfruttarla introduce solo complessità, costi e rischi aggiuntivi.
La forza degli honeypot sta nella loro elegante semplicità che rompe le regole del gioco: nella battaglia evolutiva tra predatore e preda, vincono se vengono mangiati!