IA e Cybersecurity: quando l'intelligenza artificiale diventa un rischio

L’intelligenza artificiale e l’apprendimento automatico possono diventare armi, se gli hacker utilizzano la stessa logica e funzionalità utilizzate dalle organizzazioni legittime. L’uso malevolo dell’intelligenza artificiale (IA) e dell’apprendimento automatico (ML) è in fase embrionale, ma nel futuro potrebbe rappresentare un problema. Il rischio è evolutivo: l’IA può essere utilizzata per ergere massive difese; allo stesso tempo, però, può essere il mezzo per superare queste difese sovvertendo la logica. Vediamo insieme l’importanza dell’IA Security in questo articolo.

Cyber-criminali e IA

Era solo una questione di tempo prima che gli hacker iniziassero a sfruttare la flessibilità dell’IA per trovare punti deboli nel sistema. È un caso curioso che l’arma d’attacco sia allo stesso tempo un mezzo che le aziende implementano nelle loro strategie difensive. L’intento degli attacchi basati sull’intelligence rimane lo stesso dell’hacking generale. Potrebbero essere incursioni motivate politicamente, attacchi allo stato, attacchi alle imprese per esfiltrare proprietà intellettuale. O addirittura attacchi ai servizi finanziari per rubare fondi – l’elenco è infinito. IA e ML sono normalmente considerati un mezzo di protezione. Ma nelle mani di malintenzionati possono causare gravi danni.

Quando un buon software diventa cattivo?

I test di penetrazione automatizzati possono essere utilizzati dagli avversari per testare le organizzazioni prese di mira e trovare falle nelle difese in 20-30 secondi, invece che ore. I modelli di machine learning velocizzano il processo inserendo rapidamente i dati, analizzandoli e producendo risultati ottimizzati per la fase di attacco successiva.

Piattaforme come il Cloud Computing stanno aumentando il rischio che gli avversari diventino esperti nel maneggiare i set di strumenti di Intelligenza Artificiale. Se combinato con l’IA e il Machine Learning, il Cloud fornisce piattaforme di automazione per kit di exploit. Siamo a un passo dall’industrializzazione dell’intelligenza automatizzata. Molti di questi kit di exploit consentono un nuovo livello di automazione che rende gli aggressori più intelligenti, efficienti e pericolosi.

Iniezione di dati danneggiati

Come sottolineato dai ricercatori, gli hacker prima imparano i mezzi di difesa con Intelligenza Artificiale. Successivamente iniettano gli stessi algoritmi computazionali e modelli statistici utilizzati dalle imprese, riprodotti però con dati corrotti. In questo modo utilizzano l’apprendimento automatico per abbattere i modelli di difesa. Molti modelli di Machine Learning, in particolare Deep Learning, sono considerati scatole nere nel settore. Possono utilizzare oltre 100.000 input di funzionalità per prendere decisioni e rilevare i modelli di conoscenza per risolvere un problema, come il rilevamento di comportamenti anomali di exploit informatico in un’organizzazione o in una rete.

Avvelenamento dei dati

Quando un modello comunica un comportamento rischioso o anomalo, il software può spiegare il ragionamento matematico e come è arrivato a quella conclusione. Ciò è estremamente importante per rilevare se gli avversari hanno iniettato dati errati – o “avvelenati”. Questi dati possono trovarsi negli strumenti di sicurezza aziendali difensivi. Gli avversari possono creare un paradigma comportamentale di base avvelenando i dati del modello di Machile Leaning. In questo modo, attaccando dall’interno, non vengono subito notati.

Cosa riserva il futuro? IA e cybersecurity

La lotta contro le minacce di IA avversaria richiede ampie capacità predittive. In altre parole, l’unico modo per fermare l’IA “cattiva” è dotare la rete di una tecnologia altrettanto capace.

L’intelligenza artificiale di terza generazione sta affrontando la sfida. Attraverso l’uso di AI generativi intelligenti, si può prevedere e prevenire con precisione la maggior parte degli attacchi e rispondere immediatamente se un hacker ottiene l’accesso. Se gli strumenti di cyber-security basati sull’intelligenza artificiale continuano a svilupparsi e migliorare e vengono applicati correttamente insieme ai team di sicurezza umana, si può essere più al sicuro da attacchi informatici sempre più intelligenti e potenti.

0 Comments