Intelligenza artificiale generativa e cybersecurity

Intelligenza artificiale generativa e cybersecurity: quali rischi nel 2024

L’avvento dell’intelligenza artificiale generativa (IAG) nel panorama della sicurezza informatica rappresenta una doppia sfida: da un lato, questo strumento offre infatti strumenti avanzati per la difesa delle attività online, ma dall’altro, si configura anche come una minaccia crescente, quando utilizzata malevolmente da attori cybercriminali. Attraverso sofisticate tattiche di ingegneria sociale e strumenti basati sulla generazione di contenuti mediante IA, il 2024 vedrà, secondo gli esperti, un aumento significativo degli attacchi basati sull’intelligenza artificiale, mettendo a rischio la privacy, la sicurezza e il funzionamento di servizi essenziali. Cosa bisogna dunque attendersi e quali sono le misure da adottare per ridurre i rischi?

I molteplici attacchi cyber via AI

Il rapporto “Voice of SecOps” di Deep Instinct evidenzia un aumento dell’85% negli attacchi informatici attribuiti all’uso dell’intelligenza artificiale generativa. Le principali preoccupazioni riguardano in particolare la privacy, la difficoltà nella rilevazione degli attacchi di phishing e l’incremento in termini di volume e velocità degli stessi.

L’IA può infatti automatizzare l’identificazione delle minacce, non a caso molti fornitori di servizi digitali, come PokerStars, una delle piattaforme più famose tra quelle che consentono di giocare al poker online connettendosi ai tavoli virtuali da PC e da mobile, si servono proprio dell’IA sia per garantire un gioco imparziale e personalizzare le esperienze individuali che per tutelare i dati sensibili degli utenti, ma allo stesso tempo possono rivelarsi un’arma nelle mani degli hacker, che possono utilizzarla per individuare vulnerabilità e orchestrare attacchi mirati. Il fenomeno dei deepfake, utilizzato per aumentare la credibilità di comunicazioni fraudolente, è solo un esempio dell’applicazione dell’IA nel contesto cybercriminale, ma i rischi possono essere diversi.

READ  Intel conferma che il codice sorgente di Alder Lake-uefi trapelato è reale

I principali rischi legati all’uso dell’IA nella cybersecurity

L’intelligenza artificiale generativa è ormai uno strumento di fondamentale importanza in tante attività umane, da quelle professionali al già citato mondo dei giochi e dell’intrattenimento, tuttavia trattandosi di una tecnologia dalle grandissime potenzialità, gli stessi hacker possono servirsene per raggiungere i propri scopi.

Per esempio, una delle tecniche più diffuse per rubare dati sensibili, ossia il phishing, può essere notevolmente migliorata e resa più efficace proprio attraverso l’IA, utilizzata in questo caso per creare contenuti testuali, vocali e video che sembrano autentici, facilitando proprio attacchi di phishing e ingegneria sociale. La correzione automatica di errori grammaticali e ortografici riduce la rilevabilità di tali attacchi, fino a oggi resi riconoscibili proprio dalla presenza di questi strafalcioni.

Gli hacker possono poi cercare di manipolare i dati di addestramento o modificare i parametri del modello AI per influenzarne le decisioni, puntando dunque a generare interferenze nel comportamento del sistema e alla creazione di contenuti dannosi, oppure possono interrogare i modelli di IA per ottenere informazioni sensibili presenti nel dataset di addestramento.

mojahid-mottakin-1Na806ZwUPg-unsplash

SOURCE

Come mitigare i rischi legati all’uso delle IA

La crescente minaccia derivante dall’uso dell’IA in ambito cybersecurity può essere ovviamente fronteggiata servendosi di soluzioni adatte e lavorando costantemente sullo sviluppo di sistemi in grado di riconoscere e fermare gli attacchi. È necessario, in particolare, adottare un approccio olistico e proattivo che parta innanzitutto dall’esecuzione di controlli periodici sui sistemi di intelligenza artificiale utilizzati, in modo da individuare e correggere ogni possibile vulnerabilità.

In secondo luogo, bisognerà associare all’intelligenza artificiale investimenti in crittografia e tecnologie di backup avanzate, fondamentali per proteggere i dati di addestramento dell’IA da modifiche e intromissioni. Attenzione anche alla condivisione delle informazioni riservate e agli aggiornamenti di sicurezza dei software, in modo tale da ridurre il rischio di sfruttamento e attacchi malware, infine non si può dimenticare l’importanza di formare adeguatamente non solo l’IA stessa, così da renderla maggiormente in grado di respingere gli attacchi, ma anche il personale, che attraverso precise pratiche di gestione del rischio può riconoscere i problemi e intervenire tempestivamente.

READ  Agli scimpanzé piace mettersi in mostra, proprio come gli umani

Ovviamente, fondamentale sarà anche l’apporto delle istituzioni con lo sviluppo di legislazioni e normative specifiche, volte a regolare l’uso dell’intelligenza artificiale in ambito cybersecurity, un passaggio decisivo che evidenzia l’importanza dell’impegno congiunto da parte della comunità internazionale, delle aziende e di tutti i soggetti pubblici e privati per sviluppare strategie e soluzioni efficaci.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *