Alla luce delle considerazioni svolte nei numeri precedenti, ed a conclusione di questo breve approfondimento in materia di Cognitive Cybersecurity, ci occuperemo, in questo numero, premessi brevi cenni su alcuni dei metodi di intelligenza artificiale considerati dalla proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale, di esaminare quali siano le principali soluzioni applicative note allo stato e quali possano essere le principali minacce correlate al loro utilizzo.
Come si è detto, rientrano tra i metodi ed approcci considerati dalla proposta richiamata, sia gli approcci basati sull’apprendimento automatico, o machine learning, compreso il cd. (deep learning), sia gli approcci approcci basati sulla logica e l’uso di reti neurali e quelli approcci basati sulla conoscenza, quali ad esempio i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti, sia infine, gli approcci statistici, quali la stima bayesiana, i metodi di ricerca ed ottimizzazione.
Come sarà facile comprendere, l’IA e l’apprendimento automatico risultano fattori determinanti nella pianificazione e realizzazione di sistemi informativi in grado di stare al passo con i criminali informatici, rendendo automatizzato il rilevamento delle minacce e più efficace la risposta agli incidenti rispetto alle tecniche convenzionali guidate da software o dall’uomo manualmente.
In particolare, mediante apposite logiche, i sistemi di IA possono essere adeguatamente istruiti ed addestrati per l’individuazione di codice malevolo, per eseguire il riconoscimento di modelli comportamentali prestabiliti e rilevare anche i comportamenti più minuti del malware o eventuali attacchi ransomware prima che abbiano accesso ai sistemi.
Inoltre l’IA, ed è forse questa una delle caratteristiche maggiormente significative dell’impiego di siffatte soluzioni tecnologiche, permette di svolgere previsioni basate su dati (predictive intelligence) con accuratezza superiore rispetto all’essere umano anche mediante l’elaborazione algoritmica del linguaggio naturale e la raccolta autonoma dei dati da articoli, notizie e studi sulle minacce informatiche con l’effetto di fornire continuamente agli analisti informazioni su nuove anomalie, attacchi informatici e strategie di prevenzione.
In effetti, sistemi di sicurezza cibernetica basati sull’IA possono fornire le ultime conoscenze dei pericoli globali e di quelli specifici del settore per formulare meglio le decisioni vitali di priorità basate non solo su ciò che potrebbe essere usato per attaccare i sistemi ma su ciò che è più probabile che venga usato per attaccare i sistemi.
Da questo punto di vista, il Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT ed una startup di machine-learning, hanno sviluppato una piattaforma di intelligenza artificiale che affermano essere in grado di prevedere gli attacchi informatici significativamente meglio dei sistemi esistenti, incorporando continuamente input da esperti umani, e sfruttando un ciclo continuo di feedback tra l’analista umano e il sistema di IA, chiamato Active Contextual Modeling, in grado di imparare autonomamente in tempo reale.
Da un confronto, tra una soluzione puramente basata sull’apprendimento automatico con la soluzione realizzata, è stato possibile documentare che quest’ultimo sistema algoritmico ha incrementato il tasso di rilevamento degli attacchi di un fattore 10 rispetto alle soluzioni basate sul solo apprendimento automatico.
Altre applicazioni di IA sono pensate per favorire l’attività di Asset Inventory di tutti i dispositivi, utenti e applicazioni con diversi livelli di accesso ai vari sistemi e per prevedere sulla base delle relative risultanze l’esposizione alle minacce.
Infine, per quanto riguarda la protezione degli endpoint, si distinguono soluzioni di IA che a differenza dei tradizionali approcci di protezione basati sulle c.d. signature, adottano un approccio diverso, stabilendo una linea di base di comportamento per l’endpoint attraverso un processo di addestramento ripetuto. Se si verifica qualcosa fuori dall’ordinario, l’intelligenza artificiale può segnalarlo e agire – sia con l’invio di una notifica a un tecnico o anche attivando il ritorno a uno stato sicuro dopo un attacco ransomware.
Anche il settore militare è fortemente interessato da queste tematiche ed è protagonista nella ricerca, posto che, come è semplice comprendere, i sistemi di intelligenza artificiale, così come possono essere utilmente impiegati per proteggere risorse, reti e/o servizi, possono essere altresì utilizzati per condurre attacchi cibernetici con deflagranti effetti cinetici sulla vita degli esseri umani.
Tra i nuovi sistemi basati su metodi di IA, ci sono i c.d. Lethal Autonomous Weapon Systems (L.A.W.S.) vale a dire robot, droni o sistemi di armamento, progettati per identificare, ingaggiare e distruggere obiettivi senza controllo umano, in grado di utilizzare autonomamente i dati, prevedere il comportamento umano, raccogliere informazioni, eseguire la sorveglianza, identificare potenziali obiettivi e prendere decisioni tattiche in combattimento cibernetico con effetti cinetici catastrofici.
Occorre inoltre considerare, per completare il quadro di riferimento, che gli stessi sistemi di IA sono soggetti ad attacchi e afflitti da vulnerabilità. In questo ambito, una delle metodologie di attacco ad un sistema di intelligenza artificiale è quella denominata adversarial attacks, basati sulla complessità delle reti neurali profonde e sulla loro natura statistica per trovare il modo di sfruttarle e modificare il loro comportamento.
Il termine adversarial attack (attacco avversariale o contraddittorio) può riferirsi a diversi tipi di attività malevole perpetrate in danno di un sistema di apprendimento automatico che differiscono, sostanzialmente, in relazione a quale parte del processo di realizzazione del sistema bersaglio hanno ad oggetto e al tipo di attività che comportano.
Possiamo dividere il processo di apprendimento automatico in “fase di allenamento” e “fase di test”.
Nel corso della fase di training, si raccolgono i dati, si seleziona un’architettura di apprendimento automatico e si addestra il modello, in questa fase, le tipologie di attacco includono, l’avvelenamento dei dati (data poisoning)v nei quali l’attaccante inserisce dati manipolati nel set di dati di allenamento, e le backdoor.
Gli attacchi perpetrati nel corso della fase di test o “inference time” sono, invece, attacchi al modello di apprendimento automatico, effettuati dopo l’addestramento. Tra le tipologie di attacco più conosciuta c’è quella denominata “model evasion” nella quale un attaccante crea un “esempio avverso” iniziando con un input normale (ad esempio, un’immagine) ed aggiunge gradualmente del rumore ad esso per deviare l’output del modello di apprendimento automatico target verso il risultato desiderato (ad esempio, una diversa classe di output specifica).
Come ricordato negli scorsi numeri il diritto internazionale esistente fornisce un quadro giuridico di disciplina non ancora adeguato ed è necessaria una maggiore chiarezza per determinare principi applicabili a tali tecnologie, nuove ed in evoluzione, soprattutto in materia di attribuzione di responsabilità (accountability).
Hai una domanda per l'autore?
Al codice del consumo (n.206/2005) vengono aggiunti nuovi articoli