No Result
View All Result
  • Login
  • NIS2 / ISO 27001
    • Atti & Documenti
    • News & Eventi
  • Security / PCI DSS
    • F.A.Q. Security / PCI DSS
    • News & Eventi
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
    • Webcast
  • Data Protection & Privacy
    • F.A.Q. Data Protection & Privacy
    • News & Eventi
    • Garante Privacy
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
  • Digital Forensics
    • F.A.Q. Digital Forensics
    • News & Eventi
    • Leggi & Sentenze
    • Atti & Documenti
    • Tutorial & Case Study
  • Bandi
    • Fondi UE
    • Fondi Nazionali e Regionali
    • Articoli e documenti utili
PREZZI
ABBONATI
  • NIS2 / ISO 27001
    • Atti & Documenti
    • News & Eventi
  • Security / PCI DSS
    • F.A.Q. Security / PCI DSS
    • News & Eventi
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
    • Webcast
  • Data Protection & Privacy
    • F.A.Q. Data Protection & Privacy
    • News & Eventi
    • Garante Privacy
    • Atti & Documenti
    • Leggi & Sentenze
    • Tutorial & Case Study
  • Digital Forensics
    • F.A.Q. Digital Forensics
    • News & Eventi
    • Leggi & Sentenze
    • Atti & Documenti
    • Tutorial & Case Study
  • Bandi
    • Fondi UE
    • Fondi Nazionali e Regionali
    • Articoli e documenti utili
No Result
View All Result
No Result
View All Result
Home Digital Forensics

Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte III).

Esaminiamo quali sono le principali soluzioni applicative note allo stato e quali possano essere le principali minacce correlate al loro utilizzo

Avv. Giuseppe Serafini scritto da Avv. Giuseppe Serafini
17 Aprile 2023
in Data Protection & Privacy, Garante Privacy, Leggi & Sentenze
Tempo di lettura: 4 minuti
0
Cognitive cybersecurity, diritti della personalità ed evoluzione normativa, il regolamento Europeo in materia di Intelligenza Artificiale. (Parte III).

Alla luce delle considerazioni svolte nei numeri precedenti, ed a conclusione di questo breve approfondimento in materia di Cognitive Cybersecurity, ci occuperemo, in questo numero, premessi brevi cenni su alcuni dei metodi di intelligenza artificiale considerati dalla proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale, di esaminare quali siano le principali soluzioni applicative note allo stato e quali possano essere le principali minacce correlate al loro utilizzo.

Come si è detto, rientrano tra i metodi ed approcci considerati dalla proposta richiamata, sia gli approcci basati sull’apprendimento automatico, o machine learning, compreso il cd. (deep learning), sia gli approcci approcci basati sulla logica e l’uso di reti neurali e quelli approcci basati sulla conoscenza, quali ad esempio i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti, sia infine, gli approcci statistici, quali la stima bayesiana, i metodi di ricerca ed ottimizzazione.

Come sarà facile comprendere, l’IA e l’apprendimento automatico risultano fattori determinanti nella pianificazione e realizzazione di sistemi informativi in grado di stare al passo con i criminali informatici, rendendo automatizzato il rilevamento delle minacce e più efficace la risposta agli incidenti rispetto alle tecniche convenzionali guidate da software o dall’uomo manualmente.

In particolare, mediante apposite logiche, i sistemi di IA possono essere adeguatamente istruiti ed addestrati per l’individuazione di codice malevolo, per eseguire il riconoscimento di modelli comportamentali prestabiliti e rilevare anche i comportamenti più minuti del malware o eventuali attacchi ransomware prima che abbiano accesso ai sistemi.

Inoltre l’IA, ed è forse questa una delle caratteristiche maggiormente significative dell’impiego di siffatte soluzioni tecnologiche, permette di svolgere previsioni basate su dati (predictive intelligence) con accuratezza superiore rispetto all’essere umano anche mediante l’elaborazione algoritmica del linguaggio naturale e la raccolta autonoma dei dati da articoli, notizie e studi sulle minacce informatiche con l’effetto di fornire continuamente agli analisti informazioni su nuove anomalie, attacchi informatici e strategie di prevenzione.

In effetti, sistemi di sicurezza cibernetica basati sull’IA possono fornire le ultime conoscenze dei pericoli globali e di quelli specifici del settore per formulare meglio le decisioni vitali di priorità basate non solo su ciò che potrebbe essere usato per attaccare i sistemi ma su ciò che è più probabile che venga usato per attaccare i sistemi.

Da questo punto di vista, il Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT ed una startup di machine-learning, hanno sviluppato una piattaforma di intelligenza artificiale che affermano essere in grado di prevedere gli attacchi informatici significativamente meglio dei sistemi esistenti, incorporando continuamente input da esperti umani, e sfruttando un ciclo continuo di feedback tra l’analista umano e il sistema di IA, chiamato Active Contextual Modeling, in grado di imparare autonomamente in tempo reale.

Da un confronto, tra una soluzione puramente basata sull’apprendimento automatico con la soluzione realizzata, è stato possibile documentare che quest’ultimo sistema algoritmico ha incrementato il tasso di rilevamento degli attacchi di un fattore 10 rispetto alle soluzioni basate sul solo apprendimento automatico.

Altre applicazioni di IA sono pensate per favorire l’attività di Asset Inventory di tutti i dispositivi, utenti e applicazioni con diversi livelli di accesso ai vari sistemi e per prevedere sulla base delle relative risultanze l’esposizione alle minacce.

Infine, per quanto riguarda la protezione degli endpoint, si distinguono soluzioni di IA che a differenza dei tradizionali approcci di protezione basati sulle c.d. signature, adottano un approccio diverso, stabilendo una linea di base di comportamento per l’endpoint attraverso un processo di addestramento ripetuto. Se si verifica qualcosa fuori dall’ordinario, l’intelligenza artificiale può segnalarlo e agire – sia con l’invio di una notifica a un tecnico o anche attivando il ritorno a uno stato sicuro dopo un attacco ransomware.

Anche il settore militare è fortemente interessato da queste tematiche ed è protagonista nella ricerca, posto che, come è semplice comprendere, i sistemi di intelligenza artificiale, così come possono essere utilmente impiegati per proteggere risorse, reti e/o servizi, possono essere altresì utilizzati per condurre attacchi cibernetici con deflagranti effetti cinetici sulla vita degli esseri umani.

Tra i nuovi sistemi basati su metodi di IA, ci sono i c.d. Lethal Autonomous Weapon Systems (L.A.W.S.) vale a dire robot, droni o sistemi di armamento, progettati per identificare, ingaggiare e distruggere obiettivi senza controllo umano, in grado di utilizzare autonomamente i dati, prevedere il comportamento umano, raccogliere informazioni, eseguire la sorveglianza, identificare potenziali obiettivi e prendere decisioni tattiche in combattimento cibernetico con effetti cinetici catastrofici.

Occorre inoltre considerare, per completare il quadro di riferimento, che gli stessi sistemi di IA sono soggetti ad attacchi e afflitti da vulnerabilità. In questo ambito, una delle metodologie di attacco ad un sistema di intelligenza artificiale è quella denominata adversarial attacks, basati sulla complessità delle reti neurali profonde e sulla loro natura statistica per trovare il modo di sfruttarle e modificare il loro comportamento.

Il termine adversarial attack (attacco avversariale o contraddittorio) può riferirsi a diversi tipi di attività malevole perpetrate in danno di un sistema di apprendimento automatico che differiscono, sostanzialmente, in relazione a quale parte del processo di realizzazione del sistema bersaglio hanno ad oggetto e al tipo di attività che comportano.

Possiamo dividere il processo di apprendimento automatico in “fase di allenamento” e “fase di test”.

Nel corso della fase di training, si raccolgono i dati, si seleziona un’architettura di apprendimento automatico e si addestra il modello, in questa fase, le tipologie di attacco includono, l’avvelenamento dei dati (data poisoning)v nei quali l’attaccante inserisce dati manipolati nel set di dati di allenamento, e le backdoor.

Gli attacchi perpetrati nel corso della fase di test o “inference time” sono, invece, attacchi al modello di apprendimento automatico, effettuati dopo l’addestramento. Tra le tipologie di attacco più conosciuta c’è quella denominata “model evasion” nella quale un attaccante crea un “esempio avverso” iniziando con un input normale (ad esempio, un’immagine) ed aggiunge gradualmente del rumore ad esso per deviare l’output del modello di apprendimento automatico target verso il risultato desiderato (ad esempio, una diversa classe di output specifica).

Come ricordato negli scorsi numeri il diritto internazionale esistente fornisce un quadro giuridico di disciplina non ancora adeguato ed è necessaria una maggiore chiarezza per determinare principi applicabili a tali tecnologie, nuove ed in evoluzione, soprattutto in materia di attribuzione di responsabilità (accountability).

Hai una domanda per l'autore?

Al codice del consumo (n.206/2005) vengono aggiunti nuovi articoli 

CondividiTweetCondividi
Avv. Giuseppe Serafini

Avv. Giuseppe Serafini

Giuseppe Serafini è Avvocato Cassazionista del Foro di Perugia. Lead Auditor ISO/IEC 27001:2013, ISO/IEC 27701:2019; DPO UNI 11697:2017. Master di II° livello in Cybersecurity. Master di II° livello in Data Protection. Perfezionato in Digital Forensicis, Cloud & Data Protection. Già docente di Informatica Giuridica presso la Scuola di Specializzazione in Professioni Legali di Perugia, e collaboratore della cattedra di Informatica Giuridica della Facoltà di Giurisprudenza di Perugia; Docente in Master di II° livello. Relatore ed autore di numerose pubblicazioni in materia di Sicurezza delle Informazioni e Diritto delle nuove Tecnologie. Associato CLUSIT e Digital Forensics Alumni.

Next Post

Trasparenza obbligatoria per i contributi pubblici

Istruttoria aperta su un’app creata da Covid Healer

Istruttoria aperta su un'app creata da Covid Healer

No Result
View All Result

Articoli recenti

  • Dati sanitari e disciplinari nel mirino: il Garante sanziona l’Ordine degli Psicologi lombardo. Riflessioni legali per DPO e professionisti IT
  • Gestione degli Accessi: Fondamenti Legali e Strategici della Sicurezza Informatica Aziendale
  • Le 10 Regole d’Oro per la Cybersicurezza: Tutela Digitale e Responsabilità Giuridica
  • NIS2: Al via la Seconda Fase della Direttiva sulla Sicurezza Informatica Impatti e Obblighi per le Organizzazioni
  • AI Forensics: intelligenza artificiale ed investigazione digitale, scenari applicativi e tutela dei diritti fondamentali (II/II).

Commenti recenti

    Archivi

    • Giugno 2025
    • Maggio 2025
    • Aprile 2025
    • Febbraio 2025
    • Dicembre 2024
    • Novembre 2024

    Categorie

    • Bandi e Fondi UE / Nazionali
      • Articoli e documenti utili
      • Fondi Nazionali e Regionali
      • Fondi UE
    • Data Protection & Privacy
      • Atti & Documenti
      • Garante Privacy
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study
    • Digital Forensics
      • Atti & Documenti
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study
    • Moduli e Documenti
    • NIS2
      • Atti & Documenti
      • News & Eventi
    • Security / ISO 27001 / PCI DSS
      • Atti & Documenti
      • Leggi & Sentenze
      • News & Eventi
      • Tutorial & Case Study

    Meta

    • Accedi
    • Feed dei contenuti
    • Feed dei commenti
    • WordPress.org

    Articoli recenti

    • Dati sanitari e disciplinari nel mirino: il Garante sanziona l’Ordine degli Psicologi lombardo. Riflessioni legali per DPO e professionisti IT
    • Gestione degli Accessi: Fondamenti Legali e Strategici della Sicurezza Informatica Aziendale
    • Le 10 Regole d’Oro per la Cybersicurezza: Tutela Digitale e Responsabilità Giuridica

    Link Utili

    Home
    Security / ISO 27001 / PCI DSS
    Data Protection & Privacy
    Digital Forensics

    Contatti

    Via G. Marconi, 18 – Città di Castello (PG)
    +39 (0)75 8521413
    info@cips.it
    P.I. 02083700548
    Privacy Policy
    Cookie Policy

    © 2024 Cips Legal

    • Home
    • NIS2 / ISO 27001
    • Security / PCI DSS
    • Data Protection & Privacy
    • Digital Forensics
    • Bandi e Fondi UE / Nazionali
    • Abbonati

    © 2024 Cips Legal

    Welcome Back!

    Login to your account below

    Forgotten Password?

    Retrieve your password

    Please enter your username or email address to reset your password.

    Log In