Deepfake e identità Sintetiche tra Cyber Sicurezza e Protezione dei Dati Personali (I/II).
L’avvento di tecnologie di intelligenza artificiale dotate di capacità generative sempre più sofisticate sta inaugurando una nuova e profondamente insidiosa fase evolutiva per la sicurezza informatica e per il diritto della protezione dei dati personali, ridisegnando in maniera radicale i confini entro i quali si definisce la nozione di identità digitale ed imponendo una riflessione sistematica tanto ai giuristi quanto agli esperti di sicurezza informatica.
La diffusione capillare di deepfake e identità sintetiche si configura come una minaccia senza precedenti, capace non soltanto di erodere le fondamenta della fiducia su cui si reggono le moderne infrastrutture comunicative e finanziarie, ma altresì di scardinare i tradizionali sistemi di sicurezza e di autenticazione che costituiscono il presidio ordinario dei sistemi informativi pubblici e privati.
Nell’ambito della cyber sicurezza e della protezione dei dati personali, si osserva con crescente preoccupazione la rapidità con cui tali tecnologie, un tempo relegate agli ambienti accademici e ai laboratori di ricerca, siano divenute strumenti accessibili a qualunque soggetto animato da intenzioni malevole, abbattendo le barriere tecniche che storicamente ne limitavano l’impiego su larga scala.
Ci troviamo, con ogni evidenza, di fronte a una nuova era della falsificazione digitale, una stagione in cui il tradizionale adagio “vedere per credere” si è trasformato in un postulato pericolosamente obsoleto e in cui la stessa percezione della realtà audiovisiva è divenuta oggetto di manipolazione sistematica, con conseguenze che si riverberano non soltanto sul piano individuale ma sull’intero equilibrio epistemico della sfera pubblica digitale.
Per comprendere appieno la portata delle implicazioni giuridiche sottese a questi fenomeni, è necessario procedere a una distinzione concettuale rigorosa, ancorché le due tipologie di minaccia tendano, nella prassi criminale, a sovrapporsi e a integrarsi reciprocamente.
I deepfake si avvalgono di sofisticati algoritmi di machine learning, e segnatamente di architetture di reti neurali generative avversariali, per creare o manipolare contenuti audio e video iper-realistici, attribuendo a individui reali parole mai pronunciate, espressioni mai esibite e comportamenti mai tenuti, con una fedeltà tecnica che rende sempre più arduo, persino per gli esperti di digital forensics, distinguere il contenuto autentico da quello artefatto.
L’identità sintetica, d’altra parte, adotta un approccio distinto ma parimenti insidioso, che non si fonda sulla manipolazione di soggetti realmente esistenti bensì sulla creazione artificiale di entità digitali apparentemente legittime.
Tale tecnica consiste nella combinazione di dati veritieri – spesso acquisiti illecitamente attraverso data breach o operazioni di social engineering – con informazioni fittizie liberamente elaborate, al fine di generare profili digitali integralmente nuovi che non corrispondono ad alcuna persona fisica reale eppure presentano tutti i caratteri esteriori della legittimità, rendendoli strumenti ideali per la commissione di frodi finanziarie strutturate, operazioni di riciclaggio di denaro e una vasta gamma di attività illecite difficilmente tracciabili dai tradizionali sistemi antifrode.
Dal punto di vista della protezione dei dati personali, la creazione di un deepfake costituisce, ad ogni effetto, una violazione di particolare gravità del quadro normativo europeo vigente, a partire dal Regolamento (UE) 2016/679, comunemente noto come GDPR, che disciplina in maniera organica il trattamento dei dati personali nell’Unione Europea.
La voce e l’immagine di un individuo sono dati personali ai sensi dell’articolo 4 del Regolamento, e in determinati contesti – ogniqualvolta consentano l’identificazione univoca di una persona fisica mediante il riconoscimento biometrico – assurgono alla categoria dei dati biometrici, soggetti alla disciplina rafforzata prevista dall’art. 9 del GDPR per le categorie particolari di dati.
Il loro utilizzo non autorizzato per addestrare algoritmi di intelligenza artificiale e generare contenuti falsi contravviene ai principi fondamentali sanciti dall’articolo 5 del GDPR, tra cui i principi di liceità, correttezza e trasparenza del trattamento, di limitazione della finalità, di minimizzazione dei dati e di integrità e riservatezza, atteso che il trattamento avviene in assenza di qualsiasi base giuridica legittima e con finalità diametralmente opposte alla tutela degli interessi dell’interessato.
L’Autorità Garante per la protezione dei dati personali ha avuto modo di intervenire a più riprese sul tema, evidenziando con crescente determinazione come la generazione e la condivisione di deepfake, in assenza di un’adeguata base giuridica e del consenso informato dell’interessato, possa comportare gravissime violazioni dei diritti e delle libertà fondamentali, suscettibili di determinare l’irrogazione di sanzioni amministrative pecuniarie di notevole entità ai sensi dell’articolo 83 del Regolamento, nonché di dar luogo a responsabilità civile per il risarcimento del danno subito dall’interessato ai sensi dell’articolo 82.
Il legislatore italiano, mostrando una sensibilità che merita di essere segnalata nel più ampio contesto comparatistico europeo, ha recepito la gravità del fenomeno provvedendo a colmare un vuoto normativo di lunga data mediante l’introduzione di una specifica fattispecie incriminatrice con la Legge n. 132 del 2025, che ha inserito l’articolo 612-quater nel Cod. Pen.
Tale disposizione punisce con la reclusione da uno a cinque anni chiunque diffonda, senza il consenso delle persone rappresentate, immagini o contenuti audiovisivi generati o manipolati con sistemi di intelligenza artificiale che siano idonei a trarre in inganno circa la loro autenticità, qualora dalla diffusione derivi un danno ingiusto all’interessato.
Si tratta di un passo normativo di indubbio rilievo che, pur non essendo risolutivo di tutte le problematiche poste dal fenomeno, colma una lacuna che aveva sino ad ora costretto gli interpreti a ricorrere a fattispecie penali preesistenti – come la diffamazione aggravata di cui all’art. 595 del Cod. Pen., il trattamento illecito di dati personali di cui all’art. 167 del Codice Privacy, ovvero la sostituzione di persona di cui all’art. 494 del Cod. Pen. – la cui applicazione ai casi di deepfake risultava spesso forzata ed incerta, con conseguenti difficoltà tanto nella fase delle indagini preliminari quanto in quella dibattimentale.
Se i deepfake attaccano la reputazione e l’identità di persone reali e fisicamente esistenti, le identità sintetiche operano secondo una logica radicalmente differente, creando entità digitali inesistenti – che potremmo efficacemente definire, con una metafora evocativa, come “Frankenstein digitali” – assemblate attraverso la combinazione di frammenti di informazioni reali, quali nomi, indirizzi, codici fiscali, numeri di documenti di identità, con dati integralmente inventati, al fine di costruire profili sufficientemente credibili da superare i tradizionali controlli di identificazione imposti dalla normativa antiriciclaggio e dai processi di Know Your Customer (KYC).
Tali profili sintetici vengono successivamente impiegati dai soggetti criminali per aprire conti correnti bancari, richiedere carte di credito e contrarre prestiti di rilevante entità, costruendo nel tempo una storia creditizia apparentemente virtuosa che incrementa progressivamente l’esposizione finanziaria delle istituzioni creditizie verso il soggetto inesistente, per poi dissolversi improvvisamente dopo aver massimizzato il profitto illecito senza lasciare alcuna traccia investigativa riconducibile a una persona fisica reale.
La sfida per le istituzioni finanziarie e per gli organi inquirenti è di dimensioni straordinarie: diversamente da quanto avviene nei casi di furto di identità tradizionale, nei quali esiste una vittima concreta che può denunciare l’illecito utilizzo dei propri dati, l’identità sintetica non genera alcuna vittima diretta riconoscibile, con la conseguenza che il crimine può svilupparsi per mesi o anni prima di essere individuato, amplificando enormemente i danni economici e rendendo particolarmente difficoltosa la ricostruzione degli iter delittuosi.
Avv. Giuseppe Serafini
Prossimo numero.
Nel prossimo numero proseguiremo l’analisi dei profili giuridici rilevanti ai fini dell’applicazione delle disposizioni di legge in materia di protezione dei dati personali e sicurezza delle informazioni.
Hai una domanda per l'autore?
Al codice del consumo (n.206/2005) vengono aggiunti nuovi articoli

