Scritto da Chiara Navarra
Negli ultimi tempi l’intelligenza artificiale sta vivendo la sua ascesa diventando uno strumento fortemente incisivo e presente nella quotidianità di tutti.
Ma può uno strumento del progresso, espressione dell’evoluzione e dello sviluppo tecnologico essere, allo stesso tempo, pericoloso? Al punto da richiedere l’intervento normativo?
In un contesto dominato dall’intelligenza artificiale si inseriscono i c.d. “deepfake”, protagonisti delle notizie degli ultimi tempi, identificano una nuova sfida per i nostri tempi rivolta anche al settore giuridico. Con l'espressione “deepfake”, coniata, secondo alcune fonti a partire dal 2017, si individuano video, immagini e altri contenuti falsi (non a caso, il termine anglosassone “fake” richiama l’idea dei contenuti ingannevoli del web), generati attraverso l’intelligenza artificiale, per creare e riprodurre immagini, video e registrazioni che nella realtà sono inesistenti. Il complessivo utilizzo di tale tecnologia, rivela, quanto, sempre più frequentemente, venga impiegata per il perseguimento di finalità fortemente dannose, basti pensare al caso della creazione di fake news, ovvero la diffusione di notizie false e fuorvianti ovvero per indirizzare l’informazione verso alcune correnti “ideologiche” o ancora, per atti lesivi dell’immagine o della dignità della persona, ad esempio, nell’ambito del revenge porn o del cyberbullismo. L’impiego illecito di queste nuove forme è piuttosto vasto e coinvolge anche l’ambito delle truffe, della manipolazione elettorale etc. Tale scenario ha richiesto l’intervento normativo richiamando la necessità di attivarsi per apprestare concreti ed efficaci strumenti di tutela in questo nuovo spazio eminentemente moderno, diverso dai tradizionali settori della legge.Tuttavia, ancora una volta, il diritto si trova a fronteggiare esigenze diverse e a calibrare diverse istanze, quali, nel caso in esame, la tutela e la “libertà digitale e tecnologica” e la tutela della privacy e di altri diritti che possono essere lesi da queste nuove forme di violenza digitale.
La nuova legge in Italia:
La legge 132/2025, entrata in vigore lo scorso 10 ottobre, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, c.d. Legge AI, introduce nel codice penale una nuova fattispecie incriminatrice ovvero l’articolo 612-quater dal titolo: “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. La nuova formulazione configura come reato “la diffusione di contenuti creati o alterati tramite intelligenza artificiale”, da intendersi non come un divieto assoluto di generare tali contenuti tramite questi mezzi, in quanto la condotta di rilievo menzionata consiste: “nell’arrecare un danno ingiusto ad una persona tramite la pubblicazione e diffusione, senza consenso, di immagini, video o altri contenuti alterati o modificati con l’ AI, idonei a trarre in inganno nella loro genuinità”. Altresì, si identifica, dal punto di vista della sanzione, la pena della reclusione da 1 a 5 anni. L’art. 612-ter specifica che si tratta di un reato perseguibile a querela della persona offesa e ad alcune condizioni, menzionate nella legge stessa, permette di procedere d’ufficio.
La lettera della disposizione è mirata a formulare una norma che va a tipizzare la diffusione di contenuti senza il consenso delle persone interessate (già prevista all’interno dell’ordinamento) attraverso modalità e forme specificamente connotate, ossia mediante i mezzi dell’intelligenza artificiale, l’alterazione dei contenuti e i caratteri ingannevoli e fallaci ovvero “idonei a trarre in inganno”, fermo restando la presenza di un “ danno”, oggetto di accertamento, nei termini del “danno ingiusto” ivi menzionato, così richiamando i caratteri di un fenomeno proprio, sia per quanto riguarda l’offesa che le modalità di realizzazione. Inoltre, la stessa legge ha introdotto una circostanza aggravante di tipo comune ovvero inserendo l’aumento di pena pari ad un terzo laddove il fatto è stato commesso tramite l’impiego di sistemi di intelligenza artificiale, quando questi, per la loro intrinseca natura siano ingannevoli o rappresentano un mezzo insidioso oppure, come già aggravato per altre figure di reato, quando il loro impiego è rivolto ad ostacolare la pubblica o privata difesa o ulteriormente quando è diretto ad aggravare le conseguenze del reato.
Il contenuto di questa norma parla a favore della repressione e del contrasto delle forme distorte e irregolari delle nuove tecnologie sempre più frequenti nella nostra “società virtuale” e rappresenta la ricezione delle nuove sfide per la legge che cerca di delinearne, sotto svariati punti di vista, i contorni e i risvolti di un fenomeno che inevitabilmente sta richiedendo una tutela dei diritti fondamentali esposti ai pericoli della modernità digitalizzata. Nondimeno, in un’altra prospettiva, il ricorso alla tecnologia “deepfake” può produrre un impatto fortemente positivo, se correttamente impiegata e rivolta a fini leciti e coerenti con il diritto della privacy e degli altri diritti individuali. Infatti, il loro uso può essere di notevole interesse sociale, ad esempio se impiegata nell’ambito dello spettacolo, o culturale, per esempio, usata per la ricreazione di accadimenti storici e altri settori importanti per i quali si possono intravedere forme di evoluzione digitale, purché l’uso sia posto all’insegna della legalità, della trasparenza e della “civile convivenza virtuale”.

0 Commenti