Brescia - Milano - Roma - Napoli
studio@federicabertoni.com
Brescia - Milano - Roma - Napoli
studio@federicabertoni.com
Abstract della relazione “Deepfake, ovvero “Manipola et impera”. Un’analisi sulle cause, gli effetti e gli strumenti per la sicurezza nazionale, nell’ambito dell’utilizzo malevolo dell’intelligenza artificiale ai fini di disinformazione e propaganda”, che ho presentato a Milano il 14 dicembre 2018, alla DTLC CONFERENCE 2018, primo Congresso annuale dell’Information Society Law Center dell’Università degli Studi di Milano. Il paper uscirà nella sua versione integrale all’interno del Fascicolo 1/2 del 2019 della Rivista Ciberspazio e Diritto.
Se è vero che le fake news digitali non rappresentano più un quid novum e se è vero che, negli ultimi anni, non sono mancati i tentativi di far sviluppare alla massa degli utenti anticorpi contro le bufale on line, a sostegno del sistema immunitario del proprio pensiero critico (ad esempio indicando loro la strada del c.d. fact-checking, prima di postare o condividere notizie sui social), è oltremodo assodato che la tecnologia, nel bene e nel male, nel moto perpetuo del suo incedere, non si arresta mai. Il progresso tecnologico, che sta compiendo un enorme balzo in avanti con l’intelligenza artificiale, porta contemporaneamente con sé non solo dei benefici, ma anche dei rischi. In tale ultima direzione si collocano i risultati efficaci in senso malevolo, che si sono raggiunti di recente nel campo dell’elaborazione di tecniche sempre più raffinate, persuasive e potenti in grado di generare un tipo di disinformazione e propaganda nuove, assai difficili da scardinare nella loro essenza. La conseguenza che ne deriva è che il falso può ora essere seminato e disseminato in maniera scientifica e grandemente fruttuosa. Si tratta delle applicazioni dell’intelligenza artificiale poste alla base del fenomeno dei deepfake, cioè di contenuti audio e video artefatti in una maniera tanto realistica da rasentare la perfezione ed essere accolti dal pubblico come autentici o, si potrebbe forse enucleare meglio il concetto affermando che si tratta di video di cui molto difficilmente si potrebbe mettere in dubbio la veridicità della corrispondenza fra “chi” ha detto o fatto “cosa” e, anche qualora ciò dovesse accadere, risulterebbe assai arduo accertare l’eventuale sospetto che dovesse sorgere al riguardo. Al contrario, i deepfake sono in grado di provocare un irrobustimento delle convinzioni di quei soggettiutenti che hanno delle visioni esclusive su determinati argomenti e che conseguentemente incorrono più facilmente nel rischio di cadere in tranelli cognitivi di conferma. Il motivo di tali criticità è rintracciabile già nel termine stesso di “deepfake”, dove la profondità del fake è anzitutto ascrivibile al livello di sofisticazione raggiungibile, grazie alle tecniche di machine learning combinate con l’utilizzo di reti neurali, ovvero attraverso l’impiego di algoritmi ad apprendimento automatico con software di mappatura facciale. Tale tecnologia, nata nell’alveo della pornografia e per scopi facilmente intuibili, ha finito, per le sue enormi potenzialità, col suscitare interesse anche in altri ambiti, per finalità e con implicazioni di ben altro valore e portata. In particolare, se si pensa al terreno di scontro politico, lo scenario si fa certamente cupo e inquietante. Qui, alla profondità intesa come grado di realismo del fake conseguibile con il deep learning machine, chi scrive ritiene di poter affiancare due rappresentazioni di profondità ulteriori: da un lato, quella delle identità e degli intenti di chi realizza o di chi commissiona tali contenuti. Dall’altro, la profondità del livello d’impatto politico e sociale. In altri termini ciò si può tradurre nella capacità della tecnologia del deepfake di destabilizzare un paese, con conseguenze serie fino alla minaccia della sicurezza nazionale. Le tecniche per generare deepfake, infatti, destano grande apprensione perché, proprio mentre si apprestano a raggiungere già nel medio termine un grado di sofisticatezza tale da impedire di distinguere la verità dalla menzogna e a essere altresì caratterizzate da una elementarità di utilizzo che le renderà sfruttabili da chiunque, come fossero delle mere applicazioni, al contempo, mancano soluzioni condivise ed efficaci per contrastare i deepfake sui diversi piani che travolgono nel preciso istante in cui vengono immessi in Rete e fatti circolare. Si pensi alle sfide che il fenomeno lancia alla sicurezza dei dati e alla privacy, al diritto nel suo complesso e allo stesso utilizzo che la politica fa della tecnologia e del web, alla democrazia e quindi ai rapporti di fiducia fra gli utenti-cittadini e le istituzioni, alle sicurezze nazionali e internazionali, alla Digital Forensics, all’intelligenza artificiale stessa e alla sua implementazione nel duello contro quella parte di sé già contenuta nella minaccia del deepfake, al problema della regolamentazione dell’impiego dell’intelligenza artificiale. In Italia, attualmente, non vi è una casistica pubblica nota di deepkafe politici, a differenza di quanto sta avvenendo Oltreoceano, dove qualche primo esperimento e alcuni casi concreti hanno già sensibilizzato la platea sul tema. Tuttavia, il clima politico e sociale in cui versa attualmente il nostro paese potrebbe richiedere che si avvìi quanto prima uno studio sugli aspetti evidenziati poc’anzi in tema di deepfake, posto che la domanda non è se si verificheranno casi di manipolazione dell’informazione di siffatta natura e che ci riguardano molto da vicino, bensì quando. Gli aspetti appena evidenziati vanno pertanto a delineare lo scopo della ricerca e cioè di tentare di ricercare le cause del deepfake, di stabilire quale grado di raffinatezza si è giunti con la tecnologia sottostante al fenomeno; quali applicazioni esistono oggi sul mercato per creare video artefatti estremamente realistici e se la loro realizzazione può già considerarsi alla portata della massa degli utenti; quali scenari potrebbero verificarsi nella diffusione di deepfake all’interno dell’attuale quadro sociale e politico italiano e con quali conseguenze; se esistono attualmente degli strumenti tecnologici e giuridici sufficientemente idonei per contrastare i deepfake e in che modo sono applicabili. Il contributo che tale analisi intenderebbe quindi offrire all’evoluzione dello studio della materia considerata come un unicum e che più nel dettaglio può essere segmentata nelle aree di studio che si occupano dell’odio politico on line, della propaganda e della disinformazione praticate con l’ausilio delle tecnologie e di Internet, dell’infowar, dell’intelligenza artificiale, della cybersecurity, della privacy e della Forensics, è quello di interpretare lo sfruttamento malevolo delle tecniche d’intelligenza artificiale più avanzate dei deepfake come il meccanismo ultimo per tramutare fake altrimenti deboli in fake d’acciaio, il ché è come dire in potenziali armi cyberfisiche fra le più devastanti e capaci di minare la sicurezza delle nazioni. Considerate alla stregua di potenziali armi cibernetiche, i deepfake debbono essere monitorati attentamente e studiati; nondimeno l’accurato esame condotto su di essi potrebbe essere impiegato per trarre elementi utili a tracciare delle linee guida mirate alla loro corretta gestione, nell’ottica della fisiologica trasversalità del problema che essi incarnano.