DeepFake: dalla DARPA 68 milioni per mitigarne i rischi
L’incubo degli esperti della DARPA (l’agenzia di ricerca dei progetti per la Difesa USA) potrebbe avverarsi nel momento in cui venisse pubblicato un video in cui Donald Trump annuncia di aver lanciato un attacco nucleare contro la Corea del Nord.
Con grande probabilità, prima di aver dimostrato che si tratta di un deepfake (un video falso), il mondo si potrebbe trovare invischiato in una guerra nucleare. Almeno due sono i fattori che rendono questo rischio decisamente reale.
Primo: la fiducia che (generalmente) riponiamo in un’immagine o in un video è molto elevata. Insomma,se vediamo qualcosa, allora significa che è veramente accaduto… Si pensi ad Instagram. Il social network si distingue per la sua fruizione e facilità d’uso. Ma fa anche in modo che una foto postata venga vista dalla quasi la totalità dei followers, realizzando un effetto immediatezza senza precedenti. Il che aumenta il grado di attendibilità che si da’ al materiale fruito. Che sia fake o deepfake viene dopo, o non conta.
Secondo: nell’arco di qualche mese, creare un deepfake (un fake video o una fake image) estremamente realistico e credibile sarà alla portata di moltissime persone.
Le nuove tecnologie di AI-Artificial Intelligence (e la potenza di calcolo facilmente noleggiabile dal cloud) renderanno infatti molto più facile manipolare foto aggiungendo persone e/o oggetti ad immagini già esistenti, o creare video in cui inserire persone (e dialoghi con voci originali) a proprio piacimento.
E siccome tra gli obiettivi della DARPA vi è anche quello di ricercare soluzioni in grado di mitigare il cosiddetto “effetto sorpresa”, recentemente sono stati investiti 68 milioni di dollari per lo sviluppo di nuove tecniche volte a identificare automaticamente immagini e video manipolati.
Secondo la DARPA, la disponibilità (o la mancanza) di queste tecnologie avrà un impatto certo sulla sicurezza nazionale degli Stati Uniti. Poiché la DARPA ha maturato la triste consapevolezza che “l’avversario è comunque destinato sempre a vincere”, l’unico obiettivo che rimane da perseguire è “almeno quello di complicargli la vita”.
Insomma, se almeno costasse di più realizzare deepfake non così semplici da identificare, la platea dei potenziali nemici si potrebbe ridurre notevolmente e questo, di per sé, sarebbe già un successo.
Se nulla venisse fatto, invece,molto presto chiunque potrebbe realizzare deepfake e, di conseguenza, diventare nemico degli USA. Un ragionamento lineare, soprattutto se si dispone di una grande quantità di denaro per rafforzare la difesa del proprio paese.
Nel frattempo, alcuni consigli d’uso. Utilizzare le tecnologie di Artificial Intelligence per svelare i deepfake (a loro volta creati dalla AI), capaci di cogliere le impercettibili imperfezioni a occhio umano derivanti dalla manipolazione. Il fattore tempo è essenziale e il check va effettuato in tempi rapidissimi, prima che il deepfake diventi virale.
Invitare caldamente, (per chi ha un approccio più aggressivo,“imporre”) i social media a fare investimenti in Ricerca&Sviluppo per sviluppare filtri di selezione per smascherare un deepfake, da applicare prima della pubblicazione di video e immagini.
Infine, diffondere a 360° la consapevolezza che n’immagine o un video, anche se di eccellente qualità, possono essere un fake. Dunque, prima di reagire, riflettere con attenzione. Magari anche quando si fa un selfie…
Foto: Shutterstock e Darpa
Eugenio Santagata, Andrea MelegariVedi tutti gli articoli
Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Ha frequentato la Scuola Militare Nunziatella a Napoli e l'Accademia Militare di Modena. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' stato CEO di CY4Gate e Vice Direttore Generale di Elettronica. Dall’aprile 2021 è CEO di Telsy. --- Andrea Melegari: Laureato in Informatica, ha insegnato per oltre 10 anni all'Accademia Militare di Modena. Dal 2000 si è specializzato nello sviluppo e nell'impiego delle tecnologie di Intelligenza Artificiale in ambito civile e militare. Tra gli incarichi ricoperti SEVP Defense, Intelligence & Security di Expert AI, Chief Marketing & Innovation Officer di CY4Gate. E' stato anche membro del CdA delle società Expert AI, CY4Gate e Expert System USA (Washington DC area). Dal luglio 2021 lavora presso una azienda tecnologica di un importante Gruppo industriale italiano.