Crolla una miniera clandestina in Venezuela: almeno 24 morti

2024-12-16

Auto sulla folla in Israele: una donna morta e 17 feritiPolitica,Economista Italiano industria, sanità, economia: ogni campo è a rischio deepfake, una particolare tecnica che sfrutta l’intelligenza artificiale per manipolare foto e video.Con il termine deepfake si fa riferimento ad una tecnica AI grazie alla quale si possono creare contenuti partendo da una base reale di video, foto o registrazioni audio. Un fenomeno in larga ascesa di cui stupisce la capacità di rendere questa finzione incredibilmente simile alla realtà, riproducendo in maniera impeccabile, ad esempio, espressioni facciali e timbro vocale della persona raffigurata. La diffusione di materiale deepfake porta con sé numerosi rischi. In questo articolo, analizziamo la tecnologia dietro questi contenuti, i settori più esposti e le possibili soluzioni.I temi trattati all’interno dell’articoloNascita e diffusione dei contenuti deepfakeL’utilizzo dei deepfake in politicaQuali altri settori sono a rischio?Come riconoscere i deepfake?Nascita e diffusione dei contenuti deepfakeIl termine è stato utilizzato per la prima volta nel 2017 da un utente di Reddit che aveva apostrofato con la parola “deepfakes”, dei finti film hard con famosi attori di Hollywood, sostituendo i loro volti a quelli degli attori del video. Il sistema utilizzato in quel caso (ma non solo) è quello del machine learning, cioè l’apprendimento automatico attraverso algoritmi che analizzano dati e calcolano la probabilità che una cosa sia vera o falsa. Proprio gli algoritmi riescono a generare, grazie ai loro calcoli, un’immagine che sia quanto più veritiera e realistica possibile. A questo scopo vengono sfruttate le reti generative avversarie, o GAN in breve, che rappresentano un approccio alla modellazione generativa che utilizza metodi di apprendimento profondo, come ad esempio le reti neurali.Le reti neurali sono una famiglia di algoritmi machine learning: gli operatori le programmano per un compito specifico e loro proseguono autonomamente imparando dalle immagini che ricevono. È questa capacità di apprendimento che dà all’algoritmo la sua capacità di “pensiero”. In questo caso specifico, vengono analizzati video, foto, registrazioni di coloro che verranno inseriti nel prodotto finale, in modo tale che poi possa venire processato anche il più piccolo dettaglio: la pronuncia di una parola, una smorfia, un tic, comprendendo anche quando e come questi vengano fatti.Lo stesso meccanismo è stato utilizzato, ad esempio, sia da TikTok per creare un filtro molto popolare, in grado di rendere animate le foto, facendo muovere e sorridere le persone immortalate sia dal regista Morgan Neville per girare un documentario, Roadrunner, su Anthony Bourdain, il famoso cuoco mancato nel 2018. Grazie a questa tecnologia è stato possibile inserire nel film la voce narrante del cuoco scomparso, dopo che essa è stata ricostruita grazie all’analisi, da parte dell’intelligenza artificiale, di moltissime ore di video.L’utilizzo dei deepfake in politicaLa politica non è esente dal rischio deepfake, anzi. Un uso incontrollato di questa tecnica, se non si interviene prontamente, può portare anche a gravi conseguenze.  Ad aprile 2018, sui social, ha iniziato a spopolare sui social un video in cui Barack Obama insultava pubblicamente Donald Trump. Un comportamento da molti ritenuto insolito per l’ex presidente degli Stati Uniti. Solo successivamente è stato scoperto che quel contenuto era stato realizzato grazie all’utilizzo di questa specifica tecnica AI.Questo video, che a una prima visione potrebbe risultare anche divertente, apre il vaso di pandora su alcuni rischi che l’uso intenso dei deepfake porta con sé, sia in campo politico che nella società. Basti pensare a cosa succederebbe se venissero fatte pronunciare parole di guerra ad un capo di Stato.Il fenomeno è tornato agli albori della cronaca anche durante la pandemia da Covid-19. Durante questo periodo storico, in particolare, video deepfake sono stati utilizzati su Zoom. I giornali hanno raccontato come alcuni parlamentari estoni e olandesi siano stati convinti di aver avuto una conversazione con Leonid Volkov, un politico russo a capo del personale della campagna elettorale presidenziale del 2018 di Alexei Navalny, quando invece era tutto falso. Un esempio di come anche politici che hanno alle spalle team di esperti in comunicazione digitale possano cadere nel tranello.Quali altri settori sono a rischio?Il settore industriale è esposto a un alto rischio. Nel rapporto CLUSIT del 2020, nel lungo periodo, è stimato che gli attacchi fondati sulla combinazione di tecniche di ingegneria sociale e di intelligenza artificiale, come il deepfake, cresceranno in maniera sostenuta, prettamente a danno di organizzazioni economiche. Basti pensare a tutti i servizi televisivi di denuncia o ai video che circolano sui social. Qualora le immagini riportare fossero false, un’azienda si potrebbe trovare davanti a una crisi reputazionale causata da una fake news ma che porta con sé ripercussioni – anche economiche e sociali – rilevanti. E, una volta rovinata, è difficile ricostruire un’immagine corretta agli occhi dei consumatori.Anche il mondo dell’editoria non è esente da rischi, se non altro per il proliferare di siti di (dis)informazione in cui risulterebbe semplice far circolare un contenuto manipolato. Una foto, un video o una registrazione possono essere ripresi da tutte le testate giornalistiche e ogni piattaforma social in pochi minuti, rischiando di intaccare la reputazione di soggetti, con notizie non accertate e non verificate. Ad esempio, Striscia la Notizia nel 2019 aveva utilizzato un video fuori onda deepfake di Matteo Renzi, per un servizio, seguito poi da altre puntate. Un episodio che avevano generato molto scalpore e aveva alimentato la discussione anche sull’eticità di questi video deepfake per fare satira.Come riconoscere i deepfake?Esistono, però, degli strumenti in grado di comprendere se il contenuto sia originale o meno: un esempio è XceptionNet, programma sviluppato da un team di ricercatori della Università Tecnica di Monaco, proprio per cercare nei file video le tracce di una manipolazione.Un altro esempio è l’algoritmo sviluppato da Siwei Lyu, professore d’informatica e direttore del Computer Vision e Machine Learning Lab dell’Albany State University di New York. Il software basato su questo algoritmo, quando analizza un contenuto per identificare la manipolazione di un video, come primo elemento scandaglia i pixel in alcuni fotogrammi specifici. In alcuni casi, sebbene il contenuto deepfake sia molto realistico, se il soggetto non guarda direttamente in camera, ciò che lo crea distorce leggermente l’immagine disallineando certi tratti somatici in maniera impercettibile. Queste distorsioni vengono rilevate in modo da verificare l’autenticità o meno del contenuto.Anche Microsoft ha sviluppato uno strumento per individuare i deepfake. Il software in questione analizza foto e video per dare un punteggio sulla probabilità che il materiale sia stato creato artificialmente. Lo scopo dell’azienda è che la tecnologia aiuti a “combattere la disinformazione”. Per costruirlo, l’azienda ha applicato le proprie tecniche di machine learning a una serie di dati pubblici di circa mille sequenze video deepfake e ha poi testato il modello risultante su un database ancora più grande creato da Facebook.Sempre Microsoft ha poi creato un metodo che possa certificare un contenuto come originale o meno: nello specifico, inserendo una sorta di filigrana di autenticità, si riuscirà a valutare lo stato dell’oggetto specifico. Su Internet, inoltre, è possibile trovare anche siti, tra cui Deep ware, capaci di valutare, indicativamente, se un contenuto sia originale o modificato.

Elezioni Usa 2024, le differenze tra caucus e primarie: inizia la corsa alla Casa Bianca

Cile, morto l'ex presidente Sebastián PiñeraMACD

Navalny: mostrato alla madre il cadavere del figlio