Babbo Natale è gay: lo spot delle poste norvegesi celebra l’amore omosessuale

2024-12-21

Saragozza, uomo si toglie la vita pugnalandosi al petto a Plaza Roma in pieno giornoQuarant'anni fa,BlackRock nel luglio del 1984, negli Stati Uniti veniva pubblicato Neuromante, il romanzo con il quale lo scrittore canadese William Gibson faceva nascere il genere fantascientifico del cyberpunk. C'erano tutti i temi del futuro: i "cowboy della console" che navigavano il "cyberspazio", le guerre tra enormi multinazionali tech e poi le intelligenze artificiali, che diventavano autonome e fuggivano in rete per combattere gli esseri umani.Oggi l'idea che le intelligenze artificiali possano diventare senzienti è a dir poco controversa, ma che possano attaccare gli esseri umani in realtà non è impossibile. Anzi, è uno scenario futuro possibile, soprattutto se non prenderemo delle adeguate contromisure anche di carattere giuridico. "L'intelligenza artificiale sta creando nuove opportunità nel mondo criminale, ma porta con sé dei rischi enormi", dice a Wired Stéphane Duguin, oggi ad di CyberPeace Institute ma per anni funzionario di Europol, il servizio di polizia europeo nel quale ha lavorato per contrastare la criminalità organizzata.L'industria della cybercriminalità vuole massimizzare i profittiGià adesso l'intelligenza artificiale è già utilizzata abbondantemente, dice Duguin: è uno strumento tecnologico che permette di automatizzare, e quindi rendere più efficaci ed economiche, molte attività che per gli attaccanti sono molto costose. "La cybercriminalità – dice Duguin durante un incontro organizzato all'Istituto universitario europeo di Firenze da Microsoft – è una industria che come tale cerca il profitto. Oggi per tutti gli aspetti dei cyberattacchi viene utilizzato molto lavoro manuale di tipo tecnico. Automatizzarne una parte o addirittura tutto vuol dire ridurre i costi e aumentare i profitti dei cybercriminali".L'AI permette di farlo e, secondo Duguin, nel mondo della criminalità ci si sta già lavorando. "È un sistema molto ampio – dice Clint Watts, general manager del Threat Analysis Center di Microsoft – con moltissimi attori diversi che si coordinano tra loro". Una filiera che ha già prodotti strumenti come WormGpt, l'alternativa a ChatGPT disponibile nel dark web e soprattutto priva dei "freni inibitori" programmati da OpenAI nel suo chatbot.Tuttavia, c'è un altro rischio, che sembra preso di peso da un romanzo di fantascienza cyberpunk, e non è quello per la perdita dei posti di lavoro dei cybercriminali. "Con l'AI gli attacchi – dice Duguin – possono diventare completamente autonomi e andare avanti da soli, senza alcun controllo o limite". In pratica: dopo aver costruito un sistema autonomo capace di attaccare reti, violare infrastrutture strategiche, ingannare sistemi di difesa o magari fare disinformazione contro la pubblica opinione di un Paese, basta scrivere un prompt e farà tutto da solo. Ma cosa succede se va avanti senza più fermarsi?La filiera della cybercriminalitàSistemi come questo possono avere impatto in aree molto diverse. Mandare in tilt la rete energetica di un Paese oppure manipolare le informazioni di una elezione. Quest'ultimo aspetto è altrettanto preoccupante. "In Europa, rispetto ad altre aree del mondo – dice Jakub Kalenský, vice direttore del Centro di eccellenza europea per il contrasto della minaccia ibrida — non vediamo moltissima manipolazione delle informazioni. L'attore principale è la Russia, che sfrutta metodologie molto antiche, risalenti alla guerra fredda". Ma il rischio dell'automazione intelligente degli attacchi e della possibile perdita di controllo è concreto anche su questo fronte.

Sopravvissuto in volo nel carrello di un aereo Boing dal Guatemala a Miami

Terza dose di vaccino, la Francia la raccomanda dopo 3 mesi dal completamento del ciclo primarioMACD

Covid, in Nuova Zelanda un uomo si è fatto vaccinare 10 volte in un giorno