Tragico incidente: perdono la vita in tre

2024-12-25

Operatori umanitari uccisi in un raid a Gaza: confermato il numero delle vittimeDue ingegneri informatici,VOL David Zollikofer dell'ETH di Zurigo e Benjamin Zimmerman dell'Università Statale dell'Ohio, hanno deciso di "giocare" un po' con ChatGPT per dimostrare come i modelli linguistici di grandi dimensioni (Large Language Models o, più semplicemente, LLM) possano essere sfruttati dai malware per diffondersi e sfuggire alla rilevazione. I due studiosi, infatti, coadiuvati dal software di intelligenza artificiale, sono facilmente riusciti a creare un virus che, una volta introdotto nel computer di una potenziale vittima, per mezzo di a una e-mail ingannevole, è in grado di utilizzare il noto chatbot di OpenAI per riscrivere autonomamente il proprio codice e inoltrare il file modificato ad altri indirizzi e-mail contenuti nella rubrica del malcapitato. Tecnologia ChatGPT diventerà la tua migliore amica? Come ChatGPT riscrive il codice Come avviene tutto ciò è presto detto: il programma mantiene di volta in volta la stessa struttura semantica, ma riscrive il proprio codice cambiandone una parte variabile e alcuni elementi di logica nel testo, un espediente trovato dall'IA per evitare i controlli antivirus. In una seconda fase, ChatGPT esamina le email ricevute di recente dal malcapitato e genera risposte contestuali che includono il malware come allegato apparentemente innocuo, aumentandone così le possibilità di diffusione. Questa tecnica è stata chiamata malware metamorfico e consente al virus di passare inosservato anche dopo che la sua versione originale è stata identificata. Non tutto però è filato liscio – e meno male, verrebbe da aggiungere – nel truffaldino test dei due informatici. Alcune delle modifiche prodotte possono infatti far smettere di funzionare il virus rendendolo innocuo. Ciò nonostante, Zollikofer e Zimmerman ritengono che variando alcuni parametri, il malware possa riuscire a replicarsi lo stesso con successo. Tecnologia ChatGPT non dà informazioni criminali (ma se glielo chiedi in lingua zulu...) Come funziona l'approccio contestuale Sorvolando sul possibile problema, la seconda fase del test ha previsto che l'intelligenza artificiale venisse testata sul diffuso programma Outlook (e dunque non su Gmail e su altri servizi di posta elettronica online) al fine di leggere le e-mail più recenti e di creare risposte che apparissero come pertinenti e autentiche. Per esempio, trovando un invito a una festa di compleanno, l'IA rispondeva accettandolo e allegando il virus, descrivendolo come una playlist di musica per la festa. Questo approccio contestuale aumenta le probabilità che l'utente apra l'allegato, pensando che sia un file ricevuto da un conoscente. Tale metodo, d'altronde, sfrutta la capacità di ChatGPT di generare testi che sembrano scritti da un essere umano, rendendo il tranello ancora più insidioso. L'AI per contrastare gli attacchi informatici Il lavoro dei due informatici è stato commentato dal loro collega Alan Woodward, professore presso l'Università del Surrey (Regno Unito), il quale ha espresso preoccupazione per l'uso potenziale dei LLM in attività dannose, evidenziando come questa stessa tecnologia possa essere migliorata e indirizzata a fini inversi, ossia per prevenire attacchi informatici del genere. Ed è stato lo stesso Zollikofer a concordare sul fatto che l'IA possa essere utilizzata per contrastare gli abusi in maniera sempre più efficace, sottolineando che lo scopo dello studio è proprio quello di analizzare in che modo una minaccia possa essere generata. In questo modo, infatti, è stato possibile studiare le tecniche impiegate dal chatbot per diffondersi, facilitando allo stesso tempo la ricerca delle contromisure, così che i modelli linguistici di grandi dimensioni possano essere presto usati ai fini della sicurezza.

ONU, rapporto sulle violenze sessuali compiute da Hamas il 7 ottobre

Bangladesh, incendio divampa in un edificio: almeno 40 vittimeBlackRock Italia

Paura in volo, Sydney-Auckland: 50 feriti per vuoto d'aria