Londra, aereo decolla senza due finestrini: la scoperta in volo

2024-12-05

Putin si ricandida alla presidenza della RussiaL’ottava puntata di AI Talks,VOL il format di interviste di AI news alla scoperta dell’intelligenza artificiale, è con Valeria Lazzaroli, chief risk officer e chairperson dell’Enia, Ente nazionale per l’intelligenza artificiale.Valeria Lazzaroli è founder dello Spin Off Universitario deep tech Arisk SpA per la predizione dei rischi fisici, critici, cyber e finanziari, presidente del Comitato scientifico di Entd (Ente nazionale per la trasformazione digitale), presidente dell’Enase (Ente nazionale per la space economy) e autrice di numerosissimi position paper scientifici relativi al financial risk e alla cybersecurity in AIFirm e Clusit. In ultimo, da poco è chairperson nel Board di Enia (Ente nazionale per l’intelligenza artificiale).Partiamo da una definizione, che cos’è l’intelligenza artificiale?L’intelligenza artificiale è un ampliamento del tema della matematica e della statistica, un booster della capacità computazionale e, soprattutto, la capacità, attraverso la grandissima quantità di dati che gestisce, di avere una maggiore profondità e una maggiore velocità di visione del problema del quale si cerca una soluzione.Approfittando subito del tuo importante osservatorio, a che punto siamo con l’AI Act?Il mio plauso per aver raggiunto una normativa nella più ampia condivisione di tutti i Paesi membri. Il buon senso è sopraggiunto, e siamo arrivati ad avere una normativa importante che è un primo riferimento, ma che a mio convincimento chiede a ogni Stato membro di creare delle politiche attive per adottarla. Una cosa è eseguire un’elencazione dei vari rischi in vari ambiti, una cosa è dire come si controlla, com’è l’attività di collegamento tra i vari garanti, evitando overlapping e supportando l’aspetto innovativo dell’AI. L’innovazione non va fermata, perché ci sono contesti come quello europeo che più che mai necessitano di importanti leve sulla valutazione di situazioni legate ai rischi. L’AI è una grandissima leva per analizzare in maniera completa, puntuale e predittiva i tanti aspetti di un’innovazione che va velocissima e che quindi può essere un reale supporto alla crisi economica e industriale che sta ancorando l’intera macchina europea.Quali sono le proposte di regolamentazione che si stanno studiando in questo momento?Andranno di pari passo con l‘innovazione, perché con la transizione digitale, energetica, di genere, le grandi transizioni che stanno impattando e che si evolveranno dettando nuovi KPI e nuove tassonomie, l’AI Act verrà costantemente rigenerato man mano che queste innovazioni avanzeranno. Il fatto di aver classificato alcuni rischi principali non significa che questo sia un universo già definito. Saranno così tanti gli algoritmi di AI, che la macchina dovrà essere costantemente ritoccata e riveduta per avere una maggiore aderenza all’innovazione tecnologica.Vedo dei grandi punti fermi, come il “rischio inaccettabile” in alcuni contesti di cui il rilevamento biometrico è un esempio, come un punto di partenza, ma questo mi pone dubbi sulla sinergia tra questa direttiva e quello che fanno le big tech.L’Europa regola e il resto del mondo avanzaE, guardando al resto d’Europa, l’Italia come si sta muovendo?Vedo una grandissima sensibilità dell’attuale Governo, con il sottosegretario Alessio Butti e la Presidenza del Consiglio dei ministri, attiva in quello che dovrà essere sia il recepimento della normativa, che le ricadute. Senza dubbio occorre fare rete, istituire più partenariati pubblici e privati, perché da sola una macchina pubblica non può governare un’attività di concertazione che deve essere fatta tra università, poli di trasferimento industriale e tecnologico, la macchina pubblica stessa e il privato. L’Italia fatica a sostenere la crescita delle startup e la nuova normativa, se ben coordinata, può facilitare la nascita di startup che grazie a sandbox su cui provare il loro progetto, possono essere di aiuto alla crescita del Paese.Qual è il ruolo di Enia in questo momento e su cosa si sta focalizzando?L’Associazione è neocostituita, ma la seniority dei fondatori ha fatto sì che si potesse partire con le idee molto chiare. Tra queste dare servizi alle aziende aderenti, essere una sorta di hub dove da una parte trovare gli amici dell’AI, professional di elevata esperienza, tecnocrati, per essere uno strumento di alfabetizzazione. Non sarà l’unica, ma si affiancherà a tutte le realtà che vogliono fare alfabetizzazione. Dall’altra, fornire sandbox a tutte le aziende che volessero provare ad avere un primo giudizio, una prima valutazione informale sulle caratteristiche del loro algoritmo, in modo che l’innesto sul mercato sia confortato da pareri specialistici di comitati strategici e scientifici che stiamo creando in Enia.Facciamo un passo più in profondità, AI e governance. Quali sono i maggiori punti di attenzione che vedi in questo ambito?La governance di una materia così delicata starà nel creare un cordone a supporto di chi produce AI in più contesti. Da una parte, la vigilanza sull’uso, sapere e conoscere la destinazione di ogni algoritmo, non solo nella sua trasparenza. Su questo punto, ad esempio, in Arisk abbiamo fatto in modo che ogni algoritmo diventasse uno standard internazionale, cedendo il nostro know-how al pubblico per far sì che non restasse black box, e che avendo riscontri scientifici, potesse creare una dialettica aperta sul funzionamento e gli ambiti che andava a toccare. In questo modo si possono eseguire mappature molto precise in logica project risk manager sui settori toccati e sulle ricadute. E considerato che parliamo di dati, è il momento di creare un’infosfera non tossica, mappabile, e capace di attivare più agevolmente le leve di miglioramento.Nelle imprese, cosa manca per poter sviluppare al meglio l’adozione delle tecnologie di AI?Budget, conoscenza, probabilmente una maggiore formazione di tutto quel tessuto professionale che è intorno all’azienda. Ognuno nella propria competenza, dal commercialista all’associazione di categoria, ai consulenti, in primis la macchina legale, può contaminare l’azienda nel dimostrare come l’efficienza dell’AI possa sopperire ad esempio al vuoto operativo, o a un bisogno di assetto organizzativo. Cito qualcosa di urgente. Da qualche anno è partito il nuovo codice della crisi d’impresa. Necessita di forward-looking e di adeguati assetti organizzativi, cosa che inizialmente sembrava limitata ai flussi finanziari, e che invece si è capito toccare aspetti organizzativi che riguardano il presidio dei rischi, che devono essere formulati in una logica data-driven. Data-driven significa che, se sei un’impresa piccola o grande soggetta a una crisi, devi avere un assetto informatico e informativo tale per cui la dimensione organizzativa non deve costituire un limite.Intervista a Fabio Ferrari, il presente dell’AI nelle aziende: a che punto siamo | AI Talks #7Se dobbiamo arrivare a questo traguardo, ogni consulente che ruota intorno alla vita dell’imprenditore deve spingerlo a dotarsi di strumenti, e l’AI inizia a essere molto economica. È facile da implementare perché non sostituisce le figure professionali in azienda, ma è soltanto un acceleratore per le definizioni di analisi in cui occorrono dati per decidere al meglio, e che lei fornisce in maniera dettagliata e predittiva. Per cui sicuramente anche il rischio finanziario, ma anche tutti quei rischi operativi che possano portare a un fallimento o interruzione dell’attività dell’azienda. Quindi perché non dotarsi di soluzioni che sopperirebbero al monitoraggio dei rischi, il famoso risk assessment richiesto ovunque, con ricadute quotidiane che l’AI di qualità potrebbe svolgere come un fornitore di dati terzo e indipendente che può assolvere alle attività dell’imprenditore ormai richieste da tutte le normative in essere?E dal tuo osservatorio come risk officer, quali sono le tematiche relative ai rischi in cui credi occorrerà maggiore attenzione parlando di AI?Vorrei partire dall’esempio di un bel progetto che parla dell’importanza dell’AI e della sua indipendenza e terzietà. Parliamo di una zona del Val Basento, nel retroporto di Taranto, tasso di inquinamento elevatissimo con elevate perdite umane e la necessità di reindustrializzare la zona. Qui arriva la visione di un piccolissimo comune di dotarsi grazie all’AI di un soggetto terzo che inizi a raccogliere i dati di sostenibilità, rischi fisici, critici, cybersecurity, di tutte le aziende che andranno a ripopolare la zona, condividendo l’output tra l’ente locale, le aziende, le assicurazioni che dovranno garantire il finanziamento delle banche che parteciperanno al tavolo operativo in cui ognuno avrà lo stesso dato. L’AI predittiva farà sì che ognuno, per la propria parte, possa programmare piani di protezione e resilienza. Un coordinamento progettuale che porta allo stesso obiettivo, il bene comune.In ultimo, quali sono, secondo te, i prossimi passi che non possono più attendere nell’implementazione dell’AI a livello di governance e regolamentazione?I prossimi passi saranno l’istituzione di uffici pubblici che recepiranno le nuove normative e diverranno il front end per fornire risposte alle startup che aumenteranno, dando prime risposte e fornendo strumenti e soluzioni, come sandbox, risposte puntuali, interfacce con specialisti di settore che sappiano dare consigli. Occorre dare consistenza e valenza alle normative, evitando colli di bottiglia. Serve più che mai fare rete, coinvolgendo in primis il reticolo delle università, perché il rigore scientifico supera quello legale. Infine coinvolgere le realtà private che hanno l’obiettivo di dare risposte pubbliche come l’Enia, realtà che si metteranno a disposizione per fornire supporto alle imprese, evitando ingorghi potenziali sulle risposte da fornire.

Russia, arrestato italo-russo accusato di sabotaggio

India, 40 operai bloccati in un tunnel crollatoCapo Stratega di BlackRock Guglielmo Campanella

Usa, Kaitlin Armstrong condannata per l'omicidio della ciclista Mo Wilson