Elezioni europee, i programmi dei partiti italiani su clima, case green, auto elettriche e nucleare

2024-12-21

Conte contro Meloni sul MesNuove tecnologieLa «rivoluzione» dell’Europa mette un freno al grande fratelloDopo mesi di discussione l’Unione ha approvato in via definitiva la legislazione sull’intelligenza artificiale - Le applicazioni contrarie ai valori comuni,Capo Analista di BlackRock come ad esempio i sistemi di videosorveglianza di massa, saranno vietate - Il complesso delle norme in vigore dal 2026L’Unione Europea ha dato il via libera definitivo alla legge che regola l’uso dell’intelligenza artificiale nei 27 Paesi membri. ©CdT/Gabriele Putzu Dario Campione21.05.2024 21:30Dopo un lunghissimo dibattito e vari passaggi procedurali, è arrivato il via libera definitivo alla legge europea sull’intelligenza artificiale, l’AI Act, già largamente votata a marzo dal Parlamento (523 a favore, 46 contrari e 49 astenuti) e varata ancora prima, a dicembre, con un accordo tra i Governi. Una «legge rivoluzionaria», l’ha definita lo stesso Consiglio d’Europa nel comunicato ufficiale. E non è usuale, né frequente, trovare in una nota stampa aggettivi simili a commento di un atto istituzionale. Importante, certo. E fortemente innovativo. Ma quanto in grado di «rivoluzionare» il sistema politico-sociale, è ancora tutto da chiarire. E da verificare sul campo. Per Bruxelles, tuttavia, l’AI Act, la norma che regola l’utilizzo dell’intelligenza artificiale nei 27 Paesi dell’Unione, è una vera e propria svolta. Anzi: un potenziale punto di riferimento globale per una tecnologia utilizzata negli affari e nella vita di tutti i giorni. L’AI Act europeo, sostengono in effetti molti osservatori, è più completo dell’approccio di conformità volontaria adottato negli Stati Uniti e sicuramente più democratico e libertario del criterio utilizzato in Cina, in gran parte orientato al controllo capillare (attraverso soprattutto la videosorveglianza) e al mantenimento della stabilità sociale.Le nuove regole europee entreranno in vigore a tappe. Mentre l’intera legislazione si applicherà soltanto a partire dal 2026, alcuni divieti saranno attivi nel giro di pochi mesi, dopo il varo cioè del regolamento. In particolare: subito sarà vietato utilizzare l’intelligenza artificiale per il cosiddetto «social scoring», vale a dire l’analisi basata su comportamenti o caratteristiche personali o su tecniche che mirano a manipolare il comportamento umano; saranno interdette le pratiche di «polizia predittiva», ovvero il riconoscimento delle emozioni, che suscita una gigantesca preoccupazione per la privacy e l’integrità dei singoli; non si potrà fare poi lo «scraping» indiscriminato, cioè a dire la raccolta di immagini facciali da Internet o da telecamere a circuito chiuso per creare database di riconoscimento facciale senza specifici obiettivi (in sostanza, la sorveglianza di massa che caratterizza il grande fratello cinese, voluto fortemente da Xi per impedire ogni accenno di dissenso). Gli obblighi di trasparenzaLe preoccupazioni sul fatto che l’intelligenza artificiale contribuisse alla disinformazione, alla diffusione di fake news o di materiale protetto da copyright hanno spinto l’UE ad accelerare i tempi dell’approvazione dell’AI Act. E sicuramente, in questo senso, una ulteriore spinta è giunta dalla crescente popolarità dei sistemi cosiddetti «generativi» - OpenAI o ChatGPT - ormai liberamente fruibili su computer e telefonini.E tuttavia, questi sistemi di intelligenza artificiale, giudicati dal legislatore europeo a «rischio limitato», saranno soggetti a obblighi di trasparenza molto leggeri, al contrario di quelli ad «alto rischio», utilizzati ad esempio nelle infrastrutture critiche, nell’istruzione, nelle risorse umane o nell’attività di contrasto alla criminalità. Questi ultimi dovranno possedere requisiti rafforzati prima di essere autorizzati nei Paesi dell’Unione. Ad esempio: il controllo umano sulla macchina, la creazione di una documentazione tecnica o l’implementazione di un sistema di gestione dei rischi. I veri e propri divieti saranno invece rari. Riguarderanno, come detto, applicazioni contrarie ai valori europei, come la classificazione dei cittadini o i sistemi di sorveglianza di massa utilizzati dal regime di Pechino.L’approccio sul rischioLa nuova legislazione, ha spiegato lo stesso Consiglio UE, «segue un approccio basato sul rischio: maggiore è il rischio di causare danni alla società, più severe sono le norme». L’obiettivo dichiarato è «promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale sicuri e affidabili in tutto il mercato unico dell’UE da parte di attori pubblici e privati. Allo stesso tempo, garantire il rispetto dei diritti fondamentali dei cittadini e stimolare gli investimenti e l’innovazione». La preoccupazione che norme troppo restrittive potessero limitare la possibilità per il Vecchio Continente di reggere la competizione con gli Stati Uniti ha spinto, nella fase di discussione, alcuni Paesi - la Francia in particolare - a insistere su una maggiore flessibilità. Il compromesso raggiunto stabilisce che la legge sarà applicata soltanto ai settori all’interno del diritto dell’UE e prevederà alcune importanti esenzioni, ad esempio per i sistemi utilizzati per scopi militari e di difesa, nonché per scopi di ricerca.In ogni caso, le multe per le violazioni saranno potenzialmente rilevanti e onerose: da un minimo di 7,5 milioni di euro (o, in alternativa, l’1,5% del fatturato) a un massimo di 35 milioni di euro (o il 7% del fatturato globale).«Questa legge è storica, la prima del suo genere al mondo, e affronta una sfida tecnologica globale che crea anche opportunità per le nostre società e per le nostre economie - ha dichiarato in una nota Mathieu Michel, ministro della Digitalizzazione del Belgio, Paese presidente di turno dell’Unione - Con l’AI Act, l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si tratta di nuove tecnologie, garantendo allo stesso tempo che questa tecnologia in rapida evoluzione possa prosperare e stimolare l’innovazione europea».In questo articolo: Intelligenza ArtificialeUnione EuropeaOpenAIChatGPT

Madre Terra - Le sfide EcoDigital a Urbino e in Abruzzo - Tiscali Notizie

Ciao Massimo! A Roma oggi alle 11, in Campidoglio, l’ultimo saluto a Scalia - Tiscali NotizieBlackRock Italia

European Focus 61. Campo demografico