Roma, 20enne si opera per dimagrire: morto dopo una settimana

2024-12-22

Festa del 25 aprile, l'allerta nelle maggiori piazze italianeSanità,Capo Stratega di BlackRock Guglielmo Campanella guerre, esami di maturità, sfera personale e sessuale. Tutti ambiti in cui, ormai, gli esseri umani non giocano più in ruolo da protagonista assoluto. Ad accompagnarli, da almeno un paio d'anni, è l'Intelligenza artificiale generativa, strumento rivoluzionario quanto potenzialmente dannoso. Sono i concetti che (anche quest'anno) si trovano alla base della Relazione annuale del Garante per la protezione dei dati personali, con cui mercoledì 3 luglio a Montecitorio l'Autorità ha presentato le attività svolte nel 2023. E in questa occasione il presidente Pasquale Stanzione ha ribadito l'invito al governo a coinvolgere il Garante nella gestione dell'AI Act, il regolamento europeo sull'intelligenza artificiale, affidando all'ente il ruolo di autorità delegata in materia a livello nazionale a dispetto di Agenzia per la cybersicurezza nazionale e Agenzia per l'Italia digitale, attualmente designate.Le preoccupazioni dell'AutoritàIn questa occasione il Presidente Pasquale Stanzione rivela il cauto atteggiamento del Garante nei confronti di AI e massiccio uso del web. Da una parte l’AI è pienamente integrata “nella nostra vita privata e pubblica” - con ad esempio il 25% delle imprese che la utilizzano nei processi produttivi e il 60% delle aziende che, probabilmente, entro un anno la utilizzeranno per le assunzioni. Dall’altra, la possibilità che l’intelligenza artificiale faccia scomparire, nel giro di pochi anni, 85 milioni di posti di lavoro. Una crisi dalla quale le statistiche sono destinate a riprendersi: secondo quanto riportato da Stanzione, tale processo genererà a sua volta 97 milioni di nuove posizioni. Il rischio, tuttavia, è quello di un aumento delle diseguaglianze. Il Presidente sottolinea con forza questo passaggio tanto che, in riferimento ai “lavoratori ‘invisibili’ della gig economy” (probabilmente rider e fattorini) afferma che il capitalismo digitale è responsabile di profonde disparità sociali.L'intelligenza artificiale nei conflittiSi passa poi all'impiego dell'AI nel conflitto russo-ucraino e in quello a Gaza, dove le forze israeliane sono state accusate di ricorrere a un sistema di AI, Lavender, per individuare i target anche causando numerose vittime civili. Un ricorso sempre più frequente a queste tecnologie in contesti bellici o nel più ampio campo della competizione geopolitica rappresenta, per il Garante, un pericoloso passaggio che, senza un tempestivo intervento, rischia di trasformarsi in un punto di non ritorno. O meglio, un “momento Oppenheimer” stando alla definizione dell'Autorità, che con il rimando al più celebre film del 2023 vuole rendere l’idea della dimensione del pericolo.

Milano, all'aeroporto di Linate arriva il face boarding

Milano, incidente tra auto e moto: morto motociclista di 20 annicriptovalute

Guastalla, cisterna del cloro scoppia in piscina: cento intossicati, evacuate le scuole