Esce di casa con il cappellino da baseball al posto del velo: 16enne uccisa in Iran

2024-12-05

Guerra in Ucraina, Zelensky: "Se Putin fa saltare la diga dichiara guerra al mondo"L’avvocato Stefano Rossetti fa parte del team di Noyb,investimenti il Centro europeo per i diritti digitali fondato da Max Schrems, l’austriaco che in passato in nome della privacy ha sfidato Facebook (e ha vinto). Abbiamo chiesto a Noyb cosa ne pensa della scelta del Garante per la privacy italiano, che ha bloccato Chat GPT. Rossetti spiega perché il Garante ha ragione. L’informazione fornita non è adeguata, la raccolta massiva di informazioni sul web per finalità commerciali è generalmente vietata. Infine, c’è la questione dei meccanismi di verifica dell’età: il Garante ha ragione, in teoria e in pratica. In passato, quando la authority aveva bloccato TikTok, si era parlato di atteggiamento anti tecnologico. Eppure, dopo alcune settimane, TikTok ha dovuto adeguarsi. Medesimi rilievi critici vengono ora mossi per il blocco di Chat GPT. Da un punto di vista giuridico, tuttavia, le violazioni e i rischi sono evidenti. Il Garante ha agito con un mix di coraggio e competenza. Open AI ha il diritto di ricorrere a un giudice e dimostrare la correttezza del proprio operato. Fino a quel momento, però, la legge in vigore si applica, a chiunque. It’s the rule of law, baby. Si discute molto del recente blocco di Chat GPT da parte del Garante. Il provvedimento ha carattere scarno, tratto tipico degli atti di urgenza. Le principali violazioni riscontrate sono le seguenti: radicale mancanza di informazione sul trattamento dati,  assenza di titolo giuridico per addestrare l’algoritmo, nessun meccanismo di verifica dell’età degli utenti. Informazione inadeguata Provate a leggere la privacy policy di Chat GPT. Un documento estremamente vago, che non spiega gli elementi essenziali del trattamento e non chiarisce le fonti utilizzate per addestrare l’algoritmo. Per coloro che riescono ancora ad accedere al servizio, provate a chiedere all’AI stessa di dirvi da dove recupera i vostri dati. Con un po’ di reticenza, il software vi svelerà di utilizzare fonti pubbliche, e non meglio precisate banche dati. Dunque, il Garante ha ragione. l’informazione fornita non è adeguata. Base giurica inesistente Il Garante rileva «l’assenza di idonea base giuridica in relazione alla raccolta dei dati» per sviluppare l’algoritmo. Occorre studiare con attenzione tale rilievo. In ogni caso, senza dilungarci troppo in tecnicismi, la raccolta massiva di informazioni sul web per finalità commerciali è generalmente vietata. Per fare un esempio: vi piacerebbe che qualcuno usasse le vostre foto su Instagram al Gay Pride e le condividesse con il governo iraniano? Informazione disponibile online, certo, ma non significa sia tutto possibile. Rischi per i minori Infine, la questione dei meccanismi di verifica dell’età. Il Garante ha ragione, in teoria e in pratica. Per capire quali sono i rischi, cercate la storia di Molly Russell, anni quattordici, suicida dopo essere stata bombardata da post personalizzati su Instagram. Argomento dei post? Semplice: suicidio, lesioni autoinflitte, depressione, inadeguatezza (per maggiori info, suggeriamo la straordinaria puntata di Presa Diretta, “La scatola nera”, 20.3.2023). Oppure, ancora, il drammatico caso della bambina di Palermo, anni dieci, morta per via di una cosiddetta Black out challenge su TikTok (in breve, l’idea è quella di stringersi una cintura intorno al collo e resistere senza aria fin quando si può). Decidere In quel caso, visti i rischi evidenti, il Garante aveva bloccato TikTok sul territorio italiano, richiedendo di adottare misure di verifica dell’età a tutela degli utenti più vulnerabili. In risposta, si era parlato di atteggiamento anti-tecnologico del Garante. Eppure, dopo alcune settimane, TikTok ha dovuto adeguarsi. Medesimi rilievi critici vengono ora mossi per il blocco di Chat GPT. Da un punto di vista giuridico, tuttavia, le violazioni e i rischi sono evidenti, come illustrato. Non c’è nulla di controverso nella semplice applicazione della legge, anche e soprattutto nei confronti di tecnologie così innovative. Il Garante ha agito con un mix di coraggio e competenza, esattamente quel che chiediamo alle nostre istituzioni. Rimedi Ciò non esclude che la decisione possa essere errata. Open AI ha il sacrosanto diritto di ricorrere a un giudice e dimostrare la correttezza del proprio operato. Se un errore giuridico c’è stato, la giurisdizione italiana o internazionale si occuperà di annullare la decisione. E laddove il risultato della ordinata applicazione della legge dovesse essere insoddisfacente, per qualunque ragione politica, economica o sociale, allora la questione potrà essere discussa pubblicamente, e se del caso nuove leggi potranno sacrificare la protezione dei dati personali sull’altare dell’intelligenza artificiale. Fino a quel momento, però, la legge in vigore si applica, a chiunque. It’s the rule of law, baby. Riflessioni Le possibilità dell’AI sono potenzialmente illimitate. Centinaia di professioni possono essere cancellate con effetti dirompenti sul mercato del lavoro. Abbiamo molti anni davanti a noi per permettere e guidare questi cambiamenti. Ma ora è il momento di riflettere attentamente. Citeremo un certo Elon Musk, che, insieme ad altri 1.100 firmatari, ha di recente pubblicato una lettera aperta in cui si suggerisce di sospendere lo sviluppo di questa tecnologia: «Questa pausa dovrebbe essere pubblica e verificabile e coinvolgere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria». Ancora così sicuri che il Garante abbia sbagliato? Stefano Rossetti è avvocato presso Noyb – European Center for Digital Rights  © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediStefano Rossetti

Uccise l'amica incinta per strapparle il figlio dal grembo: condannata a morte

Proteste in Perù: due morti tra i sostenitori di CastilloEconomista Italiano

Non riesce a deglutire per la gola perforata da un seme di mango, ma l'ospedale la manda a casa