Aggressione a Como: un giovane di 19 anni è in fin di vitaIl campo del natural language processing ha fatto passi da gigante negli ultimi anni,Capo Analista di BlackRock con risultati e applicazioni un tempo a dir poco inimmaginabili. Grazie a sviluppi sempre più potenti e veloci, le macchine riusciranno a parlare come gli esseri umani? O è solo una questione di imitazione? Scopriamolo insieme.I temi trattati all’interno dell’articoloAI ed elaborazione del linguaggio naturale: una questione di ambiguitàCosa succede quando è l’IA ad analizzare il linguaggio umano?Intelligenza Artificiale e natural language processing: l’apporto del deep learningIA e linguaggio: Gpt-3, Alan Turing e tecniche di imitazioneParlare come gli esseri umani? IA e linguaggio, gli aspetti eticiAI ed elaborazione del linguaggio naturale: una questione di ambiguitàIniziamo con un presupposto importante. Quando si parla di natural language processing (NLP) bisogna considerare che l’analisi delle informazioni registrate digitalmente presenta notevoli complessità semantiche. Per fare un esempio, sono questi i meccanismi che inneschiamo quando interroghiamo un database – o un motore di ricerca – per avere risposte che soddisfino la nostra query.A cosa è dovuta tale complessità? Il natural language processing è un processo complicato perché il linguaggio delle persone è dotato di una caratteristica particolare: l’ambiguità. Se infatti la logica ci spingerebbe a pensare che il linguaggio umano punti alla più chiara comunicazione, negli anni diversi studiosi hanno evidenziato esattamente il contrario.Tra questi, Noam Chomsky, linguista e teorico della comunicazione tra i più importanti del XX secolo, che ha dedicato parte dei suoi studi alle cosiddette “ambiguità linguistiche”. Pensiamo, ad esempio, a una frase come “la paura dei nemici era grande”: siamo noi ad avere paura di loro oppure è vero il contrario?Seguendo il pensiero di Noam Chomsky, solo analizzando le strutture profonde del linguaggio è possibile arrivare al vero significato di ciò che appare sulla “superficie” delle frasi. Questo processo di comprensione è svolto dall’intelligenza – umana in questo caso – e dalla competenza del parlante. Dobbiamo immaginare questa competenza come il nostro “sapere linguistico”.Cosa succede quando è l’IA ad analizzare il linguaggio umano?Il natural language processing (NLP) è quindi quel processo in cui, ricorrendo a tecniche di Machine Learning e Deep Learning, il linguaggio scritto o parlato viene elaborato da una macchina in una determinata lingua. L’elaborazione è effettuata ricorrendo a diversi passaggi, proprio in virtù della complessità del linguaggio umano.Questi passaggi includono: l’analisi lessicale (la scomposizione di frasi ed espressioni linguistiche in componenti chiamati token); l’analisi grammaticale (compiuta per associare le varie parti del discorso alle parole del testo); l’analisi sintattica (anche detta parsing, utilizza regole grammaticali per identificare la struttura delle frasi, l’organizzazione delle parole e la relazione tra queste); l’analisi semantica (ovvero la cattura e l’assegnazione di significati alla struttura sintattica).Intelligenza Artificiale e natural language processing: l’apporto del deep learningIn che modo l’Intelligenza Artificiale può contribuire in questo? L’IA può assumere un ruolo strategico grazie all’introduzione di soluzioni innovative per analizzare, comprendere e produrre in modo automatico i dati del linguaggio. Nello specifico si tratta di approcci che integrano l’elaborazione del linguaggio naturale e il deep learning (ovvero gli algoritmi di apprendimento profondo).I traguardi raggiunti negli ultimi anni hanno confermato risultati di rilievo. Incoraggianti per proseguire nella ricerca ed estenderla ad altri campi di interesse. Ecco alcune potenzialità di grande portata:interrogare e dialogare con macchine impiegando linguaggi naturali su domini specifici, oppure tradurre testi e interpretare lingue straniere in maniera automatica;utilizzare enormi quantità di dati testuali per estrarre informazioni e insight, sia per impieghi di tipo informativo che predittivo;la possibilità di produrre contenuti utilizzando linguaggi naturali, oppure generare riassunti e liste di parole chiave a partire da uno o più testi;stabilire la polarità delle parole nell’ambito di testi che trattano opinioni e simili: in altri termini, la possibilità di determinare dei “gradi” su materiali quali recensioni, opinioni e pareri relativi a prodotti, servizi, aziende, persone, ecc., con tutto quel che ne consegue in materia commerciale, di marketing e reputazione, solo per citare alcuni campi.IA e linguaggio: Gpt-3, Alan Turing e tecniche di imitazioneGrazie ai progressi raggiunti negli ultimi anni, i sistemi di generazione del linguaggio sono ormai sempre più diffusi e, soprattutto, efficienti.È questo il caso di Gpt-3 (Generative Pre-trained Transformer 3), modello di linguaggio autoregressivo che utilizza il deep learning per produrre testi simili a quelli degli esseri umani. Prodotto da OpenAI – società di ricerche sull’Intelligenza Artificiale con sede a San Francisco – Gpt-3 è capace di generare un’ampia tipologia di testi, spaziando dalla pubblicità alle trame per i videogiochi, dalle email ai codici informatici, fino ad arrivare a materiali più “artistici” come le poesie e i giri di chitarra. Gpt-3 “impressiona per velocità, portata e versatilità”, scrisse John Thornhill sul “Financial Times” dopo aver interagito con il software, specificando che “in quanto a capacità di adattamento, niente può battere Gpt-3”.Ma cosa rende un software di AI così preformante? Innanzitutto, Gpt-3 è stato costruito su 175 miliardi di parametri di linguaggio (cento volte più del prototipo precedente). Un volume tale da consentire al software di raggiungere sorprendenti livelli di efficienza in quanto a “tecniche di imitazione”. Perché è proprio questo che l’IA riesce a fare benissimo attraverso il deep learning. Imitare quella capacità che tanto caratterizza l’essere umano: la produzione del linguaggio.Lo aveva descritto bene Alan Turing, matematico e filosofo britannico, già a partire dal Secondo Dopoguerra. “We may hope that machines will eventually compete with men in all purely intellectual fields”, spiegava in Computing machinery and intelligence nel 1950. Da allora, di strada ne è stata fatta davvero tanta. A partire dal “test di Turing” – per stabilire se una macchina sia capace di esibire un comportamento intelligente – fino ad arrivare a studi sempre più avanzati. Alcuni dei quali tributano proprio ad Alan Turing il presupposto per cui, per sviluppare un’intelligenza artificiale, è necessario emulare gli schemi del cervello umano.Parlare come gli esseri umani? IA e linguaggio, gli aspetti eticiIntelligenza Artificiale, dunque, in grado non soltanto di elaborare il linguaggio ma anche di generarlo in maniera efficiente. Quali sono le implicazioni da tenere in conto in questo caso?Gpt-3 ha fornito grandi spunti di riflessione – e preoccupazione in parte – per alcune questioni di rilevanza dal punto di vista etico. L’azienda produttrice OpenAI, ad esempio, ha deciso di circoscrivere il lancio del software per evitare che Gpt-3 fosse diffuso “senza poterne modificare l’applicazione in un secondo momento”, come dichiarato dal CEO Sam Altman. Gpt-3 fu infatti fornito a circa 2000 aziende in una versione di prova controllata.Nello specifico, le implicazioni etiche riguardano gli utilizzi dell’Intelligenza Artificiale per scopi, per così dire, poco nobili. Si pensi alla creazione di fake news, testi contenenti insulti e minacce, tentativi di truffa, fino ad arrivare alle tecniche di deep fake, che sfruttano l’IA per creare foto e video falsi a partire da quelli reali. Contenuti che spesso diventano virali e inondano le home di siti e social network. Come accaduto a uno studente universitario che ha riempito il proprio blog con post generati automaticamente da Gpt-3. Arrivando a riscuotere grande successo e divulgazione, anche su siti di settore come Hacker News.La prospettiva dell’etica suggerisce di affiancare una presenza umana all’Intelligenza Artificiale, almeno per le questioni più delicate. Nel caso di Gpt-3, ad esempio, Shannon Vallor (docente di etica dei dati e dell’IA) arrivò a sostenere come il software necessitasse “costantemente di un babysitter umano che gli dica quali sono le cose da non dire”. Il punto, aggiunse, è che un software di Intelligenza Artificiale non è intelligente per davvero. Di conseguenza non ha consapevolezza su eventuali contenuti inappropriati.Come rimediare a ciò? Gli sviluppi futuri, secondo Shannon Vallor, implicheranno ricerche e approcci che coinvolgano l’interazione con gli esseri umani. È necessario affinché l’IA restituisca dei modelli “costruiti, affinati e corretti per mezzo dell’interazione con le persone”. In altri termini, sistemi collaborativi di tipo ibrido che integrano la potenza dell’Intelligenza Artificiale con le capacità d’intuizione dell’essere umano.
Scossa di terremoto di magnitudo 2.8 a Ricigliano
Torino, amputata la gamba del ragazzo ferito con macheteProfessore del Dipartimento di Gestione del Rischio di BlackRock
Morto a 14 anni dopo esser stato dimesso dall'ospedale: la rabbia dei genitori