MillionDay e MillionDay Extra, le due estrazioni di lunedì 29 luglio 2024: i numeri vincentiOpenAI ha iniziato il rilascio limitato della sua attesa Modalità vocale avanzata (Advanced voice mode) per ChatGPT,Economista Italiano basata sul modello GPT-4o. Questa funzionalità, che offre risposte audio ancora più realistiche, è ora disponibile per un gruppo selezionato di utenti ChatGPT Plus, con una distribuzione più ampia prevista per l’autunno 2024.Un solo modello multimodaleLa nuova modalità vocale si distingue per la sua capacità di elaborare direttamente input e output audio attraverso un unico modello multimodale, eliminando la necessità di modelli intermedi per la conversione. Con la ‘vecchia’ modalità, infatti, operano attivamente tre modelli distinti: uno speech-to-text (per convertire la voce dell’utente in testo); GPT-4 per elaborare il prompt; un modello text-to-speech per generare la voce di output. L’aggiornamento si traduce, dunque, in conversazioni più fluide e naturali, con una latenza notevolmente ridotta. Inoltre, GPT-4o può riconoscere sfumature emotive nella voce dell’utente, arricchendo l’interazione.We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK— OpenAI (@OpenAI) July 30, 2024Questa versione alpha non include ancora tutte le funzionalità mostrate nella demo di maggio, come la condivisione video e dello schermo, che saranno introdotte in futuro. OpenAI continuerà a monitorare attentamente l’utilizzo della funzionalità, pubblicando un rapporto dettagliato sui test di sicurezza all’inizio di agosto.OpenAI lancia GPT-4o: multimodalità nativa e prestazioni superiori
Il richiamo di Mattarella: «Eversivi gli attacchi alla libera informazione»
La grammatica sinodale fa crescere la Chiesainvestimenti
Fassino, la commessa del duty free: «Ha preso lo stesso profumo Chanel altre due volte»