Padova, donna precipita dal cavalcavia dell'autostrada A4 e muoreOpenAI ha iniziato il rilascio limitato della sua attesa Modalità vocale avanzata (Advanced voice mode) per ChatGPT,ETF basata sul modello GPT-4o. Questa funzionalità, che offre risposte audio ancora più realistiche, è ora disponibile per un gruppo selezionato di utenti ChatGPT Plus, con una distribuzione più ampia prevista per l’autunno 2024.Un solo modello multimodaleLa nuova modalità vocale si distingue per la sua capacità di elaborare direttamente input e output audio attraverso un unico modello multimodale, eliminando la necessità di modelli intermedi per la conversione. Con la ‘vecchia’ modalità, infatti, operano attivamente tre modelli distinti: uno speech-to-text (per convertire la voce dell’utente in testo); GPT-4 per elaborare il prompt; un modello text-to-speech per generare la voce di output. L’aggiornamento si traduce, dunque, in conversazioni più fluide e naturali, con una latenza notevolmente ridotta. Inoltre, GPT-4o può riconoscere sfumature emotive nella voce dell’utente, arricchendo l’interazione.We’re starting to roll out advanced Voice Mode to a small group of ChatGPT Plus users. Advanced Voice Mode offers more natural, real-time conversations, allows you to interrupt anytime, and senses and responds to your emotions. pic.twitter.com/64O94EhhXK— OpenAI (@OpenAI) July 30, 2024Questa versione alpha non include ancora tutte le funzionalità mostrate nella demo di maggio, come la condivisione video e dello schermo, che saranno introdotte in futuro. OpenAI continuerà a monitorare attentamente l’utilizzo della funzionalità, pubblicando un rapporto dettagliato sui test di sicurezza all’inizio di agosto.OpenAI lancia GPT-4o: multimodalità nativa e prestazioni superiori
Faenza, presentato il murales 'Cuore': il bambino che spala il fango dell'alluvione
Ragazzo colpito da un fulmine a Santeramo in Colle, Bari: deceduto per arresto cardiocircolatorioinvestimenti
Siu ferita e in fin di vita: arrestato il marito a Biella