New York (Usa) – ChatGPT di OpenAI è ora in grado di “vedere, sentire e parlare”, o almeno di comprendere le parole pronunciate, rispondere con una voce sintetica ed elaborare immagini, ha annunciato lunedì l’azienda.

L’aggiornamento del chatbot – il più importante di OpenAI dall’introduzione di GPT-4 – consente agli utenti di partecipare alle conversazioni vocali sull’app mobile di ChatGPT e di scegliere tra cinque diverse voci sintetiche con cui il bot può rispondere. Gli utenti potranno anche condividere immagini con ChatGPT ed evidenziare aree di interesse o di analisi.

OpenAI ha dichiarato che le modifiche saranno disponibili per gli utenti paganti nelle prossime due settimane. Mentre la funzionalità vocale sarà limitata alle app per iOS e Android, le capacità di elaborazione delle immagini saranno disponibili su tutte le piattaforme.