OpenAI continua a spingere i limiti dell'intelligenza artificiale generativa. Nelle ultime ore, l'account ufficiale dell'azienda sul social network X ha pubblicato un post affermando: "C'è un nuovo modello Gpt-4o in ChatGpt. Pensiamo che vi piacerà" seguito da un'emoji con una faccina sorridente. Prima dell'annuncio, gli utenti avevano notato che il modello di base su cui si basa ChatGpt sembrava comportarsi in modo diverso e più veloce dell'attuale. Come scrive qualcuno su X, tra cui l'account @AI For Humans Show, adesso il chatbot può produrre immagini di qualità superiore, intervenendo anche sulle scritte che compaiono nelle grafiche, in maniera più precisa e senza i classici errori visuali degli altri software di IA. OpenAI ha introdotto altre migliorie di base al chatbot che sono conseguenza dei suggerimenti degli utenti, inviati come feedback sin dal lancio di Gpt-4o, meglio conosciuto come "omnia". Questo ha capacità multimodali, ossia di comprensione e generazione di contenuti vocali, oltre che testuali e grafici. A distanza di poco dal post su X, OpenAI ha scritto sul proprio sito: "Abbiamo introdotto un aggiornamento di GPT-4o che arriva grazie ai risultati degli esperimenti e al feedback che gli utenti di ChatGpt hanno rilasciato. Non è un nuovo modello ma un miglioramento del precedente". Nella tarda serata di ieri, Google ha lanciato Gemini Live, un aggiornamento del suo chatbot con possibilità di interazione vocale. Sarà disponibile a giorni solo negli Stati Uniti e in inglese, a partire dagli smartphone Pixel, per poi essere esteso ad altre lingue in futuro.
Leggi l'articolo completo su ANSA.it