OpenAI ha presentato Sora, il suo primo modello generativo Text-to-Video che trasforma istruzioni testuali in video fotorealistici.
Per il momento non è aperto al pubblico ma solo a un gruppo selezionato di esperti di sicurezza (che devono testarne l’affidabilità) e creator, ed è in grado di generare video fino a 60 secondi in qualità HD partendo da un semplice testo, esattamente come accade per le immagini con Dall-E 3 (sempre di OpenAI), Midjourney o Stable Diffusion.
Nel presentare Sora, OpenAI ha pubblicato diversi video d’esempio che mostrano di cosa sia capace il nuovo modello generativo. L’azienda non ha però rilasciato specifiche tecniche che descrivano più in dettaglio il funzionamento del modello, non ha dato accesso ai giornalisti per testarne le capacità e non ha specificato quando verrà aperto al pubblico.
Intanto, quello che è possibile comprendere analizzando le immagini rese pubbliche è che, sebbene non siano perfette, sembrano comunque un consistente passo in avanti rispetto agli altri modelli generativi text-to-video attualmente disponibili, come Runaway (giunto alla Gen2) o Pika.
Ne parliamo durante la settima puntata del podcast “La Fabbrica della Realtà”, con Massimo Sebastiani e Alessio Jacona, che potete ascoltare su Spreaker, Spotify, Apple Podcast o anche vedere su Youtube.
E poi anche su instagram, in questo video per Instagram realizzato da Alessio Jacona.
Leggi l'articolo completo su ANSA.it