openai rivoluziona ia sora creare impressionanti video fotorealistici v4 699939

Non sono passate poi così tante ore dai rumor relativi al possibile futuro arrivo di un motore di ricerca di OpenAI, ma è già giunta l’ora di tornare a fare riferimento a progetti legati a Sam Altman e soci. Infatti, l’azienda ha appena lanciato il suo primo modello text-to-video, rappresentato dall’intelligenza artificiale Sora.

A tal proposito, come fatto notare anche da The Verge, nonché come ufficializzato direttamente tramite il portale ufficiale di OpenAI nella serata italiana del 15 febbraio 2024, il modello sta già arrivando nelle mani dei primi Content Creator, in fase sperimentale (anche per valutare i potenziali rischi legati all’eventuale rilascio per tutti di un modello di questo tipo). Tuttavia, il pubblico può già prendere visione di alcuni video dimostrativi.

Potete vederne alcuni in calce alla notizia, nonché collegandovi eventualmente al profilo Twitter X ufficiale di OpenAI. I risultati non passano di certo inosservati, puntando anche a ricostruire scene realistiche mediante IA. Tutto questo, come già accennato, a partire da un input testuale.

Per intenderci, per il video della donna che cammina in città, l’input utilizzato, tradotto in italiano, è “una donna elegante cammina lungo una strada di Tokyo piena di neon caldi e luminosi e di segnaletica animata. Indossa una giacca di pelle nera, un lungo vestito rosso e degli stivali neri. Porta con sé una borsa nera. Indossa degli occhiali da sole e fa uso di un rossetto rosso. Cammina con sicurezza e disinvoltura. La strada è umida e riflettente, creando un effetto a specchio legato alle luci colorate. Molti pedoni camminano“.

Per il momento la durata massima dei video è di un minuto, ma capite bene che si sta facendo riferimento a una potenziale rivoluzione non di poco conto, anche in ottica futura. D’altronde, si tratta, a livello generale, di “scene complesse con più personaggi, tipi specifici di movimento e dettagli accurati del soggetto e dello sfondo“. Inoltre, stando a OpenAI, Sora è in grado di riconoscere per bene come inserire un soggetto in una scena cercando di ricostruire come sarebbe il suo posizionamento nel mondo fisico, nonché di far esprimere emozioni ai personaggi.

Tra l’altro, il modello text-to-video Sora può generare un video anche a partire da un’immagine fissa, così come eventualmente “estendere” un video esistente oppure “riempire i fotogrammi mancanti”. Certo, la stessa OpenAI ammette che per il momento ci sono ancora alcune imperfezioni, relative ad esempio a come viene riprodotta la fisica in scene complesse. Inoltre, vale la pena notare che ci sono diversi dettagli, già in alcuni video demo, che consentono di capire che si tratta di contenuti generati dall’IA. Tuttavia, sembra difficile non definire impressionante questa ulteriore evoluzione dell’intelligenza artificiale da parte di OpenAI.





Fonte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *