Non sono passate poi così tante ore dai rumor relativi al possibile futuro arrivo di un motore di ricerca di OpenAI, ma è già giunta l’ora di tornare a fare riferimento a progetti legati a Sam Altman e soci. Infatti, l’azienda ha appena lanciato il suo primo modello text-to-video, rappresentato dall’intelligenza artificiale Sora.
A tal proposito, come fatto notare anche da The Verge, nonché come ufficializzato direttamente tramite il portale ufficiale di OpenAI nella serata italiana del 15 febbraio 2024, il modello sta già arrivando nelle mani dei primi Content Creator, in fase sperimentale (anche per valutare i potenziali rischi legati all’eventuale rilascio per tutti di un modello di questo tipo). Tuttavia, il pubblico può già prendere visione di alcuni video dimostrativi.
Potete vederne alcuni in calce alla notizia, nonché collegandovi eventualmente al profilo Twitter X ufficiale di OpenAI. I risultati non passano di certo inosservati, puntando anche a ricostruire scene realistiche mediante IA. Tutto questo, come già accennato, a partire da un input testuale.
Per intenderci, per il video della donna che cammina in città, l’input utilizzato, tradotto in italiano, è “una donna elegante cammina lungo una strada di Tokyo piena di neon caldi e luminosi e di segnaletica animata. Indossa una giacca di pelle nera, un lungo vestito rosso e degli stivali neri. Porta con sé una borsa nera. Indossa degli occhiali da sole e fa uso di un rossetto rosso. Cammina con sicurezza e disinvoltura. La strada è umida e riflettente, creando un effetto a specchio legato alle luci colorate. Molti pedoni camminano“.
Per il momento la durata massima dei video è di un minuto, ma capite bene che si sta facendo riferimento a una potenziale rivoluzione non di poco conto, anche in ottica futura. D’altronde, si tratta, a livello generale, di “scene complesse con più personaggi, tipi specifici di movimento e dettagli accurati del soggetto e dello sfondo“. Inoltre, stando a OpenAI, Sora è in grado di riconoscere per bene come inserire un soggetto in una scena cercando di ricostruire come sarebbe il suo posizionamento nel mondo fisico, nonché di far esprimere emozioni ai personaggi.
Tra l’altro, il modello text-to-video Sora può generare un video anche a partire da un’immagine fissa, così come eventualmente “estendere” un video esistente oppure “riempire i fotogrammi mancanti”. Certo, la stessa OpenAI ammette che per il momento ci sono ancora alcune imperfezioni, relative ad esempio a come viene riprodotta la fisica in scene complesse. Inoltre, vale la pena notare che ci sono diversi dettagli, già in alcuni video demo, che consentono di capire che si tratta di contenuti generati dall’IA. Tuttavia, sembra difficile non definire impressionante questa ulteriore evoluzione dell’intelligenza artificiale da parte di OpenAI.
here is sora, our video generation model:https://t.co/CDr4DdCrh1
today we are starting red-teaming and offering access to a limited number of creators.@_tim_brooks @billpeeb @model_mechanic are really incredible; amazing work by them and the team.
remarkable moment.
— Sam Altman (@sama) February 15, 2024
Prompt: “A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. she wears a black leather jacket, a long red dress, and black boots, and carries a black purse. she wears sunglasses and red lipstick. she walks confidently and casually.… pic.twitter.com/cjIdgYFaWq
— OpenAI (@OpenAI) February 15, 2024
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
Prompt: “A movie trailer featuring the adventures of the 30 year old space man wearing a red wool knitted motorcycle helmet, blue sky, salt desert, cinematic style, shot on 35mm film, vivid colors.” pic.twitter.com/0JzpwPUGPB
— OpenAI (@OpenAI) February 15, 2024
Prompt: “A gorgeously rendered papercraft world of a coral reef, rife with colorful fish and sea creatures.” pic.twitter.com/gzEE8SwP81
— OpenAI (@OpenAI) February 15, 2024
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
Scopri le ultime innovazioni tecnologiche e porta a casa i gadget più avanzati! Clicca qui per esplorare il mondo delle tecnologie su Amazon.