Ces dernières semaines, j'ai expérimenté le modèle de génération de vidéo d'OpenAI, Sora, pour explorer comment des histoires très émotionnelles peuvent être racontées en seulement 30 secondes, avec des résultats surprenants.
J'ai créé deux courts-métrages à l'aide de Sora, tous deux basés sur des idées émotionnelles. Le processus a été riche sur le plan créatif, mais il s'est accompagné d'une courbe d'apprentissage - et d'une appréciation plus profonde du fait que le moins c'est le mieux dans cet outil.
Film 1 : L'avion en papier
Dans le premier film, un jeune garçon fabrique un avion en papier et le jette par la fenêtre. Nous le suivons alors qu'il glisse dans un parc, où une femme âgée l'attrape délicatement au cours d'une promenade. Son visage s'illumine, non pas de surprise, mais de reconnaissance.
Le message est simple :
L'esprit d'émerveillement ne vieillit jamais.
Contenu généré par SORA-Music à partir de Pixabay.
Film 2 : La mémoire des crêpes
Le deuxième film adopte un ton plus réfléchi. Un homme âgé est assis en silence dans une maison de retraite, perdu dans ses pensées. Nous entrons dans sa mémoire : une chaude matinée, sa jeune fille faisant des crêpes. Ce souvenir lui revient au moment où, dans la vie réelle, sa fille devenue adulte lui rend visite à la maison de retraite.
Le message final :
Les moments ordinaires nous accompagnent pour toujours.
Contenu généré dans SORA-Musique de Pixabay.
Ce que j'ai appris au cours de ce processus
Il faut du temps.
Nous avons distillé chacune de ces vidéos de 30 secondes à partir de plus de 40 générations de vidéos. On ne peut pas se précipiter, mais le gain émotionnel est réel.
Moins de détails, plus de clarté.
Sora s'épanouit lorsque vous gardez chaque message précis et net. Surcharger la scène de mouvements ou d'objets peut la rendre confuse.
Par exemple, j'ai passé beaucoup de temps à essayer de créer un plan net d'un garçon lançant un avion en papier par la fenêtre, mais c'était trop complexe : mouvement du bras, timing, angle de la caméra et trajectoire de l'avion. Visuellement, le résultat n'en finissait pas de s'effondrer. Qu'est-ce qui a fonctionné à la place ?
Une ombre sur le mur - la silhouette du garçon, le bras levé et au ralenti.
Recherchez l'instant dans le plan.
Chaque séquence de 5 secondes peut ne contenir qu'une ou deux secondes précieuses. Ce n'est pas grave. Trouvez le fragment qui dit quelque chose et coupez le reste.
Chaque image doit servir le message.
Posez-vous la question : Qu'est-ce que j'essaie de dire ? Puis faites de chaque scène un pas tranquille vers ce sentiment.
Le calme est puissant.
N'ayez pas peur des moments où il n'y a que peu ou pas de mouvement. Les moments les plus émouvants de ces films étaient de simples images fixes : une main, une assiette et un regard.
Pour conclure, tester la production vidéo de Sora a été un aperçu passionnant de l'avenir de l'IA générative et de la narration. Les possibilités créatives qu'elle ouvre sont différentes de tout ce que nous avons vu jusqu'à présent.
Si vous êtes aussi fasciné que moi par cet espace, j'ai d'autres expériences, perspectives et résultats qui vous attendent. Vous trouverez ci-dessous quelques-uns des articles que j'ai consacrés à l'exploration de l'IA générique :
L'euphorie de la découverte de Bolt.new
Explorer le développement visuel avec le générateur d'images de ChatGPT
En coulisses : comment j'ai créé cette vidéo générée par l'IA (Anglais)
Comment les images générées par l'IA ont transformé mon flux de travail créatif : Bilan de l'année (Anglais)
