Ta chaîne YouTube « JustMovies » ne cesse de s’agrandir. Mais ce qui frappe au premier coup d’œil, c’est que la plupart des films ont un univers de genre très mystique et rapide. Pourquoi est-ce ainsi ?
Mon parcours académique ne le laisse peut-être pas supposer, mais je n’ai pas beaucoup d’expérience formelle dans la réalisation de films ou dans le cinéma. Néanmoins, j’ai toujours été un cinéphile, avec une préférence particulière pour les films de science-fiction. Mon amour pour ce genre a commencé au début des années 2000, lorsque j’avais environ 8 ans et que j’ai vu Le Seigneur des anneaux : Les compagnons de l’anneau au cinéma avec mon père. Cette expérience a fait naître ma fascination pour la science-fiction, un genre qui me fascine par sa créativité et ses possibilités illimitées. Mon voyage dans la création de contenu a commencé de manière plutôt spontanée avec ma chaîne YouTube. Au départ, c’était juste un hobby, quelque chose que je faisais pendant mon temps libre sans objectifs concrets – une sorte de projet « pourquoi pas ». La publication de Midjourney, une IA capable de générer des images à partir de textes imposés, a été un tournant décisif pour moi. Pour moi qui suis fan de science-fiction, la possibilité de donner vie à n’importe quelle image était comme un rêve devenu réalité. Petit à petit, j’ai commencé à combiner les images de Midjourney avec d’autres outils comme PIKA et Runway pour créer de courtes vidéos conceptuelles de science-fiction. De manière surprenante, ces projets ont été bien accueillis par les spectateurs et m’ont encouragé à consacrer plus de temps à cette passion. Ce qui motive mon intérêt pour la création de contenu de science-fiction, ce n’est pas seulement mon attachement personnel à ce genre, mais aussi son étendue et la liberté qu’il offre. J’aime transformer des concepts imaginatifs en histoires visuelles, ce qui ne cesse de m’enthousiasmer et de m’inspirer.
Pensez-vous que la combinaison de Midjourney et de Runway ou Pika soit le meilleur workflow pour les images animées ?
La conversion d’images en vidéos est devenue une méthode populaire et efficace pour les réalisateurs de films d’IA. Cette méthode est largement répandue en raison de sa simplicité et de son accessibilité. Il existe toutefois d’autres techniques innovantes pour ceux qui disposent de compétences techniques plus avancées. Il existe par exemple des outils d’intelligence artificielle pour la conversion d’images en 3D, qui aident les artistes 3D à créer des personnages, des environnements et divers objets. Ces créations peuvent ensuite être rendues à l’aide de logiciels puissants comme Unreal Engine ou Blender, ce qui ouvre une nouvelle dimension à la créativité. Cependant, pour le créateur d’IA typique, le processus de travail préféré consiste à utiliser Midjourney comme point de départ, suivi d’autres améliorations et animations par Runway, PIKA ou Leonardo. Chacune de ces plates-formes a ses propres caractéristiques, avantages et limites. Ce flux de travail standard répond aux besoins et aux capacités de la plupart des créateurs de contenu IA et offre un bon équilibre entre simplicité et potentiel créatif.
Si tu compares ta première œuvre sur la chaîne il y a trois mois avec ta vidéo actuelle « Vikings – Valhalla Calling », tu constateras qu’elle est d’une qualité visuelle bien supérieure. Comment s’améliore-t-on en matière de promptitude ?
Si je regarde mon travail d’il y a quelques mois, il est clair qu’il s’est beaucoup amélioré. Cette amélioration n’est pas arrivée comme ça ; c’était un mélange d’une meilleure utilisation des outils, en particulier de Midjourney. J’ai pris environ 15 000 photos avec. J’ai appris quels étaient les meilleurs mots à utiliser, comment régler l’angle de la caméra, choisir les objectifs et régler correctement la lumière – plus on maîtrise les instructions au milieu du voyage, plus les images sont de qualité. Midjourney est vraiment quelque chose de spécial. Les outils eux-mêmes se sont également améliorés au fil du temps. Midjourney a introduit des modèles nouveaux et améliorés, et il y a eu de superbes mises à niveau de l’upscaling des images, qui rendent les vidéos beaucoup plus nettes. Un grand changement pour moi a été la définition de mon flux de travail. Une fois que j’ai eu cela, j’ai cherché des moyens de le rendre encore meilleur. J’ai même créé mon propre GPT pour me permettre d’imaginer les répliques de Midjourney. En outre, j’ai travaillé à améliorer mes mouvements de caméra et je continuerai à le faire. J’ai remarqué que de nombreux réalisateurs de films d’IA négligent l’importance de la musique et de la voix off. Avec la technologie actuelle, il ne suffit pas d’avoir des images cool pour attirer l’attention des gens. Une bonne musique et une bonne narration peuvent faire une grande différence. Le saut qualitatif est donc dû à différents facteurs, par exemple à une plus grande expérience, à des outils améliorés, à un réglage fin de mon processus et, enfin, au son. En fin de compte, il s’agit d’apprendre et de rester à la pointe des outils et de l’IA.
En 2023, les outils ont évolué à une vitesse fulgurante. Penses-tu qu’en dehors de Sora, beaucoup d’autres outils seront développés cette année ? Tant en termes de qualité que de maniabilité ?
Oui, on a beaucoup parlé de Sora et du fait qu’il fait croire aux gens qu’il suffit de claquer des doigts pour produire des courts métrages sans effort. Mais honnêtement, nous ne saurons pas ce qu’il peut vraiment faire tant que nous ne l’aurons pas essayé nous-mêmes, n’est-ce pas ? En parlant de nouveaux développements, j’ai entendu dire que Midjourney prévoit de lancer son propre modèle de texte à vidéo et d’image à vidéo dans les prochains mois. Ce sera un gros business pour les artistes de l’IA.
Étant donné que le modèle v6 de Midjourne convainc déjà par son équilibre entre composition d’image et qualité, l’intégration de capacités vidéo rationalisera de nombreux processus de travail et fera de Midjourney le premier choix pour beaucoup. D’autre part, les programmes Runway GEN2 et PIKA sont constamment mis à jour et proposent de nouvelles fonctionnalités chaque mois. C’est vraiment excitant de voir ces entreprises aller de l’avant et améliorer leur technologie à un rythme aussi rapide.
Je parie que d’ici la fin de l’année, de nombreuses méthodes que nous utilisons aujourd’hui seront considérées comme obsolètes.
Le paysage va changer de manière spectaculaire – pour le meilleur, bien sûr. Ces outils deviennent de plus en plus conviviaux, ce qui est fantastique. Néanmoins, créer un contenu d’IA qui se démarque vraiment et qui attire l’attention sera un défi. C’est une chose d’utiliser ces outils, mais c’en est une autre de créer quelque chose qui se démarque vraiment.
Peux-tu nous dire sur quoi tu travailles en ce moment ? Quelles sont tes prochaines idées ? Peut-être un format plus long ?
En ce moment, je me plonge profondément dans les possibilités de ces outils d’IA et j’en teste les limites. J’expérimente actuellement différents styles, concepts et même techniques cinématographiques d’IA. Si vous jetez un œil à mes projets, vous constaterez qu’ils sont tous assez différents les uns des autres, que ce soit au niveau du style ou du concept. Je pense que la scène créative de l’IA est pleine de possibilités en ce moment, et il est important de vraiment comprendre le fonctionnement de ces outils avant de se lancer dans un projet plus important. C’est comme apprendre un sport – on s’entraîne et on s’entraîne avant même de penser à la compétition. Mon objectif ultime est d’écrire une série de science-fiction. C’est la grande ligue à laquelle j’aspire. Mais pour atteindre cet objectif, je dois être sûr de maîtriser les outils disponibles et de pouvoir les utiliser pour obtenir la meilleure qualité possible. En tant que passionné de science-fiction, c’est un rêve de travailler sur ses propres histoires, de développer des personnages ou de concevoir une série courte. Mais je veux m’assurer de pouvoir transposer au mieux ces concepts à l’écran. C’est pourquoi je prends le temps d’apprendre et de m’améliorer. Jusqu’à présent, les vidéos que j’ai postées sur YouTube ne dépassent pas 2 minutes 30. J’ai découvert que cette longueur est exactement ce qu’il faut pour tenir les spectateurs en haleine. Tout ce qui est plus long perd l’intérêt des gens, ce qui, à mon avis, est en partie dû aux limites actuelles de l’IA dans la réalisation de films. Mais on ne sait jamais, au rythme où la technologie progresse, je vais peut-être commencer à planifier dès maintenant.
Oh, j’ai oublié de vous dire que je viens de voir Dune 2 au cinéma. Je travaille actuellement sur une courte bande-annonce qui ressemble à un hommage à Dune et à mon réalisateur préféré, Denis Villeneuve. J’explore de nouveaux modèles image>vidéo qui présentent un mouvement particulier.
Quelle est ta motivation pour intégrer l’IA dans la réalisation de films et comment imagines-tu surmonter les malentendus courants sur l’IA dans le processus créatif ?
Je crois fermement au potentiel de l’IA pour stimuler la créativité et offrir de nouvelles possibilités de développement et de création d’histoires. On croit souvent à tort que l’IA fait tout d’un clic de souris ou d’une invite, mais les utilisateurs de l’IA fournissent en fait un travail acharné et doivent être créatifs d’une manière ou d’une autre, elle ne fonctionne tout simplement pas toute seule. Mon projet est une preuve de cette conviction. J’explore la manière dont l’IA peut créer un contenu captivant et innovant qui remet en question les normes conventionnelles de la narration. Mon objectif est de sensibiliser à l’IA et à la réalisation de films en montrant les derniers développements et améliorations à travers mes travaux et d’inspirer beaucoup d’autres personnes et, qui sait, peut-être même d’ouvrir mon propre studio !