Dein Volvo spec Film geht in den sozialen Medien viral, und die Leute sind erstaunt, dass du ihn innerhalb von 24 Stunden gemacht hast. Kannst du uns mehr über den Prozess erzählen, und wie diese 24 Stunden aussahen?
Schon vor der Veröffentlichung von Gen-3 hatte ich einige grundlegende Ideen für das Konzept im Kopf. Für den Film habe ich zuerst 4-5 Sätze gepromptet, die die Welt beschreiben – nicht zu ausführlich. Der Vorteil war, dass ich parallel arbeiten konnte; während ich den Inhalt erstellte, konnte ich gleichzeitig auch schneiden. Es wurde zu einem Kreislauf, in dem ich herausfand, welche Aufnahmen ich brauchte und wo sie in den Schnitt passen würden. Dieses Hin und Her trug dazu bei, den Prozess zu straffen.
Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren
Sie arbeiten als professioneller Colorist. Wie hat dies das Projekt beeinflusst?
Mein Hintergrund als Colorist hat mir nur geholfen, einige Aufnahmen leicht anzupassen, da es zwischen den einzelnen Shots leichte Unterschiede gab, auch wenn der Prompt der gleiche ist. Meine früheren Experimente mit image prompting waren jedoch von großem Nutzen.
Die „color consistency“ in dem Film ist bemerkenswert. Wurde dies durch Prompting, Post oder Farbkorrektur erreicht?
Etwa 90 % der color consistency wurde durchs prompten erreicht. Durch die Verwendung der gleichen Prompts und Szenentypen – wie die Beschreibung des Wetters und der Farbtöne – habe ich sehr ähnliche Ergebnisse erzielt. Ich habe vielleicht 10 Minuten auf die Farbkorrektur verwendet und nur die Grüntöne leicht angepasst. Ich habe nicht viel Zeit in diesen Aspekt investiert, da es sich ursprünglich nur um einen Test handelte, und ich hatte nicht erwartet, dass er so viel Aufmerksamkeit erregen würde.
Viele sehen in der Bild-zu-Video-Übertragung den heiligen Gral der KI-Inhaltserstellung. Derzeit funktioniert Gen-3, das du für die Volvo spec ad verwendet hast, nur mit Text-to-Video. Wie denkst du darüber? Hast du das Gefühl, dass du mit Bild-zu-Video mehr Kontrolle haben würdest?
Ich glaube, dass ich mit Bild-zu-Video mehr Kontrolle hätte, weil ich mehr Erfahrung mit MidJourney habe. Vor diesem Projekt hatte ich nicht viel Erfahrung mit Runways Text-to-Video.
Runways Text-to-Video hat jedoch gezeigt, dass es in der Lage ist, komplexe physikalische Zusammenhänge wie Flüssigkeiten, Wind, Staub und Reflexionen zu verstehen, was bei Bild-zu-Video nicht unbedingt der Fall ist.
Es ist schwierig, dies mit Sicherheit zu sagen, solange es nicht verfügbar ist.
Tools und Updates entwickeln sich schnell. Viele sehen deinen Volvo spec Film als Beweis dafür, dass mit künstlicher Intelligenz professionelle Filme erstellt werden können. Stimmst du zu?
Dieses Kompliment habe ich schon oft gehört, aber ich bin mir nicht sicher, ob wir schon so weit sind. Wenn die Frage lautet, ob KI Material produzieren kann, das für einen traditionellen kommerziellen Arbeitsablauf ohne andere Werkzeuge geeignet ist, lautet die Antwort meiner Meinung nach immer noch nein. Ich bin zwar kein Regisseur, aber ich sehe die zahlreichen Anforderungen, denen sie während eines Werbespots gerecht werden müssen, und AI ist noch nicht ganz so weit. Ich glaube jedoch, dass es durchaus möglich ist, einen Werbespot hauptsächlich mit KI zu erstellen und bei Bedarf auf traditionelle VFX-Methoden zurückzugreifen. Wenn zum Beispiel das Auto ersetzt wird, wäre der Film für online Formate geeignet.
Du postest schon seit einiger Zeit AI-Inhalte auf deinem Instagram account . Kannst du uns mehr über das Projekt erzählen?
Klar! Diesbezüglich hat es einige Verwirrung gegeben, daher möchte ich das klarstellen. Ich nutze Instagram nicht persönlich, aber ich habe angefangen, es für Nebenprojekte zu nutzen. Dazu gehören ein ultra-long exposure photography project, ein analog glitch art project, und ein projection mapping project.
Als ich anfing, mit Bildgeneratoren zu experimentieren, waren die Bilder nicht sehr realistisch. Ich habe für die KI-Bilder ein Konto eines Automobilfotografen eingerichtet, um zu sehen, ob die Leute den Unterschied erkennen können. Dies wurde schnell irrelevant, da die Bilder innerhalb weniger Monate fotorealistisch wurden.
Der Kontoname Rick Deckard ist eine Anspielung auf den Protagonisten aus Blade Runner und deutet an, dass Maschinen eines Tages vielleicht gar nicht mehr wissen, dass sie Maschinen sind.
Kreative Tools wie MidJourney haben in den letzten zwei Jahren große Sprünge gemacht. Glaubst du, dass sich dieses Tempo fortsetzen wird? Wie bleibst du mit den neuen Tools und Updates auf dem Laufenden?
Ich denke, das Tempo könnte sich sogar noch beschleunigen. So wurde beispielsweise Sora von OpenAI unerwartet angekündigt, was darauf hindeutet, dass die Unternehmen hinter den Kulissen spezielle Modelle entwickeln. Es gibt bereits image genAIs, die auf die Erstellung von Packshots spezialisiert sind. Da dies für mich nur ein Hobby ist, muss ich nicht mit jedem Werkzeug Schritt halten. Ich ziehe es vor, bei den Programmen zu bleiben, die mir gefallen und die ich gerne benutze, und ich kann meine Zeit mit der Gestaltung verbringen, anstatt ein neues Programm zu lernen.
Sie arbeiten auch in der Filmbranche. Welchen Einfluss wird die KI Ihrer Meinung nach darauf haben?
Ich glaube, es wirkt sich bereits aus! Auch wenn wir bisher noch keine spezialisierte KI für den professionellen Einsatz gesehen haben, denke ich, dass dies die Branche mit Sicherheit verändern wird.
Die obersten 30 % des Marktes werden unberührt bleiben, da Kunden, die so viel Geld ausgeben, ein Maximum an Kontrolle, Flexibilität und Qualität wünschen. Aber ich denke, dass der Rest des Marktes davon betroffen sein wird, da diese Tools in einem sehr schnellen Tempo billiger, besser und schneller werden.
So können sie die Anforderungen von Profis besser verstehen und Videos erstellen, die für Aufträge verwendet werden können.
Wenn KI schnellere und billigere Werbung ermöglicht, könnte dies eine Chance für kleine Unternehmen sein, mehr zu werben. Was denkst du über diese möglichen Veränderung?
Es ist schwer vorherzusagen, wohin dieser Weg führen wird, ähnlich wie das Internet als Netzwerk zwischen Universitäten begann und sich zu etwas viel Größerem entwickelte. Alles, was wir uns jetzt vorstellen können, ist wahrscheinlich sehr begrenzt im Vergleich zu dem, was tatsächlich passieren wird. Wenn wir versuchen, die Zukunft von genAI auf der Grundlage der aktuellen Werbemethoden vorherzusehen, sind wir auf dem falschen Weg. Die Möglichkeiten liegen jenseits unserer derzeitigen Vorstellungskraft.
Angesichts der Tatsache, dass GenAI oft als der Punkt gesehen wird, an dem KI dem Menschen in bestimmten Bereichen überlegen sein wird, welche Zukunftsszenarien siehst du, die heute noch unvorstellbar erscheinen?
Wenn ich unvorstellbare Dinge vorhersehen könnte, wäre das großartig :)! Aber um eine etwas ernstere Antwort zu geben: Die Dinge werden sich sehr schnell und unerwartet ändern. Jetzt ist genAI allgegenwärtig, junge Kinder nutzen sie für ihre Schularbeiten, Menschen verwenden sie für Bilder und Videos. Aber wie viele Menschen wussten noch vor wenigen Jahren von genAI? So wie es sich für die meisten Menschen – wie für mich – anfühlte, als käme diese Technologie aus dem Nichts, so werden auch wir einige ähnliche Veränderungen erleben. Deshalb können wir jetzt nicht sagen, was passieren wird, welches Unternehmen als Gewinner hervorgehen wird usw.
Was sind Ihre nächsten KI-Projekte? Ein weiterer großartiger Film an einem Tag?
Ich würde gerne weiterhin die Grenzen von KI-generierten Videos und Bildern ausloten. Ich genieße es, mit künstlicher Intelligenz zu experimentieren und an einzigartigen Projekten zu arbeiten, die mit traditionell gedrehten Inhalten verwechselt werden könnten.