
«Be an Elephant» tiene elementos cinematográficos increíbles y una gran narrativa. Háblenos de su trayectoria y de cómo ha trabajado hasta ahora en los medios de comunicación.
Soy Gurkan Atakan y vivo en Turquía. Tras graduarme en la Academia de Cine Digital en 2007, empecé a hacer cortometrajes y gané premios a la mejor película experimental en certámenes cinematográficos internacionales. Después hice varios anuncios y vídeos musicales. Organicé y dirigí talleres de cortometrajes. Tras mudarme de Estambul a un pequeño pueblo del Mediterráneo, me alejé un poco del cine y seguí siendo más bien espectador.
En los últimos tres años he trabajado intensamente en la creación de visuales con inteligencia artificial. No se puede decir que estuviera produciendo películas activamente hasta el concurso Runway Gen:48. Antes había hecho algunos pequeños intentos, pero no me lo tomaba muy en serio. Era más bien un observador del desarrollo de la inteligencia artificial.
Vi el concurso Runway GEN:48 como un reto para mí mismo. Teníamos 48 horas para hacer la película. Los elementos que tenían que estar en la película se dieron a conocer al principio de la cuenta atrás de 48 horas. Esto incluía la fase de escritura del guión. Podría haber utilizado estos elementos para escribir un guión con chatbots como ChatGPT o Gemini, pero quería que fuera original. Estudié filosofía en la universidad y la película refleja mi forma de pensar. Tengo un enorme póster de un elefante en mi habitación. Mentor era una opción entre los elementos obligatorios. El guión estaba escrito en mi cabeza y fue más fácil de lo que pensaba convertirlo en película. Al final, gané el premio del público con mi película «Be an Elephant» por votación popular.
Usted ha aprendido y practicado el cine clásico. ¿Cómo ve el desarrollo con herramientas de IA? ¿Cómo cree que evolucionará el tema de los contenidos generados por IA?
En los inicios de la creación de vídeo con inteligencia artificial no había ninguna maravilla, técnicas como la profundidad de campo ya existían y se utilizaban, era una técnica de hace quizás 15-20 años para separar el objeto del fondo y mostrarlo como una imagen 2D en un vídeo 3D utilizando la profundidad de campo, luego con el desarrollo de la inteligencia artificial el trabajo empezó a cambiar, las cosas cambiaron mucho cuando la IA empezó a interesarse por lo que es el objeto, no solo por el objeto. Actualmente, no parece posible aplicar la inteligencia artificial con programas como After Effects. Ahora, en la conversión de imagen a vídeo, la IA reconoce el objeto y aplica el movimiento en consecuencia. Antes esto era impensable. Especialmente la conversión de texto a vídeo es casi un milagro. Si pensamos técnicamente, la próxima etapa no sólo reconocerá los objetos de la imagen, sino que también será capaz de generar el entorno en 3D. Esto nos permitirá mover la cámara libremente. En ese momento, creo que se acelerará la transición de las películas normales a las películas de IA.
«De momento, parece que los desarrolladores de software están más interesados en este tema que los directores de cine. Creo que eso cambiará en un futuro próximo. No sé si es el destino, pero parece que la inteligencia artificial hará con el cine lo que el cine ha hecho con el teatro. De momento, los productores, directores y guionistas de Hollywood ven a la inteligencia artificial como el enemigo, pero harán las paces cuando llegue el momento».
En un futuro próximo, creo que aplicaciones como Netflix, Amazon, etc. nos recibirán en la pantalla de inicio con una opción de inicio como películas de IA o películas humanas.







¿Cree que no sólo las empresas de Hollywood podrán hacer grandes películas en un futuro próximo, sino también los jóvenes en las habitaciones de sus casas si se familiarizan con el tema de la IA?
Claro… siempre habrá oportunidades para quienes quieran dedicarse a ello. Creo que al principio la dinámica del sector estará impulsada por el espacio humano, y luego podríamos ver cosas más automatizadas en el futuro. Como la sección que seleccionamos para ti en plataformas como Netflix, que podría incluso preparar películas a tu gusto. En este caso, estoy pensando en lo que las productoras pueden hacer de forma diferente a las películas caseras. Estoy pensando en un sistema con un principio de funcionamiento basado en modelos de inteligencia artificial. Los grandes equipos pueden desarrollar modelos distintos para cada película. Primero pueden entrenar a la IA para el estilo de película que quieren hacer, y luego las películas que hagan con ese modelo pueden ser diferentes de otras películas. De lo contrario, las películas hechas con inteligencia artificial serán emocionantes al principio, pero se parecerán unas a otras con el tiempo, y el problema actual de la industria cinematográfica continuará. Volviendo a la respuesta a tu pregunta, sí, cualquiera puede hacer su propia película en casa, incluida la música.
Háblenos del proceso de creación. ¿Cómo fue el flujo de trabajo de «Be an Elephant»? ¿Qué herramientas utilizó y cómo lo hizo?
Desde que Runway organizó este concurso, puedo decir que hice el 80% de la película utilizando la aplicación de Runway. Como he dicho al principio, escribí el guión, creé las imágenes en Runway en text to picture, creo que creé unas 3 o 4 imágenes en Midjourney, utilicé Runway gen-2 para picture to video, pero antes aumenté la escala de las imágenes en Magnific ai, no tuve que hacerlo, pero puedo decir que las imágenes perdieron algo de detalle en picture to video. Para minimizar esta situación aumenté el detalle en las imágenes con Magnefic, si no hubiera hecho esto la imagen habría sido un poco más pastel en color.
«Permítanme dar una recomendación para los que estén leyendo esta entrevista, para obtener un buen resultado final deberían utilizar un escalador de vídeo como Topaz Video AI. … No lo he utilizado, no tengo este programa, pero puedo decir que da muy buenos resultados».
Estaba muy seguro de lo que iba a utilizar para la música, sonaba en mi cabeza mientras escribía el guión, finalmente hice las grabaciones de voz en Runway Audio generation y las junté en Davinci Resolve.
Me parece estupendo. ¿Cuáles serían tus consejos para principiantes con Runway? ¿Una forma específica de dar indicaciones o de utilizar determinados parámetros? Por ejemplo, ¿cómo se consiguen escenas de apertura como la secuencia del plano superior del principio?
Sinceramente lo describo como si se lo estuviera explicando a alguien, no tengo técnica, utilizo términos cinematográficos como «ángulo», no recuerdo lo que utilicé para la primera escena pero supongo que debí utilizar términos como «gran angular de cámara», «toma de dron», «vista de pájaro» juntos, cuando conseguí la imagen que quería recuerdo reutilizar el número de semilla y utilizar términos como elefante en el bosque, desierto, río… para conseguir diferentes variaciones de la misma imagen.
La forma de hacer que esto funcione como quieres es a través de la práctica, tienes que probar hasta que consigas la imagen que quieres, compara los resultados con el prompt que escribiste, qué resultó de qué frase, sonará un poco extraño pero si empatizas con la inteligencia artificial puedes dirigirla en la dirección correcta 🙂 . Compara las fotos que han hecho otros y sus prompts. Esto también es un buen ejercicio.
De entre cientos de propuestas, «Sé un elefante» ganó el premio del público. ¿Qué ha cambiado desde entonces? ¿Está trabajando ya en los próximos proyectos?
Este premio me dio confianza, después del concurso empecé a profundizar en el tema de la producción de vídeo con inteligencia artificial, tengo muchos proyectos en mente, algunos aún están en las primeras fases, esperaré a que se desarrolle la tecnología, otros los realizaré, ahora paso la mayor parte del tiempo experimentando con diferentes técnicas, intento obtener diferentes resultados combinando muchos modelos. Mi trabajo sobre IA continuará.