En el campo de la creatividad impulsada por IA, que evoluciona rápidamente, Firefly de Adobe es un modelo de «IA ética» que se basa en una amplia biblioteca de imágenes con licencia de Adobe Stock. Sin embargo, recientes revelaciones sugieren que la columna vertebral ética de este modelo puede no ser tan sólida como afirma Adobe, y han desencadenado un diálogo crítico sobre la integridad de las prácticas de formación de IA en la industria creativa.
Adobe Firefly se diseñó para integrarse a la perfección con herramientas tan conocidas como Photoshop e Illustrator. Prometía revolucionar los flujos de trabajo creativos garantizando que todos los materiales de formación procedían de fuentes éticas y eran comercialmente seguros. Era una gran garantía, sobre todo si se comparaba con competidores como Midjourney y DALL-E, que estaban siendo investigados por sus métodos de obtención de datos.
Dudas sobre la pureza ética: Las revelaciones de Bloomberg
Sin embargo, un informe de Bloomberg reveló que los datos de entrenamiento de Firefly incluían imágenes de Midjourney, un detalle que complica la imagen de Adobe de un modelo de IA totalmente ético. Aunque Adobe afirma que solo el 5 % de las imágenes de entrenamiento de Firefly proceden de este tipo de fuentes y que, supuestamente, se sometieron al riguroso proceso de moderación de Adobe Stock, la revelación ha suscitado preocupación.
Esta situación plantea importantes cuestiones sobre la transparencia y las normas éticas de los métodos de formación con IA. La práctica de utilizar imágenes generadas por IA, aunque sea minoritaria, señala una posible laguna en lo que Adobe ha comercializado como un enfoque ético hermético. Los críticos argumentan que esto podría verse como un «blanqueo sintético», en el que la procedencia de los datos de entrenamiento queda oscurecida por capas de procesos generativos, diluyendo la pureza de la afirmación «ética».
Reacciones y retos futuros: El compromiso de Adobe y la influencia del sector
Las implicaciones son enormes, especialmente para los profesionales de los campos creativos que dependen de estas herramientas. La promesa de Adobe de indemnizar las reclamaciones por robo de derechos de autor en el marco de su Plan Enterprise ofrece cierta tranquilidad, pero la confianza fundamental en la integridad ética de la herramienta se ha visto sacudida. Para los creadores, la integridad de las herramientas que utilizan es de vital importancia, no sólo por seguridad jurídica, sino también para preservar la autenticidad y originalidad de su trabajo.
Además, es probable que esta evolución influya en la forma en que otras empresas abordan la formación de modelos de IA. Cada vez son más necesarias la transparencia y unas normas éticas estrictas en los procedimientos de formación de IA. Con la creciente integración de la IA en la industria creativa, la demanda de prácticas éticas claras, coherentes y verificables no hará sino intensificarse.
Adobe ha respondido a esta polémica redoblando su compromiso con la IA ética, con planes para ampliar la producción de vídeo con IA y mejoras continuas de Firefly. Esto incluye herramientas para rastrear la procedencia de los contenidos generados por IA, lo que podría disipar algunas dudas sobre la transparencia de los procesos.
No obstante, el debate sobre la ética de la IA en las industrias creativas sigue siendo vivo y cada vez más crítico. A medida que las herramientas de IA se integren más en los flujos de trabajo de las industrias creativas y de los medios de comunicación, es probable que aumente la demanda de normas éticas claras. Esta controversia no sólo desafía a Adobe a mantener y tal vez replantear sus normas, sino que también sirve como advertencia para toda la industria sobre las complejidades de integrar la IA de una manera que respete tanto los derechos de autor como la integridad creativa.
Fuente:
https://www.creativebloq.com/news/adobe-firefly-trained-on-midjourney