EL PODER DE LAS HISTORIAS

Herramientas anti-IA: ¿Protegen realmente el estilo de los artistas?

La inteligencia artificial (IA) generativa ha traído una revolución sin precedentes en la creación de imágenes, permitiendo que cualquier persona pueda replicar el estilo único de ilustradores y diseñadores con muy poco conocimiento técnico.


Sin embargo, esta misma tecnología ha puesto en peligro la originalidad y la identidad de los artistas, cuyo trabajo puede ser imitado fácilmente. Un reciente estudio de la Universidad de Zúrich y Google DeepMind ha revelado que las herramientas diseñadas para proteger a los artistas de la imitación de su estilo no funcionan como se esperaba.


El auge de la inteligencia artificial generativa


La IA generativa permite crear imágenes a partir de simples descripciones textuales, logrando resultados que pueden ser casi indistinguibles de las obras de artistas humanos. Esta capacidad ha facilitado que personas sin habilidades artísticas puedan generar contenido visual de alta calidad, lo que ha despertado preocupación entre los ilustradores y diseñadores profesionales que ven cómo su estilo puede ser fácilmente replicado sin su permiso.


Intentos fallidos de protección


Para contrarrestar este problema, se han desarrollado diversas herramientas que buscan proteger las obras de arte del plagio por parte de modelos de IA. Estas herramientas funcionan principalmente mediante la ofuscación de las imágenes, añadiendo ruido o distorsiones que deberían hacer que los modelos de IA no puedan replicar el estilo de la imagen original. A pesar de su popularidad y millones de descargas, el estudio de la Universidad de Zúrich y Google DeepMind ha demostrado que estas protecciones son ineficaces.


Limitaciones y vulnerabilidades


El estudio aplicó técnicas simples, como la ampliación y reducción de las imágenes, para eliminar o reducir el ruido introducido por las herramientas de protección. Los resultados mostraron que las imágenes protegidas seguían siendo reconocibles y que la IA generativa podía imitar su estilo casi sin problemas. Los investigadores concluyeron que estas protecciones no solo son ineficaces, sino que también pueden ser contraproducentes al ofrecer una falsa sensación de seguridad a los artistas.


"No tener herramientas de protección es preferible a tener unas inseguras. Las protecciones inseguras pueden engañar a los artistas haciéndoles creer que es seguro publicar su trabajo, lo que permite la falsificación y los pone en una situación peor", advierten los autores del estudio.


Diferencias entre artistas


El estudio también encontró que las herramientas de protección parecían funcionar mejor para ciertos artistas, aunque los investigadores no pudieron determinar claramente por qué. Se especula que los artistas contemporáneos que no estuvieron en los datos de entrenamiento de los modelos de IA pueden estar mejor protegidos. Sin embargo, esta no es una solución confiable a largo plazo, ya que no todos los artistas pueden beneficiarse de esta particularidad.


Opiniones de los desarrolladores


Los desarrolladores de Glaze, una de las herramientas de protección más conocidas, agradecieron el estudio y reconocieron algunas de sus limitaciones. Indicaron que los métodos utilizados por los investigadores para vulnerar las protecciones afectaban significativamente la calidad de las imágenes, especialmente en ilustraciones con texturas y alto contraste.


"En nuestras pruebas, verificamos algunas de las afirmaciones de los autores: su método tuvo un impacto significativo en la eliminación de la protección Glaze V1, y tuvo cierto impacto en la protección Glaze V2.0," afirmaron los desarrolladores de Glaze.


Sin soluciones a la vista


A día de hoy, las opciones para los artistas que desean proteger su trabajo de la imitación por IA son limitadas. Aunque las grandes compañías desarrolladoras de IA, como OpenAI, han implementado sistemas para excluir determinados contenidos de sus entrenamientos, esto no previene que terceros utilicen la IA para copiar estilos artísticos. La naturaleza de estas protecciones hace que, una vez que la obra ha sido publicada en Internet, esté expuesta a ser copiada con herramientas más sofisticadas.


"En este momento, si alguien piensa que la IA realmente puede afectar a su modelo de negocio, la opción más segura es no publicar su arte online," comentó Javier Rando, coautor del estudio.


Conclusiones


El estudio concluye que las protecciones actuales contra la imitación de estilo por IA son inadecuadas y pueden incluso perjudicar a los artistas al darles una falsa sensación de seguridad. La única forma verdaderamente segura de proteger el trabajo artístico en el entorno digital actual es evitar su publicación en línea, lo cual es una solución drástica pero efectiva.

© 2025 Nacho Caballero.

Todos los derechos reservados.

Política de privacidad Aviso Legal Política de cookies

Nacho Caballero

hola@nachocaballero.com

Madrid. España

© 2025 Instituto Español de StorySelling®
Marca registrada en España Nº 4.277.931
Todos los derechos reservados.