La urgencia de proteger el contenido en la era de la IA

Publicado originalmente en LinkedIn

 

LLUÍS CUCARELLA *

 

Una de las principales líneas de negocio de nuestra empresa, además de la consultoría para medios de comunicación, es la producción de contenidos para terceros: periódicos, webs, empresas, fundaciones, administraciones, etc. Nuestro equipo se esfuerza diariamente en crear artículos, reportajes y análisis únicos y de alta calidad para nuestros clientes.

Sin embargo, al igual que sucede con otros medios, empresas similares o creadores individuales, estamos observando un fenómeno alarmante y creciente: el uso no autorizado de nuestro contenido a gran escala a través de herramientas de inteligencia artificial.

La situación es preocupante. Cada día, más y más empresas o individuos sin escrúpulos utilizan estas IA para copiar contenido y cambiarlo ligeramente para hacerlo parecer original.

Les basta con dar una simple orden: «Haz un artículo de esto, pero que se diferencie un poco del original.» O incluso a veces ni eso. El problema se multiplica cuando, como estamos viendo, detrás empieza a haber ya software especializado en ejecutar esta pseudo-reelaboración a una escala inimaginable. Introduces las URL que quieres, y te entrega versiones “mejoradas” (así las llaman) de esos artículos.

El resultado es un contenido que, aunque maquillado, se reconoce fácilmente como propio. Son datos que solo nosotros conocemos, presentados con nuestra estructura y detalles únicos.

En casi todos los casos, estos textos mínimamente reformulados, pero muy parecidos al original, aparecen sin citas y acompañados de publicidad invasiva en otras webs, lo que degrada aún más la calidad y la intención original del trabajo.

Otros sitios pueden no tener publicidad, pero igualmente se aprovechan para atraer tráfico y fortalecer su marca a costa del esfuerzo de los que producen contenido legítimo.

Esta manipulación no solo es un problema de propiedad intelectual, sino que también afecta la viabilidad económica de las empresas que contratan la producción de contenidos, y por supuesto a los propios medios y creadores. Los contenidos levemente alterados por IA atraen tráfico que debería ser de los creadores o de los clientes, reduciendo las oportunidades de crecimiento y monetización.

El problema se agrava porque no se puede simplemente bloquear a todos los robots de rastreo. Queremos que nuestros contenidos, al menos los que se publican en nuestra red de medios propia, se indexen en Google,y sean útiles también a los usuarios de herramientas como ChatGPT o Gemini, especialmente ahora que estos sistemas están comenzando a incorporar enlaces a las fuentes originales.

Entonces, ¿por dónde pasa la solución? Se está luchando justamente para que las empresas de inteligencia artificial paguen un precio por el uso de contenidos utilizados para entrenar sus sistemas, pero no estamos viendo soluciones que aborden al mismo tiempo este otro problema del maquillaje de contenidos a gran escala para explotarlos como propios.

He consultado a desarrolladores especializados y sugieren que quizás con metadatos de protección de contenidos (algo así como <meta name=»ai-content-restriction» content=»no-rewrite»>), se podría dar un paso adelante, siempre y cuando las empresas de IA lo respeten y se establezca un pacto entre todos. Otros desarrolladores han sugerido cabeceras HTTP especializadas como X-AI-Content-Restriction: no-rewrite. Pero todos coinciden en que deben ser las empresas de IA las que den el paso e impulsen estas medidas.

No es suficiente con reconocer el problema. A las empresas de inteligencia artificial se les debe exigir que aporten soluciones reales y efectivas y asegurar un ecosistema digital justo y sostenible, una acción vital no solo para proteger la viabilidad económica de los creadores de contenido, sino también para garantizar la calidad y diversidad de la información que consumimos.

Solo así podremos preservar la integridad de la creación de contenido y asegurar un futuro en el que la innovación y la creatividad sigan siendo valoradas y protegidas.

 

Lluís Cucarella es periodista. Socio director de la consultora de medios Next Idea Media y CEO de JC Allman & Partners, y director editorial del Laboratorio de Periodismo de la Fundación Luca de Tena.



Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.