El Código de Buenas Prácticas para Modelos de IA de Uso General: Transparencia, Derechos de Autor y Seguridad

El Código de Buenas Prácticas para Modelos de IA de Uso General: Transparencia, Derechos de Autor y Seguridad

En este blog, ofrecemos una vista preliminar y reducida del artículo escrito por Gonzalo Villar Roldán, Abogado en Broseta Abogados en el área de Derecho Público y Sectores Regulados, para el noveno número de nuestra Revista Digital «ELEX INSIGHT».

Para leer el nuevo número de la revista de forma gratuita, haz clic aquí. En la misma, seis expertos del ámbito jurídico analizan en detalle las últimas novedades del sistema legal en España y como las nuevas tecnologías emergentes funcionan a través de ellos.

Introducción

El artículo de Gonzalo Villar Roldán analiza el Código de Buenas Prácticas para modelos de IA de uso general, publicado por la Comisión Europea en julio de 2025. Este código, de adhesión voluntaria, busca facilitar el cumplimiento de las obligaciones del Reglamento (UE) 2024/1689, especialmente en materia de transparencia, derechos de autor y seguridad. Además, el texto examina las tensiones surgidas tras la decisión de Meta de no adherirse al Código, lo que abre el debate sobre el equilibrio entre regulación, innovación y competitividad tecnológica en Europa.

El contexto normativo del Código de Buenas Prácticas

El Reglamento (UE) 2024/1689, conocido como Ley de Inteligencia Artificial, estableció un marco jurídico pionero para garantizar que los sistemas de IA en la Unión Europea sean seguros, respetuosos con los derechos fundamentales y promotores de innovación sostenible. Dentro de esta norma, los artículos 53 y 55 introducen obligaciones específicas para los modelos de IA de uso general, aquellos con aplicaciones transversales y potencialmente disruptivas.

El Código surge como un instrumento voluntario para que los proveedores puedan demostrar cumplimiento normativo ante la Oficina Europea de IA, reduciendo incertidumbres y creando estándares comunes.

Transparencia: eje central del cumplimiento normativo

Uno de los pilares del Código es la transparencia, entendida como requisito previo para garantizar la trazabilidad y la responsabilidad de los modelos de IA. Se establecen tres niveles de aplicación:

  • Documentación técnica detallada del entrenamiento, arquitectura y métricas del modelo.
  • Resumen accesible para usuarios, con explicación clara de capacidades y limitaciones.
  • Actualización continua de la información, especialmente ante incidentes o nuevas versiones.

Este enfoque busca evitar la opacidad tecnológica y reforzar la confianza de usuarios e instituciones.

Derechos de autor y la Directiva (UE) 2019/790

El segundo capítulo del Código aborda el uso de contenidos protegidos en el entrenamiento de modelos de IA, una de las cuestiones más polémicas en el sector. Entre sus principales medidas destacan:

  • Evaluación de datasets para identificar obras con reserva de derechos.
  • Creación de mecanismos técnicos para excluir contenido protegido.
  • Publicación de un resumen de materiales empleados en el entrenamiento.

De esta forma, el Código ofrece a los proveedores un marco práctico para minimizar riesgos legales y mostrar diligencia razonable en el respeto a la propiedad intelectual.

Seguridad y gestión de riesgos sistémicos

El tercer pilar se centra en la seguridad de los modelos considerados de riesgo sistémico. Incluye la obligación de realizar pruebas de resistencia, establecer protocolos de ciberseguridad y notificar incidentes graves a la Oficina de IA.

Este enfoque pretende prevenir efectos adversos a gran escala, como la desinformación, la generación de malware o la manipulación electoral mediante modelos avanzados.

La negativa de Meta y sus implicaciones

Un punto clave del análisis es la decisión de Meta de no firmar el Código, alegando incertidumbre jurídica, extralimitación normativa y posible impacto en la competitividad. Mientras tanto, otras compañías como OpenAI, Mistral y Microsoft han manifestado su intención de adherirse.

Este contraste evidencia la tensión entre el modelo regulador europeo y los intereses estratégicos de grandes tecnológicas, especialmente las que operan desde fuera de la UE.

Conclusiones

El Código de Buenas Prácticas para modelos de IA de uso general constituye un hito en la gobernanza tecnológica europea. Aunque su carácter voluntario limita su alcance inmediato, ofrece:

  • Una guía práctica para el cumplimiento normativo.
  • Un marco de transparencia y seguridad alineado con las exigencias de la Ley de IA.
  • Una herramienta para mitigar riesgos legales y reputacionales.

Sin embargo, el éxito de este instrumento dependerá de tres factores: la adhesión de los grandes actores del sector, la claridad en su implementación por parte de la Comisión Europea y la capacidad de equilibrar regulación con innovación.

En definitiva, más que un fin en sí mismo, el Código debe entenderse como un puente entre innovación y responsabilidad, que anticipa la futura exigencia jurídica plena en el ecosistema de inteligencia artificial europeo.no digital.


Disfruta de más contenido sobre tecnología aplicada al Sector Legal

Este blog solo recoge una muestra resumida del contenido que puedes encontrar en el sexto número de la Revista Digital «ELEX INSIGHT«. Para acceder a todos los números de forma gratuita, visita el siguiente enlace:

Revista Digital ABRIL 2025

🡡 Haz clic para leer 🡡

Si deseas descubrir cómo la inteligencia artificial de ELEX puede transformar tu práctica legal, solicita ahora una DEMO a través de este enlace o programa una reunión con nuestros expertos para aclarar cualquier duda que puedas tener al respecto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *