Address
304 North Cardinal St.
Dorchester Center, MA 02124

Work Hours
Monday to Friday: 7AM - 7PM
Weekend: 10AM - 5PM

Regulación de la inteligencia artificial en la Unión Europea

Regulación de la inteligencia artificial en la Unión Europea

Conoce la Regulación de la inteligencia artificial en la Unión Europea y su enfoque en proteger derechos y fomentar la innovación.

En este artículo, te ofrecemos una vista preliminar al artículo escrito por Albero Palomar Olmeda, profesor titular de derecho administrativo, magistrado de lo contencioso-administrativo (EV), abogado y socio de Broseta, para el cuarto número de la Revista Digital «ELEX INSIGHT».

Para leer la publicación completa, haz clic aquí. En este artículo, disponible en la edición de julio de 2024, seis expertos del ámbito analizan en detalle la inmersión de la inteligencia artificial en nuestra vida cotidiana, y como las nuevas tecnologías emergentes, requieren de una seguridad cada vez más compleja.

Introducción

La regulación de la inteligencia artificial en la Unión Europea es un tema de máxima relevancia en un mundo cada vez más dependiente de esta tecnología. Con la reciente aprobación del Reglamento (UE) 2024/1689 el 13 de junio de 2024, la Unión Europea ha dado un paso firme para garantizar que la inteligencia artificial (IA) se desarrolle de manera segura, ética y centrada en el ser humano. Este reglamento establece normas estrictas para proteger la seguridad, salud, derechos fundamentales, y asegurar el Estado de Derecho y la democracia en el contexto del creciente uso de la IA.

Un marco claro para la regulación de la inteligencia artificial en la Unión Europea

El principal objetivo del Reglamento es mejorar el funcionamiento del mercado interior mediante la regulación de la inteligencia artificial en la Unión Europea. Esto se logra estableciendo normas armonizadas que aseguren un desarrollo confiable y ético de la IA en todos los Estados miembros. Además, este reglamento busca garantizar que la IA se implemente de manera que proteja los derechos fundamentales de los ciudadanos, promoviendo al mismo tiempo la innovación tecnológica en sectores clave, como las pequeñas y medianas empresas (pymes) y startups.

Este enfoque regulador no solo se centra en la limitación de la IA, sino que también fomenta su desarrollo responsable, promoviendo un uso que maximice los beneficios para la sociedad y minimice los riesgos potenciales.

Prácticas de IA prohibidas

El Artículo 5 del Reglamento define con claridad las prácticas de IA prohibidas, estableciendo límites para proteger a los ciudadanos y garantizar un uso ético de la inteligencia artificial. Las prohibiciones incluyen:

  • Uso de técnicas subliminales o manipuladoras: Se prohíbe la introducción en el mercado, puesta en servicio o utilización de sistemas de IA que alteren el comportamiento de las personas a través de técnicas engañosas.
  • Explotación de vulnerabilidades: Está prohibido utilizar sistemas de IA que exploten las vulnerabilidades de personas debido a su edad, discapacidad o situación social o económica.
  • Evaluación y clasificación de personas: Se prohíbe el uso de sistemas de IA destinados a evaluar o clasificar a individuos o grupos basándose en su comportamiento social o características personales.
  • Evaluación de riesgos delictivos: Se prohíbe utilizar la IA para realizar evaluaciones de riesgos de personas en relación con su posibilidad de cometer delitos.
  • Creación de bases de datos de reconocimiento facial: No está permitido el uso de IA para crear o ampliar bases de datos de reconocimiento facial.
  • Inferencia de emociones en lugares de trabajo o educativos: Está prohibido utilizar sistemas de IA que infieran las emociones de una persona en lugares de trabajo y centros educativos.
  • Categorización biométrica: Se prohíbe el uso de IA para clasificar personas basándose en datos biométricos.
  • Identificación biométrica en espacios públicos: Está prohibido el uso de sistemas de identificación biométrica en tiempo real en espacios públicos con fines de cumplimiento del derecho.

Estas prohibiciones son esenciales para garantizar que la regulación de la inteligencia artificial en la Unión Europea proteja a los ciudadanos de posibles abusos y riesgos asociados con el uso indebido de esta tecnología.

Sistemas de IA de alto riesgo

La regulación de la inteligencia artificial en la Unión Europea también se centra en los sistemas de IA de alto riesgo, que son aquellos que pueden tener un impacto significativo en la seguridad, salud y derechos fundamentales. Estos sistemas deben cumplir con una serie de requisitos estrictos antes de ser introducidos en el mercado o utilizados:

  • Sistema de gestión de riesgos: Los sistemas de IA de alto riesgo deben tener un sistema integral de gestión de riesgos que abarque todo su ciclo de vida.
  • Regulación de datos y gobernanza: Los datos utilizados para entrenar y operar estos sistemas deben ser de alta calidad y no sesgados.
  • Supervisión humana: Es esencial que haya una supervisión humana para intervenir en caso de que el sistema cause algún daño.
  • Precisión, solidez y ciberseguridad: Los sistemas de IA deben ser precisos, robustos y cumplir con los estándares de ciberseguridad.

Evaluación de conformidad y marcado CE

Antes de que un sistema de IA de alto riesgo pueda ser desplegado, debe pasar por una evaluación de conformidad que garantice el cumplimiento de los requisitos del Reglamento. Solo los sistemas que superen esta evaluación pueden llevar el marcado CE, lo que certifica su conformidad con las normas europeas. Este marcado es fundamental para la regulación de la inteligencia artificial en la Unión Europea y para asegurar la confianza de los usuarios en estas tecnologías.

Gobernanza de la IA en la Unión Europea

La gobernanza de la IA en la Unión Europea se organiza a través de dos organismos clave:

  • Consejo Europeo de Inteligencia Artificial: Responsable de la coordinación y aplicación coherente del Reglamento en toda la UE.
  • Foro Consultivo: Un espacio donde diversas partes interesadas, como la industria y la sociedad civil, proporcionan orientación sobre la implementación del Reglamento.

Apoyo a la Innovación

Para fomentar la innovación dentro del marco de la regulación de la inteligencia artificial en la Unión Europea, se han creado espacios controlados de pruebas. Estos entornos seguros, operativos a partir de agosto de 2026, permitirán a las empresas probar nuevas tecnologías de IA sin los riesgos asociados a su despliegue en un entorno no regulado.

Un futuro seguro y ético para la inteligencia artificial

La regulación de la inteligencia artificial en la Unión Europea a través del Reglamento (UE) 2024/1689 es un paso decisivo para asegurar que esta tecnología se desarrolle de manera ética, segura y centrada en el ser humano. Al establecer un marco legal robusto, la Unión Europea no solo protege a sus ciudadanos, sino que también fomenta la innovación, posicionándose como líder global en la promoción de una IA confiable y beneficiosa para toda la sociedad.

Lee ahora el análisis completo de Alberto Palomar Olmeda

Este blog solo recoge una muestra resumida del contenido que puedes encontrar en el cuarto número de la Revista Digital «ELEX INSIGHT«. Para acceder al artículo de Alberto Palomar Olmeda al completo, haz clic en el siguiente enlace:

Revista Digital JULIO 2024

🡡 Haz clic para leer 🡡

Según los principales medios de actualidad jurídica española, como ConfilegalLawyerPress o Economist & Jurist, la tecnología de ELEX continúa posicionándose como una herramienta clave para mejorar la eficiencia y productividad en el cumplimiento de plazos del sector legal

Si deseas descubrir cómo la inteligencia artificial de ELEX puede transformar tu práctica legal, solicita ahora una DEMO a través de este enlace o programa una reunión con nuestros expertos para aclarar cualquier duda que puedas tener al respecto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *