Blog 16/4/2025
Ana Martins, Directora General de Cumplimiento, Gobernanza y Sostenibilidad en Timestamp, nos explica las pautas sobre prácticas prohibidas de IA de la Comisión Europea
El Reglamento de la Inteligencia Artificial (Reglamento (UE) 2024/1689, conocido como "AI Act") entró en vigor de forma gradual en agosto de 2024. El 2 de febrero de 2025, entraron en vigor las primeras disposiciones generales del Reglamento, que establecen normas estrictas para el desarrollo, disponibilidad y uso de sistemas de inteligencia artificial.
El 4 de febrero de 2025, la Comisión Europea publicó las "Directrices sobre las Prácticas Prohibidas de IA". Aunque no son jurídicamente vinculantes, estas directrices proporcionan orientaciones detalladas y ejemplos prácticos para unificar la interpretación del artículo 5 del Reglamento de la Inteligencia Artificial en toda la Unión Europea. Estas prohibiciones se aplican a sistemas de IA que violan principios fundamentales como la dignidad humana, la privacidad y la no discriminación.
Son prácticas que representan un riesgo para los derechos fundamentales y los valores de la UE, pudiendo causar graves daños físicos, psicológicos, financieros o económicos.
La manipulación ocurre cuando un sistema de IA influye en el pensamiento o las acciones de una persona de manera oculta, sin que esta se dé cuenta de que está siendo dirigida hacia una elección específica.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
Esta prohibición abarca sistemas que explotan las debilidades de personas vulnerables, como niños, personas mayores, personas con discapacidad o individuos en situación de desventaja social y económica. La prohibición existe porque estos grupos pueden tener más dificultades para reconocer o resistir manipulaciones, lo que los convierte en blancos fáciles para el abuso y la explotación por sistemas de IA.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
Este punto prohíbe sistemas que evalúan o clasifican a las personas en función de su comportamiento social, características personales o historial, resultando en trato desigual o discriminación.
La preocupación de la Unión Europea es que la IA no debe utilizarse para categorizar a los ciudadanos de forma injusta, restringiendo sus derechos u oportunidades, basándose en una puntuación arbitraria, como ocurre en algunos regímenes autoritarios.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
El uso de sistemas de reconocimiento facial y otras formas de vigilancia biométrica en espacios públicos sin justificación legal específica.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
El uso de IA para la recolección y extracción masiva de imágenes faciales de fuentes públicas, como Internet y cámaras de videovigilancia, sin una base legal específica, está prohibido.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
El uso de sistemas de reconocimiento de emociones en entornos laborales y educativos está prohibido, ya que representa una violación de la privacidad y puede llevar a la discriminación o un control excesivo.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas
El AI Act prohíbe sistemas de categorización biométrica que utilizan datos biométricos para inferir características sensibles de los individuos, como raza, opiniones políticas, afiliación sindical, creencias religiosas, vida sexual u orientación sexual.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
El AI Act prohíbe, como regla general, el uso de sistemas de identificación biométrica remota en tiempo real (RBI) en espacios públicos para la aplicación de la ley. Sin embargo, existen excepciones específicas en las que esta tecnología puede ser utilizada, siempre que esté autorizada por la legislación nacional y cumpla con todas las condiciones y salvaguardas del reglamento.
Ejemplos de prácticas prohibidas:
Ejemplos de excepciones admitidas:
La Comisión Europea prohibió estos sistemas porque considera que violan derechos fundamentales, tales como:
Las sanciones por incumplir las reglas relativas a prácticas de IA prohibidas son las más severas previstas en el AI Act, reflejando la gravedad de estas infracciones. Los proveedores y usuarios que desarrollen o utilicen sistemas de IA prohibidos pueden ser multados con hasta 35 millones de euros o el 7% de la facturación anual mundial de la empresa infractora, lo que sea más alto.
Estas penalizaciones severas se justifican por el alto riesgo que estas prácticas representan para los derechos fundamentales, la seguridad y los valores de la Unión Europea. El reglamento busca prevenir daños significativos derivados del uso abusivo de la IA.
La imposición de sanciones elevadas tiene como objetivo disuadir a empresas y entidades públicas de recurrir a estas prácticas ilegales y garantizar un nivel uniforme de protección y cumplimiento en toda la Unión Europea.
Las empresas que desarrollan, importan, distribuyen, implementan o utilizan Inteligencia Artificial en la Unión Europea deben asegurarse de que sus sistemas no violen las prácticas prohibidas establecidas por el Reglamento de IA (UE) 2024/1689.
Cualquier sistema que se ajuste a los escenarios descritos no puede ser comercializado ni utilizado en la UE, y el incumplimiento de estas reglas puede dar lugar a multas severas y sanciones legales. Ante este escenario, es esencial que las empresas realicen una evaluación detallada de sus sistemas de IA, garantizando total conformidad con la legislación.
Las empresas deben mapear, analizar y clasificar sus sistemas en función del riesgo, con el fin de identificar si encajan en las prácticas prohibidas y adoptar las medidas necesarias para cumplir con la normativa.
Contamos con una metodología sistematizada para mapear, analizar y clasificar los sistemas de IA de su organización, identificando puntos críticos relevantes y riesgos asociados, en alineación con el marco regulador.
Timestamp ofrece un enfoque 360º de la Inteligencia Artificial, que abarca aspectos de Conformidad Regulatoria, Consultoría tecnológica y funcional, y soluciones tecnológicas, apoyando a su empresa a lo largo de todo el ciclo de vida de los proyectos de IA, desde el diagnóstico, diseño, desarrollo, implementación de los sistemas hasta su monitoreo.
Adecuamos la Inteligencia Artificial a su estrategia de negocio, requisitos y necesidades, de manera ética y responsable, garantizando el uso de las mejores prácticas del sector, las mejores tecnologías y alineación regulatoria.
Descubra todo sobre cómo podemos ayudar a su empresa: Privacy & Digital Security | Timestamp & Data & AI | Timestamp
Por: Ana Martins | Managing Director – Compliance, Governance & Sustainability
Comparta este post