Reglamento de la Inteligencia Artificial: Directrices de la Comisión Europea sobre Prácticas Prohibidas

Blog 16/4/2025

Reglamento de la Inteligencia Artificial: Directrices de la Comisión Europea sobre Prácticas Prohibidas

Ana Martins, Directora General de Cumplimiento, Gobernanza y Sostenibilidad en Timestamp, nos explica las pautas sobre prácticas prohibidas de IA de la Comisión Europea

El Reglamento de la Inteligencia Artificial (Reglamento (UE) 2024/1689, conocido como "AI Act") entró en vigor de forma gradual en agosto de 2024. El 2 de febrero de 2025, entraron en vigor las primeras disposiciones generales del Reglamento, que establecen normas estrictas para el desarrollo, disponibilidad y uso de sistemas de inteligencia artificial.

El 4 de febrero de 2025, la Comisión Europea publicó las "Directrices sobre las Prácticas Prohibidas de IA". Aunque no son jurídicamente vinculantes, estas directrices proporcionan orientaciones detalladas y ejemplos prácticos para unificar la interpretación del artículo 5 del Reglamento de la Inteligencia Artificial en toda la Unión Europea. Estas prohibiciones se aplican a sistemas de IA que violan principios fundamentales como la dignidad humana, la privacidad y la no discriminación.

1. ¿QUÉ SON LAS PRÁCTICAS DE LA IA PROHIBIDAS POR EL REGLAMENTO DE LA INTELIGENCIA ARTIFICIAL?

Son prácticas que representan un riesgo para los derechos fundamentales y los valores de la UE, pudiendo causar graves daños físicos, psicológicos, financieros o económicos.

2. ¿CUÁLES SON LAS PRÁCTICAS DE LA IA PROHIIDAS DENTRO DE LA IA ACT?

a)  Manipulación Cognitiva y Comportamental

La manipulación ocurre cuando un sistema de IA influye en el pensamiento o las acciones de una persona de manera oculta, sin que esta se dé cuenta de que está siendo dirigida hacia una elección específica.

Ejemplos de prácticas prohibidas:

  • Algoritmos que manipulan emociones para inducir compras compulsivas.
  • IA que explota vicios o debilidades psicológicas para generar dependencia.
  • Sistemas que influyen en votos u opiniones políticas de forma oculta.

Ejemplos de excepciones admitidas:

  • Las interfaces cerebro-máquina y tecnologías neuroasistentes están permitidas si se diseñan de forma ética y respetan la privacidad.
  • La persuasión lícita también está permitida, siempre que se haga de forma transparente y respete la libertad de elección del usuario.
  • La personalización basada en consentimiento informado está permitida. Por ejemplo, un sistema de enseñanza personalizado puede ajustar el contenido según el desempeño del alumno, siempre que el usuario tenga control sobre sus elecciones.

b) Explotación de Vulnerabilidades de Grupos Específicos a través de la IA

Esta prohibición abarca sistemas que explotan las debilidades de personas vulnerables, como niños, personas mayores, personas con discapacidad o individuos en situación de desventaja social y económica. La prohibición existe porque estos grupos pueden tener más dificultades para reconocer o resistir manipulaciones, lo que los convierte en blancos fáciles para el abuso y la explotación por sistemas de IA.

Ejemplos de prácticas prohibidas:

  • Juguetes con IA que manipulan a los niños para obtener información o influir en su comportamiento.
  • Sistemas de crédito que explotan económicamente a personas mayores o de bajos ingresos.

Ejemplos de excepciones admitidas:

  • Aplicaciones de IA para ayudar en el aprendizaje de los niños, como plataformas interactivas y tutores virtuales, siempre que no manipulen comportamientos ni creen dependencia perjudicial.
  • Asistentes de salud y robots de apoyo para personas mayores y con discapacidad.
  • Sistemas de apoyo a la integración social y económica.

c) Sistemas de Clasificación Social (Social Scoring)

Este punto prohíbe sistemas que evalúan o clasifican a las personas en función de su comportamiento social, características personales o historial, resultando en trato desigual o discriminación.

La preocupación de la Unión Europea es que la IA no debe utilizarse para categorizar a los ciudadanos de forma injusta, restringiendo sus derechos u oportunidades, basándose en una puntuación arbitraria, como ocurre en algunos regímenes autoritarios.

Ejemplos de prácticas prohibidas:

  • Sistemas de IA que restringen libertades civiles basándose en el historial personal (como el sistema de crédito social de China).
  • Sistemas que niegan servicios esenciales (salud, crédito, educación) basándose en puntuaciones de comportamiento.
  • Sistemas de "reputación social" que limitan oportunidades de empleo y vivienda.

Ejemplos de excepciones admitidas:

  • Las empresas pueden usar IA para evaluar el riesgo de fraude financiero de los clientes, siempre que los datos sean relevantes (por ejemplo, comportamiento transaccional y metadatos dentro del contexto del servicio).
  • Los sistemas que analizan datos médicos y comportamentales (por ejemplo, diagnóstico de esquizofrenia basándose en el comportamiento del paciente) no están prohibidos, siempre que la evaluación sea relevante, necesaria y no conduzca a un trato injustificado.

d) Vigilancia Biométrica en Tiempo Real en Lugares Públicos

El uso de sistemas de reconocimiento facial y otras formas de vigilancia biométrica en espacios públicos sin justificación legal específica.

Ejemplos de prácticas prohibidas:

  • Reconocimiento facial para monitoreo masivo sin consentimiento.
  • Sistemas que rastrean a los ciudadanos en tiempo real sin un motivo legal válido.

Ejemplos de excepciones admitidas:

  • Si es autorizado judicialmente para casos específicos de amenaza a la seguridad pública (por ejemplo, prevención del terrorismo).
  • Aplicaciones específicas de sistemas para localizar a personas desaparecidas.

e) Extracción Indiscriminada (Scraping) de Imágenes Faciales

El uso de IA para la recolección y extracción masiva de imágenes faciales de fuentes públicas, como Internet y cámaras de videovigilancia, sin una base legal específica, está prohibido.

Ejemplos de prácticas prohibidas:

  • La creación de bases de datos de reconocimiento facial mediante la extracción automática de imágenes de Internet con IA, sin el consentimiento de las personas involucradas.
  • El uso de sistemas para la recolección de imágenes faciales a partir de videovigilancia pública sin que esté legalmente habilitada, especialmente para la monitorización generalizada de la población.

Ejemplos de excepciones admitidas:

  • Si la recolección se realiza de forma dirigida y justificada, en el marco de una investigación criminal específica, con autorización judicial.
  • Aplicaciones específicas de sistemas para fines de seguridad, siempre que respeten los derechos fundamentales y estén de acuerdo con la legislación de protección de datos.

f) Reconocimiento de Emociones en Contextos Sensibles (Trabajo y Educación)

El uso de sistemas de reconocimiento de emociones en entornos laborales y educativos está prohibido, ya que representa una violación de la privacidad y puede llevar a la discriminación o un control excesivo.

Ejemplos de prácticas prohibidas:

  • Monitorización de los estados emocionales de los empleados en el lugar de trabajo mediante sistemas de IA para evaluar productividad o comportamiento.
  • Uso de IA para analizar las expresiones faciales o el tono de voz de los estudiantes en el aula con el objetivo de evaluar su atención o implicación, sin una justificación válida.

Ejemplos de excepciones admitidas

  • Si el uso está justificado por razones médicas, como en el apoyo a pacientes con dificultades de comunicación.
  • Si es necesario para garantizar la seguridad, como en la detección de fatiga extrema en conductores o trabajadores en entornos de alto riesgo.

g) Categorización Biométrica Basada en Datos Sensibles

El AI Act prohíbe sistemas de categorización biométrica que utilizan datos biométricos para inferir características sensibles de los individuos, como raza, opiniones políticas, afiliación sindical, creencias religiosas, vida sexual u orientación sexual.

Ejemplos de prácticas prohibidas:

  • Un sistema de IA que afirma ser capaz de deducir la raza de una persona a partir de su voz.
  • Un sistema de IA que analiza tatuajes o características faciales para inferir creencias religiosas.
  • Un sistema de IA que intenta categorizar la orientación sexual de un usuario mediante fotos compartidas en línea.

Ejemplos de excepciones admitidas:

  • El uso de datos biométricos para diagnósticos médicos mediante sistemas de IA puede ser permitido, como en análisis basados en imágenes para detectar enfermedades de la piel o condiciones genéticas relacionadas con el color de la piel o de los ojos.
  • El uso de categorización biométrica para garantizar la representatividad demográfica en bases de datos puede ser permitido, siempre que se cumpla con las normativas de protección de datos.

h) Identificación Biométrica en Tiempo Real para Aplicación de la Ley

El AI Act prohíbe, como regla general, el uso de sistemas de identificación biométrica remota en tiempo real (RBI) en espacios públicos para la aplicación de la ley. Sin embargo, existen excepciones específicas en las que esta tecnología puede ser utilizada, siempre que esté autorizada por la legislación nacional y cumpla con todas las condiciones y salvaguardas del reglamento.

Ejemplos de prácticas prohibidas:

  • La policía instala cámaras de videovigilancia equipadas con reconocimiento facial en tiempo real en diversas partes de la ciudad, incluidos lugares de culto, espacios frecuentados por minorías y establecimientos comerciales.
  • Las autoridades utilizan un sistema de reconocimiento facial en tiempo real mediante IA para identificar a los participantes de una manifestación política, basándose en imágenes captadas por cámaras instaladas en la ciudad.
  • Durante un partido de fútbol, un sistema de reconocimiento emocional analiza el comportamiento de los espectadores para prever posibles incidentes violentos. El sistema activa automáticamente el RBI para identificar a los aficionados sospechosos de haber estado involucrados en disturbios en el pasado.

Ejemplos de excepciones admitidas:

  • Sistemas de RBI utilizados para encontrar víctimas de crímenes graves y personas desaparecidas, como en el caso de trata de seres humanos, explotación sexual infantil y secuestro, siempre que haya una sospecha fundamentada de que se encuentran en peligro.
  • Sistemas de RBI utilizados para prevenir amenazas específicas e inminentes contra la seguridad física de las personas, que pongan en riesgo su vida, incluidas amenazas de ataque terrorista, siempre que estén debidamente justificados.

3. ¿POR QUÉ ESTÁN PROHIBIDAS ESTAS PRÁCTICAS POR EL REGLAMENTO DE LA IA?

La Comisión Europea prohibió estos sistemas porque considera que violan derechos fundamentales, tales como:

  • Derecho a la privacidad y protección de datos.
  • Libertad de pensamiento y autonomía de decisión libre.
  • No discriminación e igualdad de trato.
  • Seguridad y protección contra el abuso tecnológico.

4. ¿CUÁLES SON LAS SANCIONES POR NO CUMPLIR LAS REGLAS DE REGLAMENTO DE INTELIGENCIA ARTIFICIAL RELATIVAS A LAS PRÁCTICAS PROHIBIDAS?

Las sanciones por incumplir las reglas relativas a prácticas de IA prohibidas son las más severas previstas en el AI Act, reflejando la gravedad de estas infracciones. Los proveedores y usuarios que desarrollen o utilicen sistemas de IA prohibidos pueden ser multados con hasta 35 millones de euros o el 7% de la facturación anual mundial de la empresa infractora, lo que sea más alto.

Estas penalizaciones severas se justifican por el alto riesgo que estas prácticas representan para los derechos fundamentales, la seguridad y los valores de la Unión Europea. El reglamento busca prevenir daños significativos derivados del uso abusivo de la IA.

La imposición de sanciones elevadas tiene como objetivo disuadir a empresas y entidades públicas de recurrir a estas prácticas ilegales y garantizar un nivel uniforme de protección y cumplimiento en toda la Unión Europea.

5. ¿CÓMO ACTUAR Y GARANTIZAR EL CUMPLIMIENTO DEL REGLAMENTO DE LA IA?

Las empresas que desarrollan, importan, distribuyen, implementan o utilizan Inteligencia Artificial en la Unión Europea deben asegurarse de que sus sistemas no violen las prácticas prohibidas establecidas por el Reglamento de IA (UE) 2024/1689.

Cualquier sistema que se ajuste a los escenarios descritos no puede ser comercializado ni utilizado en la UE, y el incumplimiento de estas reglas puede dar lugar a multas severas y sanciones legales. Ante este escenario, es esencial que las empresas realicen una evaluación detallada de sus sistemas de IA, garantizando total conformidad con la legislación.

Las empresas deben mapear, analizar y clasificar sus sistemas en función del riesgo, con el fin de identificar si encajan en las prácticas prohibidas y adoptar las medidas necesarias para cumplir con la normativa.

6. ¿CÓMO PUEDE AYUDAR TIMESTAMP?

Contamos con una metodología sistematizada para mapear, analizar y clasificar los sistemas de IA de su organización, identificando puntos críticos relevantes y riesgos asociados, en alineación con el marco regulador.

Timestamp ofrece un enfoque 360º de la Inteligencia Artificial, que abarca aspectos de Conformidad Regulatoria, Consultoría tecnológica y funcional, y soluciones tecnológicas, apoyando a su empresa a lo largo de todo el ciclo de vida de los proyectos de IA, desde el diagnóstico, diseño, desarrollo, implementación de los sistemas hasta su monitoreo.

Adecuamos la Inteligencia Artificial a su estrategia de negocio, requisitos y necesidades, de manera ética y responsable, garantizando el uso de las mejores prácticas del sector, las mejores tecnologías y alineación regulatoria.

Descubra todo sobre cómo podemos ayudar a su empresa: Privacy & Digital Security | Timestamp & Data & AI | Timestamp

Por: Ana Martins | Managing Director – Compliance, Governance & Sustainability

Comparta este post

Copiar enlace