La Voz de Galicia
Seleccionar página

En un artículo anterior nos centramos en el Ámbito de Aplicación del Reglamento (UE) 2024/1689 sobre inteligencia artificial (RIA). En éste hablaremos de un aspecto clave de esta norma: el de las prácticas de IA prohibidas.

El RIA no solo establece un marco legal para el uso de IA en Europa, sino que, como destaca su Considerando 26, adopta un enfoque basado en el riesgo. Este enfoque busca proporcionar un conjunto de normas proporcionadas y eficaces, que varían según la intensidad y el alcance de los riesgos que plantean los distintos sistemas de IA. En consecuencia, se prohíben prácticas de IA que se consideran inaceptables, se imponen requisitos específicos para los sistemas de alto riesgo y se establecen obligaciones de transparencia.

Hoy nos centraremos en las prácticas de IA que están expresamente prohibidas por el RIA, y cómo estas prohibiciones buscan proteger nuestros derechos fundamentales en esta era digital.

El artículo 5 del RIA enumera claramente dichas prácticas, debido a los riesgos que representan para las personas, sus derechos y su seguridad. Vamos a desglosar estas prohibiciones:

  1. Manipulación y técnicas subliminales

El Reglamento prohíbe los sistemas de IA que utilicen técnicas subliminales o deliberadamente manipuladoras para influir en el comportamiento de las personas sin que estas sean plenamente conscientes de ello. Estas técnicas, que alteran la capacidad de las personas para tomar decisiones informadas, están prohibidas si pueden provocar daños considerables. La protección frente a este tipo de manipulaciones es fundamental en un mundo donde la IA tiene el poder de influir en nuestras decisiones de maneras invisibles.

  1. Explotación de vulnerabilidades

El Reglamento también prohíbe el uso de sistemas de IA que exploten las vulnerabilidades de personas debido a su edad, discapacidad o situación social y económica. Si un sistema de IA afecta de forma negativa el comportamiento de personas que pertenecen a estos colectivos vulnerables, causando daños significativos, queda fuera de los límites permitidos. Esta prohibición busca proteger a quienes son más susceptibles a la influencia indebida de la tecnología.

  1. Evaluaciones basadas en el comportamiento social

Otra prohibición significativa es la que impide el uso de sistemas de IA para evaluar o clasificar a las personas en función de su comportamiento social. Estas evaluaciones, que recuerdan al concepto de “puntuación social”, pueden llevar a un trato discriminatorio en contextos donde esos comportamientos no son relevantes, o a decisiones desproporcionadas respecto al comportamiento de los individuos. Este tipo de prácticas no solo son invasivas, sino que también pueden tener consecuncias sociales profundamente negativas, por lo que están explícitamente prohibidas.

  1. Evaluación del riesgo de cometer delitos

El uso de IA para predecir la probabilidad de que una persona cometa un delito basándose únicamente en su perfil personal está prohibido. Sin embargo, si una IA se utiliza para apoyar la evaluación humana en investigaciones que ya cuentan con pruebas objetivas, su uso sí está permitido. Esta distinción es clave para evitar que las decisiones en el ámbito del derecho penal se basen únicamente en perfiles generados por IA, sin un respaldo factual sólido.

  1. Creación de bases de datos de reconocimiento facial

Otra prohibición notable es la creación de bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes de internet o cámaras de vigilancia. Esta práctica vulnera gravemente la privacidad de las personas, por lo que está completamente fuera de los límites permitidos por el RIA. La protección de los datos biométricos y la privacidad es uno de los ejes clave de esta normativa.

  1. Inferir emociones en el trabajo o la educación

Los sistemas de IA diseñados para inferir las emociones de las personas en el lugar de tarbajo o en centros educativos también están prohibidos, excepto en casos específicos como fines médicos o de seguridad. Esta prohibición protege a los trabajadores y estudiantes de una invasión no deseada de su privacidad emocional, impidiendo que las IA monitoreen su estado emocional en contextos sensibles.

  1. Categorización biométrica por datos sensibles

El Reglamento también prohíbe el uso de IA para clasificar a las personas según sus datos biométricoscon el objetivo de deducir características sensibles, como la raza, opiniones políticas o afiliación sindical. Si bien se permiten ciertas excepciones en el ámbito de la ley, esta prohibición busca evitar la discriminación y el mal uso de la tecnología biométrica.

  1. Identificación biométrica remota en tiempo real

El uso de sistemas de identificación biométrica remota en tiempo real en espacios públicos para fines policiales está estrictamente prohibido, excepto en casos muy específicos como la búsqueda de víctimas de secuestros o la prevención de ataques terroristas. Incluso en estos casos, se requiere una autorización previa de una autoridad judicial o administrativa independiente. Este control estricto busca evitar el abuso de estas tecnologías en la vigilancia masiva de la población.

A la luz de lo visto, el enfoque basado en el riesgo del Reglamento de Inteligencia Artificial de la UE asegura que las tecnologías más invasivas y peligrosas queden prohibidas o muy restringidas. Estas prohibiciones reflejan el compromiso de la Unión Europea con la protección de los derechos fundamentales y la privacidad de sus ciudadanos, al tiempo que permite el desarrollo de la inteligencia artificial de manera ética y segura.

La normativa establece los límites que no se deben cruzar, y coloca a Europa a la vanguardia de la regulación de la IA. En los próximos artículos de esta serie, seguiremos explorando cómo este reglamento impacta en el uso de la IA en distintos sectores, asegurando que el futuro tecnológico respete los derechos humanos y garantice un equilibrio justo entre innovación y protección.

El camino hacia agosto de 2026, cuando el reglamento será plenamente aplicable, será una oportunidad para que empresas, administraciones y ciudadanos se adapten a estas nuevas normas, asegurando que la inteligencia artificial se desarrolle de manera segura, ética y en beneficio de todos.

Tic tac …

 

Artículo publicado originalmente en: https://pintos-salgado.com/practicas-prohibidas-en-el-reglamento-de-inteligencia-artificial/