Hasta hace poco, cuando un funcionario tomaba una decisión administrativa (conceder una beca, asignar una plaza escolar o valorar una ayuda), podíamos pedirle explicaciones: ¿por qué sí?, ¿por qué no?, ¿qué criterio se aplicó?
Hoy, sin embargo, cada vez más respuestas se resumen en una frase inquietante: “lo dice el sistema”.
El matiz es importante: muchas de esas decisiones ya no las toman personas, sino algoritmos. Herramientas de inteligencia artificial que, sin nuestro conocimiento o sin plena transparencia, están influyendo en aspectos clave de nuestra vida cotidiana. Desde quién accede a una prestación hasta qué ciudadano es considerado “prioritario” en un trámite.
El problema es evidente: un algoritmo no comparece en una oficina ni ofrece explicaciones claras. Opera como una caja negra que decide sin que sepamos exactamente con qué criterios, qué datos utiliza o qué sesgos pueden influir en su resultado.
Ante esta situación, el Tribunal Supremo ha dado un paso crucial: los algoritmos públicos deben ser transparentes y comprensibles para la ciudadanía. En su histórica Sentencia (STS 3826/2025), de 11 de septiembre de 2025, dictó la obligación de la administración de mostrar el código fuente completo de Bosco, el algoritmo que decide los beneficiarios del bono social eléctrico. A partir de aquí, ya no vale escudarse en la tecnología. Si una máquina toma decisiones que afectan a nuestros derechos, tenemos derecho a saber cómo lo hace.
La importancia de abrir la “caja negra”
Imagina que un ayuntamiento utiliza un programa para asignar becas escolares. El sistema otorga más puntos a unas familias que a otras, pero nadie sabe exactamente por qué. ¿Se están priorizando ingresos, residencia, composición familiar? ¿O acaso se han introducido sesgos que discriminan a ciertos colectivos?
Sin transparencia, lo que debería ser un derecho se convierte en una especie de lotería digital (por ser suaves). Y esa opacidad mina la confianza en la Administración.
Con esta sentencia, el Supremo deja claro que los algoritmos no están por encima de la ley. Igual que una norma debe publicarse y poder entenderse, también lo deben hacer los sistemas automatizados de decisión. Transparencia no significa que cualquiera pueda manipular el código, sino que exista una posibilidad real de auditarlo y comprender su lógica.
Europa ya marca el camino de la transparencia de la IA
Este fallo se enmarca en un contexto europeo mucho más amplio: el de la regulación de la inteligencia artificial. El Reglamento de Inteligencia Artificial (RIA), que entrará en plena aplicación en agosto de 2026, establece obligaciones muy claras:
- Artículo 52.1: los sistemas de IA que interactúen directamente con personas deben informar a los usuarios de que están tratando con una máquina, salvo que sea evidente.
- Artículo 52.2: los sistemas que generen contenido sintético (textos, audios, imágenes o vídeos) deberán marcarlo de manera que pueda detectarse que ha sido producido artificialmente.
Es decir, no basta con que un sistema “funcione”. Debemos saber cuándo estamos interactuando con una IA y cuándo el contenido que consumimos es auténtico o manipulado.
A esta exigencia se suma lo que ya establece el Reglamento General de Protección de Datos (RGPD). Su artículo 13.2.f) obliga a informar a los ciudadanos cuando existan decisiones automatizadas, incluida la elaboración de perfiles, explicando la lógica utilizada y las consecuencias previstas. La ley ya reconoce que el ciudadano tiene derecho a comprender cómo se toman las decisiones que le afectan, aunque se hagan con IA.
Innovación sí, pero con garantías
Que la Administración utilice algoritmos no es, en sí mismo, algo negativo. Puede agilizar trámites, evitar errores humanos y ahorrar recursos. Pero la innovación no puede hacerse a costa de los derechos fundamentales: igualdad, no discriminación, privacidad o el derecho a una buena administración.
Con esta sentencia, España se alinea con la corriente europea: los algoritmos públicos no pueden ser cajas negras. La transparencia algorítmica deja de ser una opción y se convierte en una obligación democrática.
Reflexión final
Cada vez más aspectos de nuestra vida se deciden con ayuda de algoritmos de inteligencia artificial. Lo preocupante es que muchas veces ni lo sabemos ni entendemos cómo funcionan. Esta invisibilidad es peligrosa: convierte a la tecnología en un árbitro opaco, capaz de condicionar nuestras oportunidades de forma silenciosa.
La sentencia del Supremo y el marco europeo que viene con el RIA y el RGPD nos recuerdan algo esencial: la tecnología debe estar al servicio de las personas y no al revés. La IA puede y debe ayudarnos, pero siempre bajo reglas claras, auditables y justas.
El futuro digital de nuestras administraciones tiene que ser abierto, transparente y responsable. Solo así podremos confiar en que la revolución tecnológica trabaja realmente en beneficio de la ciudadanía.
Publicado originalmente en:
https://pintos-salgado.com/una-ia-mas-transparente-gracias-al-tribunal-supremo/