La Voz de Galicia
Seleccionar página

La inteligencia artificial ya está aquí.

Desde que Deep Blue ganó al campeón de ajedrez Gary Kasparov en 1997, era cuestión de tiempo que el hardware y el software evolucionaran para ir rivalizando con el ser humano en otras muchas áreas. Lo ha hecho Google con la primera app de reconocimiento de voz en 2008, IBM también ganando con Watson al Jeopardy en 2011 y, finalmente, el bot Eugene Goostman logrando superar el famoso “Test de Turing” en 2014. Hoy se habla ya sin ambajes de conducción autónoma y de fábricas plenamente automatizadas, por no hablar de la inminente destrucción de empleos en dichas áreas y en otras, copadas paulatinamente por los llamados robots inteligentes.

Pixabay

¿Hasta dónde podemos llegar?

La ciencia ficción lleva décadas anticipando esta nueva realidad así como de las posibles consecuencias más funestas de la misma: desde la fría lógica del computador HAL 9000 en “2001: Una Odisea del Espacio”, pasando por el terrorífico Skynet de “Terminator” o el Matrix de 1999, hasta la conmovedora pero inquietante “Her” de 2013.

Y es que, más allá de lo que nos haya podido contar el imaginario del cine o la literatura sobre las consecuencias que puede tener la inteligencia artificial para la humanidad, lo cierto es que se abre una nueva época llena de incógnitas y el Derecho debe intentar regularla, como nueva realidad que es.

Pero, antes de entrar en esta posible regulación, ¿qué derechos tenemos los seres humanos ante el surgimiento de la nueva IA?

Como no podía ser de otro modo, tenemos los derechos clásicos recogidos en nuestra Constitución de 1978. Entre ellos:

  • El derecho a la vida y a la integridad física y moral (artículo 15);
  • La libertad de pensamiento, movilidad y desplazamiento (arts. 16, 17 y 19);
  • El derecho a la intimidad, a la propia imagen y a la privacidad (art. 18);
  • La libertad de expresión e información (art. 20) y
  • El derecho al honor (art. 18.1).

 

Todos ellos son derechos humanos básicos, a los que se pueden sumar otros como el derecho al trabajo, reconocido en el artículo 35 aunque no goza de la condición de derecho fundamental en nuestra Constitución.

Obviamente, todos estos derechos deben ser respetados en un nuevo escenario en que la inteligencia artificial desafíe y, por qué no decirlo, se imponga al ser humano en muchas de las áreas en las que ahora goza de hegemonía.

En esta línea, Isaac Asimov propuso en sus obras de ficción, ya en 1942, las famosas tres leyes de la robótica, de obligatorio cumplimiento para todo robot inteligente:

  1. Un robot no hará daño a un ser humano ni permitirá que, por inacción, éste sufra daño.
  2. Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley.
  3. Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda.

 

A las que se le añadió posteriormente la cuarta llamada Ley Cero, que se antepone al resto:

  • Un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño.

Sin duda, sería deseable partir de una regulación por defecto en la inteligencia artificial que, al menos, respetara estas leyes así como el resto de los derechos humanos expuestos.

¿Se ha avanzado algo en ello?

Pues algo sí. Por lo pronto, tenemos ya dos propuestas regulatorias de ambos lados del charco y ambas muy recientes:

  1. En Estados Unidos: el Plan Nacional Estratégico de Investigación y Desarrollo en Inteligencia Artificial, de octubre de 2016, del Consejo Nacional de Ciencia y Tecnología.
  2. En la Unión Europea: la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica.

 

Bien es cierto que la primera se aprobó bajo la Administración Obama y, huelga decir, que tiene un futuro incierto bajo la actual presidencia de Trump. Como en tantas otras cosas, habrá que esperar y ver.

Por su parte, la Resolución del Parlamento Europeo goza de plena salud y supone ya una propuesta formal para que la Comisión Europea pueda presentar un borrador de normativa en los próximos meses.

Pero ¿qué dice la propuesta regulatoria europea?

Más allá de que ya se esté hablado de las nuevas leyes de la robótica de la UE, lo cierto es que se plantean interesantes cuestiones que, en mi opinión, llegan en el momento justo en el que la industria se preparara para el gran salto hacia delante.

La primera de ellas es lo que se puede convertir en la primera piedra de una futura “personalidad electrónica”, reconocida jurídicamente para la inteligencia artificial. Para ello, la Propuesta UE habla de la necesidad de dar una definición única de “robot inteligente” (RI) a nivel europeo. Aunque no llega a darla, sí podemos hablar de los elementos necesarios para ello. Serían los siguientes que, como mínimo, debería tener este ente artificial:

  1. Capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el intercambio y análisis de dichos datos;
  2. Capacidad de autoaprendizaje a partir de la experiencia y la interacción con su entorno (esto se considera opcional y no necesario en todos los casos);
  3. Soporte físico mínimo;
  4. Capacidad de adaptar su comportamiento y acciones al entorno; e
  5. Inexistencia de vida, al menos en el sentido biológico.

 

Una vez definidos, el Parlamento Europeo propone crear un Registro de Robots Inteligentes, a modo de Registro de Tráfico o de Registro Civil de “personas electrónicas”, para tener a los RI inscritos e identificados.

Sentada esta base, la propuesta europea se lanza a regular los que serán los derechos y obligaciones tanto de los usuarios como, muy especialmente, de los ingenieros, investigadores y diseñadores de robots e inteligencias artificiales. Y ello lo hace, ni más ni menos, que a través de una verdadera “Carta sobre Robótica” donde plantea tanto aspectos jurídicos como éticos para esta futura regulación de la inteligencia artificial.

Como principios generales de esta regulación, la antedicha Carta plantea ya los siguientes:

  1. Principio de Beneficencia: por el cual, los robots deben actuar siempre en beneficio del hombre;
  2. Principio de no perjuicio o maleficencia: por el que establece la doctrina de «primero, no hacer daño», en virtud del cual los robots no deberían nunca perjudicar a las personas (se parece a la primera Ley de Asimov, no? ;-);
  3. Principio de Autonomía: la capacidad de tomar una decisión con conocimiento de causa e independiente sobre los términos de interacción con los robots; y
  4. Principio de Justicia: o la distribución justa de los beneficios asociados a la robótica y la asequibilidad de los robots utilizados en el ámbito de la asistencia sanitaria a domicilio y de los cuidados sanitarios en particular.

 

Todo esto está muy bien pero, ¿en qué se traduce en términos prácticos?

Pues, ante estos principios, la Resolución del Parlamento Europeo ya entra en propuestas concretas de las que podemos destacar las siguientes:

  • Reversibilidad y teclas de interrupción de urgencia: La posibilidad de deshacer la última acción o secuencia de acciones de un robot o una IA, que permita al usuario anular las acciones no deseadas o, en caso de emergencia, desconectarlo totalmente. Éste es el famoso “botón rojo” también propuesto por otras entidades y expertos para garantizar que el control último de la inteligencia artificial resida siempre en los humanos;
  • Privacidad: Los individuos no serán personalmente identificables, salvo en caso de consentimiento explícito del afectado, el cual tiene que recabarse antes de cualquier interacción hombre-máquina.
  • Transparencia: Las etapas de toma de decisión del robot inteligente deben ser claras y poder ser objeto de reconstrucción y trazabilidad en todo momento.
  • Seguridad y previsibilidad: La respuesta y ejecución de los robots y de las IA deben realizarse teniendo en cuenta la incertidumbre en la interpretación y en la acción, así como los posibles fallos de los robots o del hombre. La idea es dar un margen de seguridad respecto a la posible falibilidad e imperfecciones de la comunicación humano-máquina.
  • Identificación: El autómata debe ser identificado como tal al relacionarse con humanos. Es decir, en ningún caso, se podrá diseñar un androide o IA que nos engañe al hacerse pasar por un humano. Debemos tener claro siempre que al otro lado hay una máquina, a la hora de interactuar con ella.

 

Finalmente, la Propuesta del Parlamento Europeo se completa con el contenido mínimo de la Licencia de Uso de la Inteligencia Artificial. En dicha licencia se tendrán que contemplar, al menos, los derechos y obligaciones para los usuarios de robots inteligentes que resumimos a continuación:

  1. Derecho a no temer perjuicio físico ni psicológico;
  2. Derecho a esperar que el robot ejecute sus tareas propias, para las que fue diseñado;
  3. Obligación de aceptar las limitaciones de percepción, cognición y acción del robot inteligente;
  4. La inteligencia artificial deberá respetar la fragilidad y emotividad humana, no generando confusión en cuanto a la realidad de los sentimientos simulados por la máquina;
  5. Derecho a la intimidad: el robot deberá respetar la vida privada y, por ejemplo, desactivar sus videomonitores en momentos íntimos;
  6. No tratar datos de personas sin el consentimiento explícito y previo de las mismas;
  7. Obligación de no usar a los robots contra la Ley ni contra la Ética; y
  8. En ningún caso, modificar robots para ser usados como armas.

 

De los derechos de los robots, mejor hablamos otro día 😉

 

 

Este artículo deriva de la ponencia “Los nuevos Derechos Humanos ante el Avance de la Inteligencia Artificial” impartida en el evento #LegalThinking : Derecho 2.0: reflexiones de abogad@s TIC sobre tecnología, robótica e inteligencia artificial, el 17 de marzo de 2017 en la Facultad de Derecho de la Universidad de A Coruña.

Publicado originalmente en: http://pintos-salgado.com/2017/03/17/derechos-humanos-e-inteligencia-artificial-leyes-de-la-robotica-en-la-ue/