Botón de pánico en la inteligencia artificial, la apuesta de Microsoft

Botón de pánico en la inteligencia artificial, la apuesta de Microsoft
FOTOLIA

Europa ya trabaja en los principios éticos de la IA

JOSÉ ANTONIO GONZÁLEZ

Las leyes de Isaac Asimov sobre la robótica perduran con el paso de los años. «Un robot debe obedecer las órdenes de un ser humano, siempre y cuando no se contradiga la primera ley». La primera ley: «Un robot no puede hacer daño a un ser humano, o por inacción, permitir que un ser humano sufra daño».

El mundo de la ciencia ficción y particularmente Hollywood ha jugado sobre la rebelión de las máquinas y los peligros que pueden ocasionar a la población. Esta semana, el presidente de Microsoft, Brad Smith, ha abierto el debate sobre la ética en la inteligencia artificial.

Dos investigadores, Laurent Orseau de Deep Mind, y Stuart Amstrong de la Universidad de Oxford, hablaron de la necesidad de instalar botones de apagado a la inteligencia artificial y a los robots.

Las palabras de Smith en la Cumbre GeekWire 2019 fueron más allá. «¿Cuál es el mayor problema relacionado con el software que afecta hoy en día sobre la economía del Estrecho de Puget? Un software para cabinas de aviones, un software que los pilotos no podían apagar».

En la memoria colectiva sigue el error de Boeing en el software de los 737 Max. El sistema bajaba el morro del avión cuando detectaba una inclinación muy elevada. Smith abogó por una solución rápida: «Es una lección que todos los sectores de la sociedad deberán recordar: debemos ser capaces de crear buena tecnología... y de poder desactivarla».

Intento europeo

«Aunque puede traer beneficios a los individuos y la sociedad, la IA también puede tener un impacto negativo». Así explica la Comisión Europea la llegada de la Inteligencia Artificial a la vida de los europeos.

Un desembarco que ya se ha producido con la entrada de esta en los teléfonos móviles de última generación, aunque el despliegue total llegará en los próximos años. Su mayor exponente son los robots humanoides que sean capaces de imitar y realizar tareas humanas.

El primer desafío ético de esa nueva tecnología, apunta el documento, pasa por ganar confianza entre los ciudadanos y para ello el sector y los agentes políticos llamados a regularlo deben fijarse como meta «incrementar el bienestar», observando valores de la Unión Europea como «el respeto a la dignidad humana, la democracia, la igualdad, el Estado de derecho y los derechos humanos».

A partir de ahí, los expertos consultados por el Ejecutivo comunitario han identificado una serie de requerimientos clave para el desarrollo de la IA, en función del contexto: no es lo mismo una herramienta que falle al recomendar un libro a un lector que una aplicación que diagnostica erróneamente un cáncer, subraya la CE.

El grupo de trabajo está formado por 52 expertos de todos los ámbitos de la sociedad que trabajan «para que las personas acepten y usen los sistemas basados en inteligencia artificial necesitan poder confiar en ellos y saber que su privacidad es respetada», explica Andrus Ansip, vicepresidente de la Comisión Europea.