Las tres leyes de la robótica

Sabéis que soy fan de Asimov. Una de sus grandes creaciones, que usó de una forma u otra en muchos de sus libros y que otros escritores han utilizado, son las tres leyes de la robótica:
  1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley
Siempre opiné que en nuestro mundo, el real, nos faltaban unas leyes parecidas y, de un tiempo a esta parte, viendo los avances y los derroteros que la inteligencia artificial está tomando, cada día lo pienso más.
Después de las protestas de empleados de Google sobre su participación en determinados proyectos militares para ataques autónomos (sin intervención humana) y la renuncia de la compañía a continuar la investigación en el proyecto de la armada americana, Mavel, se ha abierto a debate la posibilidad de prohibir cualquier sistema militar de ataque autónomo, bajo la campaña ‘Stop killer robots‘.
En paralelo, cuando Google tiró la toalla y abandonó el proyecto, no faltaron empresas e ingenieros que se ofrecieron para continuar la investigación y parece que, ante el debate, se ha creado un panel de expertos que quiere intentar establecer un código deontólogico para el uso de la inteligencia artificial.
¿De quién depende el panel de expertos? Del secretario de defensa de USA (Defense Innovation Board) y ¿quién participa? Desde directivos de Google, Microsoft. Linkedn y Facebook, a universidades como el MIT o emprendedores e inventores.
El director es Joshua Marcuse, quien quiere convencer a la sociedad de que ellos son los buenos. Está preocupado por atraer talento de IA al sector militar porque como dice en una entrevista a Wired:

China can conscript experts to work on military problems, whereas the United States has to find a way to interest and attract outside experts.

El departamento de defensa americano tiene que convencer a sus ingenieros de que están haciendo el bien, a pesar de este texto, en el que cito de nuevo al Sr. Marcuse :

We have legal authority to invade people’s privacy in certain circumstances, we have legal authority to commit violence, we have legal authority to wage war,

Desde 2012, cuando Obama aprobó el uso de sistemas militares autónomos para el ataque, no se ha cambiado la ley, el ataque de drones y robots sin supervisión y control humano es legal y yo me pregunto: ¿Es suficiente un código deontológico promovido por el departamento de Defensa americano para limitar los posibles daños de sistemas autónomos de ataque?
Yo creo que no. Son necesarias leyes internacionales, tipo las 3 leyes de la robótica de Asimov, que garanticen que los avances tecnológicos, que son parte de nuestra realidad, no coarten la libertad ni pongan en peligro el bienestar de la humanidad.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s