@resbla

Página personal de Roberto Espinosa Blanco

innovación

Ya están aquí los drones asesinos.. o no?

Estos últimos días hemos visto que muchos medios se hacían eco de unos comentarios de un Coronel de la Fuerza Aerea de Estados Unidos (USAF) sobre cómo en una simulación, un dron había eliminado a su operador humano. Esto hasta ahora siempre ha sido un argumento de ciencia ficción, ¿ha llegado ya a ser una amenaza real?

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

 

No hay que buscar oscuras referencias en la ciencia ficción para ver cómo los autores han puesto muchas de sus visiones distópicas alrededor de una tecnología inteligente que decidía que los seres humanos somos un problema para su supervivencia.

Lo de una creación volviéndose contra su amo es casi tan antiguo como la ciencia ficción. La Criatura que crea Frankenstein, se dedica a acabar con la vida de su creador en búsqueda de alguien que le quiera. En RUR, novela de 1920 en la que aparece la palabra robot por primera vez, una suerte de personas artificiales creadas para ser sirvientes de las de verdad, terminan levantándose contra sus amos y exterminando la raza humana.

No es casual que Asimov pensara que habría que instalar sistemas de seguridad en estas máquinas que previnieran ante este tipo de riesgos. Sus famosas Reglas de la Robótica serían una especie de código integrado en una parte inaccesible de la inteligencia de sus robots para evitar que puedan hacer daño a los humanos. Eso sí, hay en un punto de la saga en la que eso deja de ser verdad… y hasta aquí puedo leer sin hacer demasiado destrozo.

Skynet fue consciente de sí misma en la madrugada del 29 de agosto de 1997, y segundos después decidió que los seres humanos eran una amenaza para su propia existencia y decidió eliminarlos a través de un ataque nuclear masivo.

Algo parecido a esto es lo que muchos medios del mundo se apresuraron a compartir después de que en un blog especializado se recogieran las declaraciones del Coronel de la USAF Tucker ‘Cinco’ Hamilton, Responsable de los tests y operaciones de Inteligencia Artificial.

Según lo que recogió el blog en una reciente feria del sector militar en el Reino Unido, la USAF realizó unas simulaciones en las que se utilizaba un dron equipado con IA para la toma de decisiones. En un primer momento se asignó el dron a una misión para identificar y destruir las defensas antiaéreas enemigas, pero la decisión final la tomaría un operador humano.

Al dron se le había entrenado para priorizar la destrucción de las baterías enemigas, así que a medida que la simulación avanzaba, y en algunas ocasiones recibía órdenes para abortar la misión por parte del operador humano, la IA decidió que éste era un obstáculo para realizar su misión y decidió eliminarlo.

Posteriormente se le estableció a la IA una especie de Primera Ley de la Robótica de Asimov, no mates humanos, y la IA tomó la siguiente decisión lógica en función de su programación, destruir las torres de comunicación propias para evitar recibir órdenes de su operador humano. Alguien podría decir que lo que necesita esa IA es una Segunda Ley de la Robótica y unas buenas órdenes, una buena programación.

En todo caso, el giro en la historia viene cuando ‘Cinco’ Hamilton pidió al susodicho blog que incluyera un comentario en la publicación diciendo que se «equivocó» en la presentación que hizo y que debía haber dejado claro que no hablaba de algo que había ocurrido, sino que era un «experimento mental» sobre lo que podía pasar en un escenario cómo el descrito. Y que su objetivo era el poner sobre la mesa la necesidad de hacer desarrollos de IA de forma ética.

Difícil saber al final qué es lo que pasó de verdad. No sé que es más irresponsable, el hacer un experimento así y contarlo, o pensar en un experimento así y contarlo mal. En todo caso, esta rectificación no la habréis visto en ningún sitio, lo cual también da que pensar.

Estamos últimamente hablando mucho sobre la ética y la IA. Hemos visto a Sam Altman recientemente en una gira mundial hablando de los peligros de la IA y de la necesidad de regularla.

Lo que a mí me chirría mucho de todo esto es que se habla de la IA cómo de algo autónomo que ya (casi) tiene vida propia. Y algo hay de cierto en todo esto, hay una gran parte de la IA generativa basada en deep learning que acaba convirtiéndose en una especie de caja negra en la que las decisiones las toma de forma autónoma y difícilmente explicable la máquina basándose en la ingente información con la que se la entrenó. Lo que tenemos claro ya, es que si la información con la que se le entrenó es sesgada (y cúal no), la IA será sesgada.

Pero todo esto no es más que una cortina de humo sobre los verdaderos responsables de que una máquina pueda ser peligrosa, los seres humanos que la programaron o que le dieron la información para entrenarla.

Personalmente, tengo claro que el problema de la ética con la IA no está con la tecnología, está con las personas que la están creando. No me es muy difícil imaginarme que muchos de ellos tienen una «moral distraída», o simplemente están divirtiéndose cómo niños con las posibilidades de la tecnología y no le están poniendo atención a las cosas realmente importantes.

@resbla

Comentarios bienvenidos!