@resbla

Página personal de Roberto Espinosa Blanco

innovación

¿Máquinas que generan empatía? ¡No, gracias!

Parece que las GAFA no pueden evitar tener ideas pésimas para alrededor de la aplicación de la Inteligencia Artificial. Si la semana pasada ya hablábamos de LaMDA y cómo Google está desarrollando una IA diseñada para hacer creer a los humanos que tiene consciencia, ahora sabemos que Amazon está intentando desarrollar máquinas que generen empatía en sus usuarios.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

 

Pero antes, volvamos a LaMDA. Justo después de publicar el artículo sobre el tema, entrevistaron a Lemoine, el ingeniero co-protagonista de la historia, en Bloomberg. La entrevista es interesantísima, y deja intuir también la personalidad de Lemoine. Me atrevo a decir que sus sesgos probablemente le hayan convencido de que LaMDA tiene consciencia y es un ejemplo más de cómo máquinas diseñadas para ello podrían hacernos creer cualquier cosa.

Pero volvamos a Amazon. En su última conferencia anual re:MARS (Machine Learning, Automation, Robotics, Space), entre otras muchas cosas, se habló de Alexa e IA empática. Os dejo el vídeo justo dónde se empieza a hablar de ello.

Personalmente, me parece una película de terror. El presentador, el investigador líder de IA de Amazon presenta el vídeo hablando de cómo Alexa es capaz de generar empatía y afecto en los seres humanos, algo muy necesario después de la pandemia del COVID. En el vídeo, un niño pide a Alexa que acabe el cuento con la voz de su abuela… Hay tantas cosas malas en todo esto.

Se lleva observando y estudiando desde hace tiempo que los seres humanos desarrollan empatía hacia robots humanoides. Es decir, nuestra Roomba no nos genera sentimientos, pero si tuviera forma humana (o animal), probablemente nos sentiríamos mal si la hiciéramos trabajar todo el día o si la pisáramos.

Esto tiene unas implicaciones y ramificaciones muy difíciles de predecir. Quizá me repito demasiado, pero si leemos a Asimov y el universo que creó alrededor de los robots, parece que él anticipó muchas de estas cosas. Mientras que en todo el universo se prohibieron los robots que fueran imposibles de distinguir de un ser humano, en un planeta, Solaria, siguieron fabricándolos y cada vez más perfectos. El resultado fue que los habitantes de Solaria acabaron rodeándose de robots y rechazando el contacto humano.

Sé que la ciencia ficción está llena de predicciones distópicas que no se cumplen, pero no me cuesta imaginarme que máquinas diseñadas para generar emociones y empatías hacia ellas pueden generar comportamientos (e incluso trastornos) muy negativos para sus usuarios y las personas que les rodean.

Por otro lado, la tecnología que presenta Amazon y que potencialmente podría llegar a Alexa es impresionante. Con un minuto de voz de una persona, Alexa será capaz de generar una réplica de alta calidad de esa voz. Con su prosodia, tono, timbre… Pero también, muy peligroso.

Las estafas utilizando deepfakes de voz han ido aumentando últimamente. El caso más sonado fue el robo de 35 millones de dólares en un banco de Hong Kong utilizando esta tecnología. Pero tampoco hay que pensar en grandes delitos. ¿Cuánto tardaría un niño en pedir a Alexa que llame a su profesora poniendo la voz de su madre diciendo que está enfermo? ¿O que llame a un amigo para que le pida con la voz de su hermano que le haga un bizum? Por no pensar en que el bullying con los deepfakes podría ser aún más cruel.

Está claro que tecnologías de voz realista pueden tener usos muy positivos en salud. Pero incluso en usos a priori inocuos, call centers, incluso estos asistentes de voz, creo sinceramente que diseñarlos tan perfectos cómo que la gente se lleve a engaño, y por lo tanto, genere expectativas (o sentimientos) erróneos es algo simplemente poco deseable.

Si la industria no se da cuenta de esto y no empieza rápido a poner salvaguardas para que esto ocurra, será el momento de una regulación dura que seguramente no beneficie a nadie.

Aunque hay otra alternativa, que el público en general acabe tan harto y con tanto miedo de estas tecnologías que genere un rechazo que mande a todo el sector a una suerte de «invierno de la IA«. Lo hemos visto antes, ¿os acordáis de las gafas de Google?

@resbla

Comentarios bienvenidos!