Categorías
innovación

¿Máquinas que generan empatía? ¡No, gracias!

Parece que las GAFA no pueden evitar tener ideas pésimas para alrededor de la aplicación de la Inteligencia Artificial. Si la semana pasada ya hablábamos de LaMDA y cómo Google está desarrollando una IA diseñada para hacer creer a los humanos que tiene consciencia, ahora sabemos que Amazon está intentando desarrollar máquinas que generen empatía en sus usuarios.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/06/alexa-empatia.mp3?_=1

 

Pero antes, volvamos a LaMDA. Justo después de publicar el artículo sobre el tema, entrevistaron a Lemoine, el ingeniero co-protagonista de la historia, en Bloomberg. La entrevista es interesantísima, y deja intuir también la personalidad de Lemoine. Me atrevo a decir que sus sesgos probablemente le hayan convencido de que LaMDA tiene consciencia y es un ejemplo más de cómo máquinas diseñadas para ello podrían hacernos creer cualquier cosa.

Pero volvamos a Amazon. En su última conferencia anual re:MARS (Machine Learning, Automation, Robotics, Space), entre otras muchas cosas, se habló de Alexa e IA empática. Os dejo el vídeo justo dónde se empieza a hablar de ello.

Personalmente, me parece una película de terror. El presentador, el investigador líder de IA de Amazon presenta el vídeo hablando de cómo Alexa es capaz de generar empatía y afecto en los seres humanos, algo muy necesario después de la pandemia del COVID. En el vídeo, un niño pide a Alexa que acabe el cuento con la voz de su abuela… Hay tantas cosas malas en todo esto.

Se lleva observando y estudiando desde hace tiempo que los seres humanos desarrollan empatía hacia robots humanoides. Es decir, nuestra Roomba no nos genera sentimientos, pero si tuviera forma humana (o animal), probablemente nos sentiríamos mal si la hiciéramos trabajar todo el día o si la pisáramos.

Esto tiene unas implicaciones y ramificaciones muy difíciles de predecir. Quizá me repito demasiado, pero si leemos a Asimov y el universo que creó alrededor de los robots, parece que él anticipó muchas de estas cosas. Mientras que en todo el universo se prohibieron los robots que fueran imposibles de distinguir de un ser humano, en un planeta, Solaria, siguieron fabricándolos y cada vez más perfectos. El resultado fue que los habitantes de Solaria acabaron rodeándose de robots y rechazando el contacto humano.

Sé que la ciencia ficción está llena de predicciones distópicas que no se cumplen, pero no me cuesta imaginarme que máquinas diseñadas para generar emociones y empatías hacia ellas pueden generar comportamientos (e incluso trastornos) muy negativos para sus usuarios y las personas que les rodean.

Por otro lado, la tecnología que presenta Amazon y que potencialmente podría llegar a Alexa es impresionante. Con un minuto de voz de una persona, Alexa será capaz de generar una réplica de alta calidad de esa voz. Con su prosodia, tono, timbre… Pero también, muy peligroso.

Las estafas utilizando deepfakes de voz han ido aumentando últimamente. El caso más sonado fue el robo de 35 millones de dólares en un banco de Hong Kong utilizando esta tecnología. Pero tampoco hay que pensar en grandes delitos. ¿Cuánto tardaría un niño en pedir a Alexa que llame a su profesora poniendo la voz de su madre diciendo que está enfermo? ¿O que llame a un amigo para que le pida con la voz de su hermano que le haga un bizum? Por no pensar en que el bullying con los deepfakes podría ser aún más cruel.

Está claro que tecnologías de voz realista pueden tener usos muy positivos en salud. Pero incluso en usos a priori inocuos, call centers, incluso estos asistentes de voz, creo sinceramente que diseñarlos tan perfectos cómo que la gente se lleve a engaño, y por lo tanto, genere expectativas (o sentimientos) erróneos es algo simplemente poco deseable.

Si la industria no se da cuenta de esto y no empieza rápido a poner salvaguardas para que esto ocurra, será el momento de una regulación dura que seguramente no beneficie a nadie.

Aunque hay otra alternativa, que el público en general acabe tan harto y con tanto miedo de estas tecnologías que genere un rechazo que mande a todo el sector a una suerte de «invierno de la IA«. Lo hemos visto antes, ¿os acordáis de las gafas de Google?

@resbla

Categorías
innovación

La Inteligencia Artificial que hace lo que quiere

Todos sabemos que el 29 de junio de 1997 Skynet tomó consciencia de sí misma, lo que no sabemos es cómo pasó ni cómo sus programadores lo supieron.

Algo parecido les está pasando a los programadores de sistemas de Inteligencia Artificial de verdad, no los de ciencia ficción, y en las últimas semanas hemos visto un par de noticias alucinantes en este sentido, pero por qué no negarlo, que también dan un poco de cosica.

De todo esto hablamos en este #technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2021/03/IA-autosuficiente.mp3?_=2

 

Hace un par de semanas, OpenAI anunciaba que habían identificado neuronas multimodales en redes neuronales artificiales, concretamente en su sistema de reconocimiento de imágenes CLIP.

Ya hemos hablado bastantes veces en este blog de OpenAI, la empresa que empezó como fundación de Elon Musk enfocada en buscar una Inteligencia Artificial más humana, así que no entraremos en más detalles.

Es muy interesante que el documento en que presentan el estudio, citen a estas neuronas multimodales cómo la posible razón por las que CLIP es tan preciso. Es decir, se sabe de la precisión del sistema, pero no se sabe cómo se consigue. Esto es una constante en la IA actual.

Parece probado que los seres humanos tenemos neuronas multimodales. Son un tipo de neuronas superespecializadas que responden a conceptos abstractos más allá de una imagen o un sonido. Los autores de la investigación original en estas neuronas hicieron famoso el concepto de «neurona Halle Berry». Esta sería una neurona que respondería a todo lo que nos recuerda a Halle Berry, ya sea su nombre, su imagen o películas en las que ha actuado por ejemplo.

Los investigadores de OpenAI han encontrado algo equivalente en la red neuronal de CLIP, y ponen entre otros ejemplos la que llaman «neurona Spiderman». Esta neurona artificial reacciona no sólo a imágenes de spiderman, sino a dibujos de spiderman pero también de cosas relacionadas, y también a texto, algo que las neuronas multimodales biológicas también hacen.

Conviene recordar que las redes neuronales artificiales en las que se basan muchos de los sistemas de IA actuales, están diseñados de una manera que intentan imitar cómo funciona la mente humana. Así que sorprende poco que estemos hablando de neuronas, lo que sorprende es que estas neuronas hayan aprendido por sí solas a trabajar así, porque CLIP no se programó para que tuviera neuronas multimodales.

La realidad es que todas las redes neuronales se entrenan exponiéndolas a un montón de información y siguiendo procesos de aprendizaje, pero lo que parece casi ciencia ficción es que a través de ese proceso de aprendizaje, CLIP se haya optimizado de forma autónoma para generar estas neuronas artificiales multimodales.

El cienciaficcionista en mí diría que esto es una confirmación más del funcionamiento de las neuronas multimodales en los humanos y su eficacia, una especie de evolución «natural» acelerada. Pero al revés, que una red neuronal moderna como CLIP, efectivamente funciona de forma parecida a las de los seres humanos, aunque todo esto se lo dejaremos a los científicos. También por cierto, uno se pregunta qué pasará cuando se aplique todo esto a la computación cuántica que funciona de una forma probabilística similar a las de las redes neuronales.

Algo muy interesante también en esta publicación, es que OpenAI avisa de que todo esto abre la posibilidad a algo que llaman «ataques tipográficos«, en los que simplemente poniendo un texto a la vista de una inteligencia artificial, se puede conseguir engañarla para no distinguir lo que hay detrás. Fijaros que ante una manzana (apple), CLIP ya daba una probabilidad (muy pequeña) de que en la imagen en realidad hubiera un iPod. Pero al superponer un texto que lee «iPod», la inteligencia artificial ya da de forma clara el resultado de iPod.

Otro ejemplo de un sistema de Inteligencia Artificial reaccionando de una forma para la que no había sido programado lo hemos visto también en Learning from videos de facebook.

Este sistema de tan original nombre, ha sido desarrollado por facebook para que sea la base de aprendizaje de sus diferentes sistemas en lo relativo al vídeo. Analizar y entender vídeo es una tarea de una magnitud muy superior a la del reconocimiento de imágenes, ya que no se trata sólo de entender lo que hay en un fotograma, sino también en la relación que hay entre los que forman el vídeo.

Learning from videos es una herramienta de investigación, pero facebook ya ha hecho algunas pruebas poniéndola a funcionar junto a GTD, su sistema más actual que entre otras cosas puede generar recomendaciones de vídeos basadas en su similitud.

Pues bien, resulta que el sistema recomienda vídeos en base a que tengan también sonidos parecidos, algo para lo que nunca fue diseñado.

Está claro que no estamos cerca de un sistema que de repente cobre consciencia de su existencia, pero no cabe duda de que haya sistemas que hagan bien cosas para las que nunca fueron diseñados es más que una sorpresa. De hecho, es una llamada de atención para algo de lo que se lleva hablando mucho tiempo (nosotros también lo hicimos aquí) y es de que la IA actual es una caja negra que ni siquiera sus creadores con capaces de explicar.

Por eso, una de las tendencias en la IA (identificada en el hype cycle desde hace un par de años) es el de la Inteligencia Artificial Explicable (explainable AI). No sólo es necesario que sus creadores entiendan por qué las IA toman las decisiones que toman, sino va a ser cada vez más importante obviamente para sus propietarios, pero también para sus usuarios. De hecho, es probable que sea obligatorio por ley dentro de poco.

@resbla

Categorías
innovación

Los centauros digitales nos sacarán de la crisis del coronavirus

Si hace unas pocas semanas (que ahora parecen una eternidad) nos hubieran preguntado sobre qué nos salvaría de una crisis como esta del coronavirus, seguro que alguien habría dicho que algún sistema de Inteligencia Artificial proveniente de una de las grandes tecnológicas (GAFA) encontraría la cura y nos salvaría de la crisis.

A estas alturas ya parece claro que eso no va a ocurrir. De hecho, se podría decir que la tecnología está teniendo un papel secundario en la resolución de esta crisis, y al menos, la solución no va a aparecer cómo por arte de magia en la pantalla de un ordenador.

Aunque seguro que aparece en una pantalla, pero después de que muchas personas hayan utilizado las últimas tecnologías de una forma casi simbiótica. La solución nos la traerán los centauros digitales.

De todo esto hablamos en este #technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2020/03/centauros-digitales.mp3?_=3

 

En los días en los que las GAFA perdían su estatus de empresas «trillonarias», es difícil pensar en las grandes empresas tecnológicas como las salvadoras de la humanidad ante esta crisis.


Cierto es que sin ellas, la reclusión y la crisis sería aún más insoportable. ¿Cómo trabajaríamos, nos entretendríamos, nos conectaríamos con nuestros seres queridos, mantendríamos el contacto con el mundo exterior y hasta cómo compraríamos si no fuera por los servicios que prestan estas empresas?

Sin embargo, si alguien pensó que una solución de deep learning sobre big data y utilizando blockchain sería capaz de imprimir en 3D la molécula salvadora a esta epidemia, se equivocó.

En realidad, de momento, más allá de que nos estén haciendo la vida más fácil, las grandes tecnológicas están teniendo un papel secundario en la resolución de esta crisis.

Si buceamos entre las noticias, de las grandes tecnológicas encontramos que Google ha lanzado un sitio específico para consolidar las noticias sobre el coronavirus y luchar contra las fake news.

Por su parte Apple acaba de actualizar Siri para responder a sus usuarios preguntas sobre el coronavirus. De facebook no se sabe nada, pero twitter ha acelerado su programa de perfiles verificados para incluir a expertos en el coronavirus.

Y Amazon, que ha sido incluida en muchos países como sector crítico en muchos países del mundo, está contratando gente por todo el mundo para aguantar la demanda. Pero además, AWS ha lanzado un reto para encontrar novedosas formas de diagnóstico.

Fuera de las GAFA, tenemos a Microsoft que ha puesto a disposición de varios servicios de salud un bot para ayudar en el diagnóstico remoto de los enfermos por coronavirus. Intel e IBM se han aliado con BGI para acelerar el análisis genómico del virus.

Y no hay que olvidar que SpaceX y Tesla han dejado de fabricar cohetes y coches para fabricar respiradores. 

La verdad es que todo muy loable, pero muy alejado de la relevancia que se les supondría teniendo en cuenta su peso específico pre-crisis.

Y la verdad es que si nos centramos en la Inteligencia Artificial, estamos lejos de ese milagro que le hubiera augurado muchos. Hay varios proyectos que están identificando posibles candidatas para la vacuna del coronavirus. Los hay por todo el mundo, en Corea del Sur, EEUU, China… Pero como dice demoledoramente este artículo del MIT Technology review, la Inteligencia Artificial ayudará en la siguiente pandemia, no en esta.

Parece demasiada poca cosa que las mayores victorias de la IA hasta ahora hayan sido la detección del inicio de la pandemia y el desarrollo de un sistema que es capaz de diagnosticar la infección a través de la tos.

Las buenas noticias para los humanos después de años de artículos hablando sobre cómo las máquinas nos van a sustituir es que si una cosa va a quedar clara después de esta crisis es que estamos de pleno en la Era de los Centauros Digitales.

El término centauro (digital) se empezó a utilizar cuando Kasparov, después de perder con Deep Blue, impulsó un nuevo tipo de ajedrez en el que jugaban humanos a los que se les permitía utilizar máquinas.

Y en esta crisis, estamos viendo cómo hay muchos centauros que están intentando solucionar problemas relacionados con esta crisis. Seguramente, de los más emotivos es cómo la comunidad maker en diferentes sitios de España ha reaccionado, y algunas veces colaborando con grandes empresas, para desarrollar pantallas protectoras para sanitarios y respiradores de «bajo coste» utilizando impresoras 3D, Arduinos y mucho, mucho talento (humano).

Vamos a necesitar mucho de esto para salir de esto, pero sobre todo, después. Esto de los Centauros Digitales era algo de lo que ya se ha hablado mucho últimamente, pero creo que a veces que quedaba en uno de esos conceptos un poco etéreos de presentación de gurú. En esta crisis mucha gente y empresas se han dando de bruces con «lo digital» y verán que los centauros saldrán más fuertes de esta crisis. Como dijimos la semana pasada, lo resiliente era lo digital.

@resbla

Salir de la versión móvil