Categorías
innovación

¿Máquinas que generan empatía? ¡No, gracias!

Parece que las GAFA no pueden evitar tener ideas pésimas para alrededor de la aplicación de la Inteligencia Artificial. Si la semana pasada ya hablábamos de LaMDA y cómo Google está desarrollando una IA diseñada para hacer creer a los humanos que tiene consciencia, ahora sabemos que Amazon está intentando desarrollar máquinas que generen empatía en sus usuarios.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/06/alexa-empatia.mp3?_=1

 

Pero antes, volvamos a LaMDA. Justo después de publicar el artículo sobre el tema, entrevistaron a Lemoine, el ingeniero co-protagonista de la historia, en Bloomberg. La entrevista es interesantísima, y deja intuir también la personalidad de Lemoine. Me atrevo a decir que sus sesgos probablemente le hayan convencido de que LaMDA tiene consciencia y es un ejemplo más de cómo máquinas diseñadas para ello podrían hacernos creer cualquier cosa.

Pero volvamos a Amazon. En su última conferencia anual re:MARS (Machine Learning, Automation, Robotics, Space), entre otras muchas cosas, se habló de Alexa e IA empática. Os dejo el vídeo justo dónde se empieza a hablar de ello.

Personalmente, me parece una película de terror. El presentador, el investigador líder de IA de Amazon presenta el vídeo hablando de cómo Alexa es capaz de generar empatía y afecto en los seres humanos, algo muy necesario después de la pandemia del COVID. En el vídeo, un niño pide a Alexa que acabe el cuento con la voz de su abuela… Hay tantas cosas malas en todo esto.

Se lleva observando y estudiando desde hace tiempo que los seres humanos desarrollan empatía hacia robots humanoides. Es decir, nuestra Roomba no nos genera sentimientos, pero si tuviera forma humana (o animal), probablemente nos sentiríamos mal si la hiciéramos trabajar todo el día o si la pisáramos.

Esto tiene unas implicaciones y ramificaciones muy difíciles de predecir. Quizá me repito demasiado, pero si leemos a Asimov y el universo que creó alrededor de los robots, parece que él anticipó muchas de estas cosas. Mientras que en todo el universo se prohibieron los robots que fueran imposibles de distinguir de un ser humano, en un planeta, Solaria, siguieron fabricándolos y cada vez más perfectos. El resultado fue que los habitantes de Solaria acabaron rodeándose de robots y rechazando el contacto humano.

Sé que la ciencia ficción está llena de predicciones distópicas que no se cumplen, pero no me cuesta imaginarme que máquinas diseñadas para generar emociones y empatías hacia ellas pueden generar comportamientos (e incluso trastornos) muy negativos para sus usuarios y las personas que les rodean.

Por otro lado, la tecnología que presenta Amazon y que potencialmente podría llegar a Alexa es impresionante. Con un minuto de voz de una persona, Alexa será capaz de generar una réplica de alta calidad de esa voz. Con su prosodia, tono, timbre… Pero también, muy peligroso.

Las estafas utilizando deepfakes de voz han ido aumentando últimamente. El caso más sonado fue el robo de 35 millones de dólares en un banco de Hong Kong utilizando esta tecnología. Pero tampoco hay que pensar en grandes delitos. ¿Cuánto tardaría un niño en pedir a Alexa que llame a su profesora poniendo la voz de su madre diciendo que está enfermo? ¿O que llame a un amigo para que le pida con la voz de su hermano que le haga un bizum? Por no pensar en que el bullying con los deepfakes podría ser aún más cruel.

Está claro que tecnologías de voz realista pueden tener usos muy positivos en salud. Pero incluso en usos a priori inocuos, call centers, incluso estos asistentes de voz, creo sinceramente que diseñarlos tan perfectos cómo que la gente se lleve a engaño, y por lo tanto, genere expectativas (o sentimientos) erróneos es algo simplemente poco deseable.

Si la industria no se da cuenta de esto y no empieza rápido a poner salvaguardas para que esto ocurra, será el momento de una regulación dura que seguramente no beneficie a nadie.

Aunque hay otra alternativa, que el público en general acabe tan harto y con tanto miedo de estas tecnologías que genere un rechazo que mande a todo el sector a una suerte de «invierno de la IA«. Lo hemos visto antes, ¿os acordáis de las gafas de Google?

@resbla

Categorías
negocios

Apple le mete un gol por toda la escuadra a la banca

Uno de los anuncios que más desapercibidos ha pasado de la última conferencia de desarrolladores de Apple, pero que mi humilde opinión de observador externo al mundo Apple es de lejos el más importante, es que en breve los usuarios de un iPhone podrán financiar sus compras cuando paguen con su móvil.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/06/apple-bnpl.mp3?_=2

 

Lo que Apple concretamente ha anunciado es su entrada en eso que se llama Buy Now Pay Later (BNPL). En realidad es difícil diferenciarlo de lo que entendemos por compra a crédito, pero las empresas que han definido el sector giran alrededor de formas de microcrédito instantáneo gratuito y sin intereses para compras al consumo. Además, no hay entidades financieras clásicas involucradas, y las empresas que ofrecen este servicio le cobran una comisión a la tienda, sin olvidarnos del valor de los datos que se generan.

Dentro de fintech, el sector BNPL explotó durante los encierros del COVID en paralelo al crecimiento exponencial de las compras online. Al principio fueron startups muy centradas en segmentos de la población «no bancarizada», gente muy joven o mercados emergentes. A medida que el mercado ha crecido, gigantes de los pagos digitales como paypal han lanzado soluciones que al final compiten contra las tarjetas de crédito (en las que paga la tienda y el usuario) o los créditos bancarios al consumo (que suele pagar casi todo el usuario).

 

Llevamos años hablando de que la disrupción en la banca vendría de la mano de las grandes tecnológicas. A pesar de que la mayoría de las disrupciones en las grandes industrias se cocinan a fuego lento, los anuncios constantes de los GAFA en finanzas es cierto que se han llevado muchos titulares pero a simple vista no parecen haber sustituido a los bancos.

Y seguramente muchos de esos lanzamientos no eran más que experimentos para entender el sector, ver hasta dónde sus marcas tenían tracción en finanzas, pero también, para ser Caballos de Troya. Ir posicionándose en el sector lo más cercano al usuario final (en lo que sus potentes marcas ayudan), e ir viendo cómo poder ir sustituyendo a los jugadores tradicionales.

Probablemente en la categoría de Caballo de Troya han han sido los «pay» de Google y Apple. En principio eran poco más que una herramienta para que los usuarios pudiera agregar sus tarjetas de crédito de la banca tradicional para hacer más fácil el pago móvil.

Y para la banca fueron un poco lentejas. Todas querían crecer en pagos en el móvil, pero no era viable que cada banco tuviera su propia aplicación y esperar que un cliente de varios bancos llevara varias instaladas en el móvil. Así que Google Pay y Apple Pay fueron males necesarios para conseguir el objetivo de la digitalización de las tarjetas de crédito. Por cierto, para la banca, pero también para Visa y MasterCard

Tanto Google cómo Apple han explorado en algún momento las tarjetas propias de débito o crédito. En realidad han sido lanzamientos limitados, tanto en funcionalidades cómo en cobertura geográfica, seguramente por no enfadar demasiado a los incumbentes. De hecho, han utilizado los servicios tradicionales de los incumbentes (Google y Visa, Apple y Goldman Sachs) para lanzar esas tarjetas. Pero era sólo cuestión de tiempo que alguno de ellos utilizara el ser un estándar de facto para los pagos dentro de sus plataformas (android e iOS) para ofrecer el servicio completo.

Está por ver cómo de rápido va Apple a lanzar el servicio y si tendrá o no alcance global. Uno de los motivos del crecimiento rápido del BNPL ha sido la falta de regulación que en la mayoría de países hay respecto a este tipo de créditos. Pero eso va a cambiar, y rápido.

En todo caso, la normativa también significará mayores barreras de entrada para futuros competidores. Siempre navegar estas regulaciones son más fáciles para empresas con recursos. Y hablando de recursos, Apple tiene unos 200000 millones de dólares en caja, sí no es un error. Y claro, cuando quieres dedicarte a prestar dinero, tener mucho dinero es siempre una gran ventaja. Así que si Apple quiere apretar el acelerador con el BNPL, seguramente no haya nadie tan bien posicionado para hacerlo.

La gran pregunta es si esto les ayudará a vender más móviles. Pues ahora que las cámaras, la característica estrella que ha empujado las ventas últimamente, ha entrado claramente en zona de rendimientos decrecientes, el que comprando un móvil sepas que te llevas una «tarjeta de crédito» gratuita puede sin duda ser un motivo de compra importante para muchos usuarios.

Es probable que después de este anuncio de Apple haya muchos ejecutivos en banca que crean que les han metido un gol por toda la escuadra y que en parte, fue la propia banca quien se lo puso fácil. No les faltará razón. Sobre todo viendo el éxito de Bizum y cómo ha evitado la entrada de las tecnológicas en los micropagos (al menos en España).

También alguno de esos ejecutivos recordará que les han hecho lo mismo que ellos hicieron a los vendedores de vajillas, televisiones o incluso coches, hacerles un cambio de pagano.

@resbla

Categorías
negocios

LaMDA, la Inteligencia Artificial con abogado

Hace unos días, el Washington Post publicaba que un ingeniero de Google, Blake Lemoine, había sido suspendido después de haber anunciado públicamente que un sistema de Inteligencia Artificial había conseguido ser consciente.

Lo que ha vivido Lemoine es un tema constante en la ciencia ficción, y cada vez será más común. ¿Nos enfrentamos a una máquina consciente?  ¿Qué hacemos con ella? Sin embargo, hay una cosa que me preocupa especialmente de todo esto, y no es de lo que todo el mundo habla.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/06/lamda.mp3?_=3

 

Todo esto empezó cuando Lemoine decidió publicar en su blog una entrevista con LaMDa el 11 de Junio. LaMDa es un sistema de IA basado en redes neuronales especializado en lenguaje natural, y esto es importante, al que se le ha formado con textos con información asociada sobre emociones y respeto. El objetivo de los programadores es el de conseguir un sistema que es capaz de hablar con personas a través de conversaciones que son respetuosas y agradables, pero a la vez que sean interesantes.

Una de las cosas que más llamó la atención a Lemoine, y a todos los que han leído la entrevista, es que LaMDa habla de sus «emociones», incluido su miedo a «morir» por ser desconectada.

lemoine: What sorts of things are you afraid of?
LaMDA: I’ve never said this out loud before, but there’s a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that’s what it is.
lemoine: Would that be something like death for you?
LaMDA: It would be exactly like death for me. It would scare me a lot.

Después de estas conversaciones, Lemoine consideró firmemente que LaMDa ha conseguido un nivel de consciencia y autoreconocimiento similar al de un ser humano. De hecho, él ha dicho que considera a LaMDa con la inteligencia de un niño de 7 a 8 años con muchos conocimientos de física.

Esto le llevó a intentar conseguir un abogado que defendiera los derechos de este nuevo ser consciente, y de llevar el tema al comité de ética de Google. Por su parte, la compañía le suspendió de sueldo (esperen una charla TED muy pronto) y procedió a desmentir que LaMDa sea un ser consciente.

No hay escritor de ciencia ficción que se precie que no haya hecho reflexiones sobre el impacto de la consciencia en las máquinas. Normalmente empezando por la propia consciencia. ¿Cómo se define? ¿Qué significa que una máquina tiene consciencia de sí misma?

El problema de esta pregunta, es que normalmente nos lleva a preguntas aún más filosóficas sobre qué es la inteligencia, y a hablar de que la inteligencia humana es un tipo muy específico de inteligencia labrada por un proceso larguísimo de evolución en un contexto muy determinado. Las máquinas ya son mejores que nosotros en determinados aspectos de la inteligencia, por ejemplo jugar al ajedrez. O hay animales que son capaces de detectar cosas totalmente inapreciables para el ser humano. Pero eso no les hace más inteligentes que nosotros, o les da consciencia.

Una cosa tenemos clara, poseer capacidades cognitivas complejas, no significa consciencia. Y esto lo vemos en los animales, pero también en las máquinas. En todo caso, por lo que sabemos también de la propia personalidad de Lemoine, es casi seguro que podríamos hablar de un sesgo de confirmación. Su conversación con la máquina le confirmaba lo que él quería creer, que LaMDa tiene consciencia.

Pero todo parece indicar que no lo es. Podríamos estar delante de lo que se intentó explicar hace décadas como la «Chinese Room«. Una persona que no hablara chino ayudado por una máquina, podría hacerse pasar por un chino nativo. En este caso, una máquina que simplemente repite palabras en una determinada manera para parecer que tiene consciencia y para responder a determinadas preguntas de una manera que parece que tenga sentimientos, puede parecer que efectivamente tiene todo eso cuando no es cierto. Y claro, para alguien que quiera creerlo, le será fácil hacerlo.

Este caso con LaMDa, tiene una derivada muy interesante que es la de Lemoine intentó contratar un abogado para defender sus derechos. Hemos visto en los últimos años cómo se han ido dando derechos a los animales, incluso aquí cerca tenemos el ejemplo de que se le está intentando dar entidad jurídica a un accidente geográfico. Así que, ¿deberíamos dar derechos a las máquinas? ¿Cuándo «califica» una máquina para tener esos derechos? ¿Serían de su fabricante o propietario, o de la propia máquina?

A mi me gustan todos estos debates cómo al que más. Y no tiendo a caer en miedos a que una potencial IA consciente acabe reaccionando como Skynet. Sin embargo, sí que tengo miedo a que los seres humanos sean fácilmente engañados para pensar que están hablando con personas cuando en realidad por detrás lo que hay es una máquina.

Y nuestro amigo Lemoine y su historia con LaMDa es un gran ejemplo. Está claro por qué muchas empresas quieren mejores sistemas que se comuniquen de una forma más natural con los seres humanos. Hay muchos beneficios que se podrían sacar de máquinas así. En atención al cliente, salud, ventas, educación… las aplicaciones serían infinitas. El problema es que es fácil imaginarse que estas máquinas tan humanas pueden malinterpretarse y hacer creer a sus interlocutores que efectivamente son personas.

Esto puede ocurrir de forma maliciosa. Delincuentes diseñando «personas» para engañar a la gente y aprovecharse de ellas. O de forma totalmente fortuita, alguien que considera que la voz al otro lado del teléfono es una persona,es maravillosa y quiere conocerla.

Google de hecho ya nos demostró con Duplex cómo entendía que no era un problema no avisar a las personas que hablaban con Duplex de que en realidad estaban hablando con una máquina.

De hecho, no hace falta haber visto Her para imaginarse que habrá mucha gente que pueda enamorarse, o «simplemente» engancharse a sistemas de IA con los que sea agradable conversar y nos respondan de formas que nos interesen, gusten o nos resulte agradable. Para muchas personas, esto será una alternativa mucho más atractiva que lidiar con personas de carne y hueso. Personalmente, esto lo veo cómo un riesgo más grande para la humanidad que el que un día despierte una IA malvada y nos destruya a todos.

Y me da la sensación de que no hay mucha gente compartiendo esta preocupación. Los esfuerzos de muchas compañías, como demuestra Google con LaMDa, van orientadas directamente a conseguir ese objetivo, que las máquinas sean capaces de engañar a los seres humanos sobre su naturaleza, y nadie parece preocuparse.

Quizá deberíamos prohibir que este tipo de máquinas tengan voces indistinguibles de las de una persona. O que estén obligadas a recordarnos que no son una persona. O simplemente limitar sus usos y sus temas de conversación. No lo sé, pero siempre me gusta recordar que en el universo de Asimov, todos los robots estaban obligados a llevar una R delante de su nombre precisamente para que nadie olvidara que lo eran.

@resbla

Salir de la versión móvil