Categorías
innovación

La buena IA

Vuelven los technobits después de la inactividad del verano que sólo rompimos para el tradicional análisis del Hype Cycle 2022. Precisamente de un par de las tecnologías presentes en este Hype Cycle hablaremos hoy, Generative Design IA y Foundation Models y de que quizá están más avanzadas de lo que Gartner dice.

De esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/08/IA-creativa.mp3?_=1

 

Sin duda, uno de los temas de los que hemos hablado más últimamente en este blog es de la Inteligencia Artificial. Y lo cierto es que muchas veces lo hemos hecho para hablar de su lado más oscuro, cómo cuando hablamos de LaMDA, una máquina diseñada para engañar a las personas y hacerles pensar que hablan con otra persona y no una máquina.

Pero LaMDA es también un prodigio de la tecnología, y un buen ejemplo de eso que llama Gartner Foundation Models y que están protagonizando una revolución, aún silenciosa, de áreas de conocimiento que hasta hace poco considerábamos exclusivas de los humanos.

Hace poco el New York Times publicaba un artículo titulado «We Need to Talk About How Good A.I. Is Getting» en el que se habla de todo esto. El argumento principal es que vivimos una especie de «verano de la IA» después de una primavera en el que se ha invertido mucho en IA y que ahora estamos recogiendo sus frutos. Por cierto, primavera que vino después de un duro invierno.

El artículo da algunas recomendaciones para llegar a una visión pragmática y realista de la realidad de la IA, lejos del optimismo desbocado de los tecnófilos, pero también lejos de los distópicos. Me parece muy interesante la petición que hace a las empresas que están desarrollando estas tecnologías para ser más transparentes.

Precisamente, sólo empezamos a oír hablar de LaMDA cuando uno de sus desarrolladores decidió contratarle un abogado para su protección. Pero también es cierto que recientemente, y a medida que algunos de estos sistemas han madurado, sus desarrolladores han empezado a dejar que un mayor número de usuarios lo utilicen.

Antes de hablar de algunos de estos ejemplos, conviene hablar de uno de los sistemas más «veteranos» del grupo, DeepMind ha seguido iterando sus Alpha que ya no sólo juegan al StartCraft o al Go, en su versión AlphaFold ha sido capaz de predecir la estructura en tres dimensiones de las 200 millones de proteínas conocidas, algo que se los biólogos moleculares llevaban décadas haciendo una a una.

Y qué decir también de GPT-3 o CoPilot. GPT-3 está ya escribiendo libros completos, en muchos casos colaborando con humanos (entrando en la categoría de Generative Design AI). Y CoPilot (por cierto, basado en GPT-3) está ayudando a centenares de miles de programadores a escribir código en GitHub.

Pero este verano, la protagonista ha sido Dall-e. Si ya nos sorprendieron sus sillas-aguacate, este verano cuando OpenAI abrió su beta a un millón de usuarios, las redes sociales se llenaron con sus creaciones. Cierto es que una gran mayoría de la gente se dedicó a poco más que jugar con Dall-e, pero hay gente que consiguió dibujos muy interesantes. Aquí hay algunos muy chulos, pero en el propio artículo del NYT hay algunos espectaculares.

Hay que recordar que en este paso de abrir Dall-e a tantos usuarios, OpenAI ha abierto también el uso comercial de las imágenes generadas. Esto, que es muy interesante y que abre además las puertas una colaboración entre máquinas y personas más intensa, creo que puede tener unas implicaciones enormes en el mundo de los derechos de autor.

No soy experto, pero leyendo artículos cómo este o este, está claro que estamos ante un momento que definirá el futuro de los derechos de autor y que va a exigir grandes cambios en las normas actuales.

Intentando resumir, partimos de la base de que OpenAI está cediendo los derechos de explotación de las imágenes, pero no los derechos de autor. Esto probablemente se deba a que en muchas partes del mundo, las imágenes generadas por una IA no tienen derechos de autor y se consideran de domino público. Además, Dall-e funciona de dos maneras, una en la que tú a través de texto, describes el dibujo que quieres y el sistema lo genera automáticamente en base a su aprendizaje, y otra en la que tú subes una imagen y le pides al sistema que la retoque. Ahí hay otro potencial problema, si subes una imagen con derechos de autor y la retocas, OpenAI no quiere ninguna responsabilidad sobre eso.

Hilando más fino, tú le puedes pedir a Dall-e que dibuje una escena utilizando Legos, o en el universo de la Guerra de las Galaxias. ¿Qué pasa con esos derechos de autor? Es probable que las compañías propietarias de esos derechos tuvieran algo que decir en el caso de que una imagen generara mucho dinero… o mucha atención.

Pero aún más complicado es el tema del plagio. Dall-e, cómo todas las IA de este tipo, han aprendido viendo millones y millones de imágenes. Muchas de ellas con derechos de autor. Cuándo le dices a Dall-e que dibuje una escena con el estilo de Van Gogh puede hacerlo porque ha visto y analizado todos sus cuadros y su estilo. El caso de Van Gogh es menos problemático, ¿pero qué pasa con un artista vivo? Y aún peor, al haber aprendido viendo imágenes de multitud de artistas, puede que en algún caso determinado el sistema elija el estilo de uno en particular para «dibujar» una petición. ¿Podríamos hablar entonces de plagio?

Aquí hay un interesante artículo sobre el tema, y la visión diferente de dos artistas «plagiados». En uno de los casos Dall-e ha incluso imitado la firma del autor.

Por cierto, todo lo dicho hasta ahora sobre imágenes, es también aplicable a modelos que escriben, y también hay casos de potenciales plagios (y errores).

Lo que está claro es que efectivamente, a pesar también del lado oscuro de la IA, y también de las áreas dónde está un poco atascada, hay actividades en las que está brillando de forma clara y abriendo oportunidades inimaginables hace poco. Sin embargo, también está abriendo melones muy serios, y este de los derechos de autor lo es. Que las máquinas aprendan a dibujar o a escribir puede quitar trabajo a los artistas, pero parece que de momento dará más trabajo a los abogados.

@resbla

Categorías
innovación

¿Máquinas que generan empatía? ¡No, gracias!

Parece que las GAFA no pueden evitar tener ideas pésimas para alrededor de la aplicación de la Inteligencia Artificial. Si la semana pasada ya hablábamos de LaMDA y cómo Google está desarrollando una IA diseñada para hacer creer a los humanos que tiene consciencia, ahora sabemos que Amazon está intentando desarrollar máquinas que generen empatía en sus usuarios.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/06/alexa-empatia.mp3?_=2

 

Pero antes, volvamos a LaMDA. Justo después de publicar el artículo sobre el tema, entrevistaron a Lemoine, el ingeniero co-protagonista de la historia, en Bloomberg. La entrevista es interesantísima, y deja intuir también la personalidad de Lemoine. Me atrevo a decir que sus sesgos probablemente le hayan convencido de que LaMDA tiene consciencia y es un ejemplo más de cómo máquinas diseñadas para ello podrían hacernos creer cualquier cosa.

Pero volvamos a Amazon. En su última conferencia anual re:MARS (Machine Learning, Automation, Robotics, Space), entre otras muchas cosas, se habló de Alexa e IA empática. Os dejo el vídeo justo dónde se empieza a hablar de ello.

Personalmente, me parece una película de terror. El presentador, el investigador líder de IA de Amazon presenta el vídeo hablando de cómo Alexa es capaz de generar empatía y afecto en los seres humanos, algo muy necesario después de la pandemia del COVID. En el vídeo, un niño pide a Alexa que acabe el cuento con la voz de su abuela… Hay tantas cosas malas en todo esto.

Se lleva observando y estudiando desde hace tiempo que los seres humanos desarrollan empatía hacia robots humanoides. Es decir, nuestra Roomba no nos genera sentimientos, pero si tuviera forma humana (o animal), probablemente nos sentiríamos mal si la hiciéramos trabajar todo el día o si la pisáramos.

Esto tiene unas implicaciones y ramificaciones muy difíciles de predecir. Quizá me repito demasiado, pero si leemos a Asimov y el universo que creó alrededor de los robots, parece que él anticipó muchas de estas cosas. Mientras que en todo el universo se prohibieron los robots que fueran imposibles de distinguir de un ser humano, en un planeta, Solaria, siguieron fabricándolos y cada vez más perfectos. El resultado fue que los habitantes de Solaria acabaron rodeándose de robots y rechazando el contacto humano.

Sé que la ciencia ficción está llena de predicciones distópicas que no se cumplen, pero no me cuesta imaginarme que máquinas diseñadas para generar emociones y empatías hacia ellas pueden generar comportamientos (e incluso trastornos) muy negativos para sus usuarios y las personas que les rodean.

Por otro lado, la tecnología que presenta Amazon y que potencialmente podría llegar a Alexa es impresionante. Con un minuto de voz de una persona, Alexa será capaz de generar una réplica de alta calidad de esa voz. Con su prosodia, tono, timbre… Pero también, muy peligroso.

Las estafas utilizando deepfakes de voz han ido aumentando últimamente. El caso más sonado fue el robo de 35 millones de dólares en un banco de Hong Kong utilizando esta tecnología. Pero tampoco hay que pensar en grandes delitos. ¿Cuánto tardaría un niño en pedir a Alexa que llame a su profesora poniendo la voz de su madre diciendo que está enfermo? ¿O que llame a un amigo para que le pida con la voz de su hermano que le haga un bizum? Por no pensar en que el bullying con los deepfakes podría ser aún más cruel.

Está claro que tecnologías de voz realista pueden tener usos muy positivos en salud. Pero incluso en usos a priori inocuos, call centers, incluso estos asistentes de voz, creo sinceramente que diseñarlos tan perfectos cómo que la gente se lleve a engaño, y por lo tanto, genere expectativas (o sentimientos) erróneos es algo simplemente poco deseable.

Si la industria no se da cuenta de esto y no empieza rápido a poner salvaguardas para que esto ocurra, será el momento de una regulación dura que seguramente no beneficie a nadie.

Aunque hay otra alternativa, que el público en general acabe tan harto y con tanto miedo de estas tecnologías que genere un rechazo que mande a todo el sector a una suerte de «invierno de la IA«. Lo hemos visto antes, ¿os acordáis de las gafas de Google?

@resbla

Categorías
innovación

Conos 1 – IA 0, ¿otro invierno de la IA?

La Inteligencia Artificial ha pasado por varios momentos de estancamiento a los que se les llama Inviernos de la IA. Después de años de avances alucinantes, y de cautivar la imaginación del gran público, parece que los avances de la tecnología alrededor de la IA se está estacando y hay expertos que hablan de que podemos estar a las puertas de un nuevo Invierno de la IA. Y en estas, vemos como un taxi autónomo de Waymo de vuelve loco al encontrarse unos conos en una calle.

De todo esto hablamos en este #technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2021/05/untitled.mp3?_=3

 

La verdad es que hemos hablado hace poco de este tema en dos post recientes. Uno sobre el hecho de que aunque muchos expertos decían que el 2021 sería el año en el que empezaríamos a ver coches autónomos en nuestras carreteras, estamos bastante más lejos de lo que parece. Y otro en el que hablábamos de cómo la Inteligencia Artificial actual es una caja negra que sorprende por sus capacidades, pero a la vez, tiene errores de bulto.

Pero el que haya ocurrido esto en Arizona con un taxi de Waymo, creo que hace que merezca la pena volver a hablar de ello.

Esta reacción tan sorprendente del taxi autónomo de la que es sin duda la compañía que tiene el sistema más avanzado de conducción autónoma del mundo me recordó a una película que he visto recientemente, «Los Mitchell contra las máquinas«.

Últimamente veo muchas películas infantiles, aunque esta es muy recomendable para todos los públicos. En ella, una familia se enfrenta a un apocalipsis robótico en el que una Inteligencia Artificial quiere acabar con la humanidad. El arma definitiva (cuidado que viene un spoiler) que encuentran los Mitchells para derrotar a la IA malvada es un perro que parece un cerdo (al menos a los ojos de los robots).

Algo parecido debió pasarle al sistema del taxi de Waymo. Vio unos conos en medio de la carretera y no supo interpretar qué significaban. Lo grave no es sólo eso, sino que el sistema se colgó de tal manera que no pudieron hacerse con el control del coche desde el sistema central, y por si eso no fuera suficiente, el coche parece huir cuando llegan los operarios físicamente a recuperar el taxi.

Hay muchos expertos que citan este tipo de problemas de la IA actual para decir que la actual tecnología de IA ha llegado a su máximo y que necesitaremos nuevas tecnologías para dar otro salto. Hemos estado antes en esta situación respecto a la IA y desembocaron en lo que se ha llamado Invierno de la IA.

Estos Inviernos de la IA se generan cuando se instala un cierto pesimismo en la industria, que se contagia a la prensa y que acaba haciendo que se reciba menos inversión para startups y que incluso puede hacer que la investigación básica en el tema se resienta. En realidad, se parece mucho al Valle de la Desilusión del Hype Cycle.

Y parece que se empieza a cumplir esas condiciones. Las expectativas tan hinchadas que hemos vivido estos últimos años sobre las maravillas de la IA, no parece que se estén cumpliendo. Y los ejemplos de arriba son sólo una pequeña muestra, hay muchas cosas que los ordenadores aún no pueden hacer y parece que será imposible hasta que tengamos una Inteligencia Artificial Fuerte (o General), y nada parece que esté cerca.

También la prensa cada vez tiene una visión menos optimista sobre la IA. Desde problemas relacionados con la privacidad, hasta los relacionados con discriminación, el tono ya no es indiscutiblemente optimista.

Pero lo cierto es que la financiación no parece que se haya parado. De hecho, es difícil encontrar startups que no utilicen la IA de una u otra manera aunque no sean «startups de IA».

Así que es más probable que sea un Otoño de la IA lo que se nos viene encima. Una época en la que aprenderemos a aprovechar la tecnología actual para sacarla rendimiento de verdad y no seguir buscando aplicaciones imposibles para ella, mientras esperamos que llegue el siguiente salto que elimine las limitaciones actuales. La computación cuántica en la gran esperanza para esto.

@resbla

Salir de la versión móvil