Categorías
innovación

Reflexiones blogueras en tiempos del ChatGPT

Son varios meses sin escribir en el blog. Decir que he estado muy ocupado sería muy tópico, pero la verdad es que han sido meses muy ocupados con mi nuevo trabajo. Al menos, he conseguido mantener los technobits semanales en Capital Radio, pero no los artículos que los acompañaban…

Tampoco ayuda que siga absorto las desgraciadas noticias que nos llegan de Ucrania. Esperemos que acabe pronto.

Pero es que además está lo de ChatGPT. Para aquellos que no hayáis oído hablar de ello, ChatGPT es un modelo de lenguaje desarrollado por OpenAI que puede generar texto coherente y natural a partir de una entrada dada. Está diseñado de una manera que funciona a través de un chat y en un modo conversacional, es decir, ChatGPT va construyendo sobre las anteriores interacciones con el usuario, y se adapta incluso a sus preferencias. Un ejemplo, parte de este párrafo lo ha escrito ChatGPT.

De hecho, podría haber pedido a ChatGPT que escribiera esta misma entrada sobre el tema… y estaría bien. Hay muchos ejemplos circulando por ahí. Aquí os dejo un intento rápido de que escribiera una sobre este tema para este blog:

OpenAI (la creadora de ChatGPT) ha utilizado cantidades ingentes de textos para «formar» a la tecnología que está detrás. Libros, noticias, blogs… todo lo que se puede encontrar en internet. Esto en sí mismo daría para mucho. Está por ver el impacto de estas tecnologías en los derechos de autor, o más bien, al revés. Pero no quiero hablar de esto hoy.

No sé si os habéis dado cuenta de que ChatGPT ha entendido de forma implícita que resbla.com es un blog. Sé de forma fehaciente que ChatGPT ha «leído» el contenido de este blog, aquí está la prueba (aún con errores):

Y no digo esto (sólo) por vanidad, me va a ayudar a ilustrar un par de ideas sobre ChatGPT, y al final, sobre este blog. Empecemos, con una obviedad, una gran parte del tráfico que reciben los blogs viene de buscadores. Ese tráfico normalmente llega porque la persona que está buscando información sobre algo, decide que alguna de las propuestas que da el buscador le puede ayudar con eso. Los buscadores han ido también evolucionando en cuanto a la información «por adelantado» que muestran sobre los resultados de la búsqueda.

Sin entrar en temas de posicionamiento (obviamente muy importante), los buscadores han buscado formas de dar más contexto a sus usuarios para poder decidir si ir al sitio o no. En paralelo, han ido dando más herramientas a los dueños de las páginas web para mostrar ese extra de información. Si originalmente sólo se veía el título de la web, luego las primeras frases, ahora hay unas «tarjetas» que permiten incluir un pequeño texto que complemente al título.

Más recientemente, han ido un poco más allá para las búsquedas sobre definiciones o términos muy concretos. Google por ejemplo, ofrece cómo primer resultado una respuesta de lugares con alta reputación cómo diccionarios, webs científicas, wikipedia, etc… El link para ir a la web origen de la información sigue estando ahí, pero en la gran mayoría de los casos ya no hace falta.

Esto es un punto importante. Para muchas de estas webs el monetizar el tráfico no es algo clave, pero para el resto del mundo sí que lo es, por lo que esta solución es un gran problema para muchas webs.

Vamos a ver un ejemplo, le pedimos a google la «definición de logaritmo»:

Tenemos en primer lugar a una web de Oxford Languages, y a la derecha tenemos un extracto de wikipedia, ambas tienen acuerdos de licencia con google (y cobran por ello, claro). Luego, tenemos una sección relativamente nueva de «otras preguntas de los usuarios» en las que google, en base a los clicks de los usuarios, da extractos de webs que responden a esas preguntas. Y finalmente, ya tendríamos los resultados de búsqueda tradicional. Si eres superprof.es, me temo que todo esto no te parece muy bien, y que el dinero que te estás gastando en posicionamiento te renta menos.

Ahora, preguntemos a ChatGPT por la definición de logaritmo:

Eso sí, con muchas ventajas…

Pero hay una cosa importante en todo esto. Sea de dónde sea que ChatGPT «aprendió» todo esto, no lo sabemos. No hay links de referencia, así que el contenido que ayudó a construir esta respuesta no recibirá ningún click, ningún pago, ningún reconocimiento, nada de nada…

Esto a los usuarios sin duda les importa un bledo. De hecho, sin duda, la experiencia es mucho mejor que con un buscador. Algo que da respuestas concretas a nuestras preguntas (sean o no correctas, eso ya es otro tema), y que además nos permite seguir profundizando en el mismo sitio sin tener que ir a diferentes páginas webs con diferentes formatos, tipo de lenguaje e incluso idioma, es sin duda una grandísima mejora…

Así que después de todas estas vueltas, llego a las ideas principales de las que quería hablar en este post de hoy. La primera es que esto del ChatGPT (Generative AI en general) va a ser verdaderamente disruptivo y será una Tecnología de Utilidad General (GPT). Y lo decimos teniendo en cuenta que en este blog hablamos mucho de hype, así que intentamos mucho no caer en la histeria de llamar a todo disruptivo.

A estas alturas, la lista de cosas que según los expertos ChatGPT cambiará para siempre es ya infinita. Pero creo que puedo decir sin temor a equivocarme que el negocio de la búsqueda en internet va a cambiar muy rápido y mucho. Y claro, que cambie el negocio de la búsqueda en internet significa que internet en sí misma cambiará también de forma radical. ¿Qué va a pasar con todo el contenido que se crea en internet con el objetivo de atraer tráfico si ese tráfico no va a llegar porque se «queda» en algo como ChatGPT?

Y si hablamos de búsqueda, estamos hablando de google. ¿Pero por qué Google no ha lanzado algo así? De hecho, sabemos que Google ha estado mucho tiempo trabajando en sistemas equivalentes a ChatGPT. ¿Os acordáis de LaMDA? Además, hemos visto los cambios que han ido introduciendo en su buscador para acercarse más a cómo las personas hacemos preguntas… Teniendo todo esto en cuenta, parece claro que no han querido disrumpirse a sí mismos. Habrían también llegado a la conclusión de que esta tecnología tiene el potencial de disrumpir la búsqueda en internet, y teniendo en cuenta que ese es su principal negocio a día de hoy, mejor no tocarlo. En cambio, no es de extrañar que Microsoft, competidor de google en temas de búsqueda pero con mucho menos que perder, está a punto de aumentar su inversión en OpenAI y ya se habla de que incorporará esta tecnología a Office lo antes posible.

¿Y dónde deja todo esto a los humildes blogueros? Pues mal, muy mal. Por suerte, yo nunca tuve este blog con la idea de ganar dinero con él. Cierto es que en su momento era un buen apoyo para mi actividad profesional, pero desde hace tiempo ya no lo es. En realidad, siempre fue una herramienta para aprender, investigar, ordenar y sintetizar ideas… La verdad es que incluso antes de ChatGPT la era de los blogs ya pasó, pero está claro que aún tienen menos sitio ahora. Por un lado, herramientas cómo ChatGPT generarán mucho contenido de calidad aceptable, y por otro, esas mismas herramientas darán respuestas a muchas búsquedas sin generar tráfico a otras webs.

Así que ya mirando mi ombligo, toca replantearse este blog. De momento ya tengo claro que no seguiré escribiendo technobits aquí. Voy a probar a hacer hilos en twitter sobre los technobits porque ya no veo el sentido de escribir posts largos. Y por otro lado, quiero ver si puedo sacar tiempo para escribir contenido de más profundidad. Tengo un par de cosas en el tintero desde hace tiempo que merecen una serie de posts largos… veremos.

@resbla

Categorías
innovación

La buena IA

Vuelven los technobits después de la inactividad del verano que sólo rompimos para el tradicional análisis del Hype Cycle 2022. Precisamente de un par de las tecnologías presentes en este Hype Cycle hablaremos hoy, Generative Design IA y Foundation Models y de que quizá están más avanzadas de lo que Gartner dice.

De esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/08/IA-creativa.mp3?_=1

 

Sin duda, uno de los temas de los que hemos hablado más últimamente en este blog es de la Inteligencia Artificial. Y lo cierto es que muchas veces lo hemos hecho para hablar de su lado más oscuro, cómo cuando hablamos de LaMDA, una máquina diseñada para engañar a las personas y hacerles pensar que hablan con otra persona y no una máquina.

Pero LaMDA es también un prodigio de la tecnología, y un buen ejemplo de eso que llama Gartner Foundation Models y que están protagonizando una revolución, aún silenciosa, de áreas de conocimiento que hasta hace poco considerábamos exclusivas de los humanos.

Hace poco el New York Times publicaba un artículo titulado «We Need to Talk About How Good A.I. Is Getting» en el que se habla de todo esto. El argumento principal es que vivimos una especie de «verano de la IA» después de una primavera en el que se ha invertido mucho en IA y que ahora estamos recogiendo sus frutos. Por cierto, primavera que vino después de un duro invierno.

El artículo da algunas recomendaciones para llegar a una visión pragmática y realista de la realidad de la IA, lejos del optimismo desbocado de los tecnófilos, pero también lejos de los distópicos. Me parece muy interesante la petición que hace a las empresas que están desarrollando estas tecnologías para ser más transparentes.

Precisamente, sólo empezamos a oír hablar de LaMDA cuando uno de sus desarrolladores decidió contratarle un abogado para su protección. Pero también es cierto que recientemente, y a medida que algunos de estos sistemas han madurado, sus desarrolladores han empezado a dejar que un mayor número de usuarios lo utilicen.

Antes de hablar de algunos de estos ejemplos, conviene hablar de uno de los sistemas más «veteranos» del grupo, DeepMind ha seguido iterando sus Alpha que ya no sólo juegan al StartCraft o al Go, en su versión AlphaFold ha sido capaz de predecir la estructura en tres dimensiones de las 200 millones de proteínas conocidas, algo que se los biólogos moleculares llevaban décadas haciendo una a una.

Y qué decir también de GPT-3 o CoPilot. GPT-3 está ya escribiendo libros completos, en muchos casos colaborando con humanos (entrando en la categoría de Generative Design AI). Y CoPilot (por cierto, basado en GPT-3) está ayudando a centenares de miles de programadores a escribir código en GitHub.

Pero este verano, la protagonista ha sido Dall-e. Si ya nos sorprendieron sus sillas-aguacate, este verano cuando OpenAI abrió su beta a un millón de usuarios, las redes sociales se llenaron con sus creaciones. Cierto es que una gran mayoría de la gente se dedicó a poco más que jugar con Dall-e, pero hay gente que consiguió dibujos muy interesantes. Aquí hay algunos muy chulos, pero en el propio artículo del NYT hay algunos espectaculares.

Hay que recordar que en este paso de abrir Dall-e a tantos usuarios, OpenAI ha abierto también el uso comercial de las imágenes generadas. Esto, que es muy interesante y que abre además las puertas una colaboración entre máquinas y personas más intensa, creo que puede tener unas implicaciones enormes en el mundo de los derechos de autor.

No soy experto, pero leyendo artículos cómo este o este, está claro que estamos ante un momento que definirá el futuro de los derechos de autor y que va a exigir grandes cambios en las normas actuales.

Intentando resumir, partimos de la base de que OpenAI está cediendo los derechos de explotación de las imágenes, pero no los derechos de autor. Esto probablemente se deba a que en muchas partes del mundo, las imágenes generadas por una IA no tienen derechos de autor y se consideran de domino público. Además, Dall-e funciona de dos maneras, una en la que tú a través de texto, describes el dibujo que quieres y el sistema lo genera automáticamente en base a su aprendizaje, y otra en la que tú subes una imagen y le pides al sistema que la retoque. Ahí hay otro potencial problema, si subes una imagen con derechos de autor y la retocas, OpenAI no quiere ninguna responsabilidad sobre eso.

Hilando más fino, tú le puedes pedir a Dall-e que dibuje una escena utilizando Legos, o en el universo de la Guerra de las Galaxias. ¿Qué pasa con esos derechos de autor? Es probable que las compañías propietarias de esos derechos tuvieran algo que decir en el caso de que una imagen generara mucho dinero… o mucha atención.

Pero aún más complicado es el tema del plagio. Dall-e, cómo todas las IA de este tipo, han aprendido viendo millones y millones de imágenes. Muchas de ellas con derechos de autor. Cuándo le dices a Dall-e que dibuje una escena con el estilo de Van Gogh puede hacerlo porque ha visto y analizado todos sus cuadros y su estilo. El caso de Van Gogh es menos problemático, ¿pero qué pasa con un artista vivo? Y aún peor, al haber aprendido viendo imágenes de multitud de artistas, puede que en algún caso determinado el sistema elija el estilo de uno en particular para «dibujar» una petición. ¿Podríamos hablar entonces de plagio?

Aquí hay un interesante artículo sobre el tema, y la visión diferente de dos artistas «plagiados». En uno de los casos Dall-e ha incluso imitado la firma del autor.

Por cierto, todo lo dicho hasta ahora sobre imágenes, es también aplicable a modelos que escriben, y también hay casos de potenciales plagios (y errores).

Lo que está claro es que efectivamente, a pesar también del lado oscuro de la IA, y también de las áreas dónde está un poco atascada, hay actividades en las que está brillando de forma clara y abriendo oportunidades inimaginables hace poco. Sin embargo, también está abriendo melones muy serios, y este de los derechos de autor lo es. Que las máquinas aprendan a dibujar o a escribir puede quitar trabajo a los artistas, pero parece que de momento dará más trabajo a los abogados.

@resbla

Categorías
innovación

¿Máquinas que generan empatía? ¡No, gracias!

Parece que las GAFA no pueden evitar tener ideas pésimas para alrededor de la aplicación de la Inteligencia Artificial. Si la semana pasada ya hablábamos de LaMDA y cómo Google está desarrollando una IA diseñada para hacer creer a los humanos que tiene consciencia, ahora sabemos que Amazon está intentando desarrollar máquinas que generen empatía en sus usuarios.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2022/06/alexa-empatia.mp3?_=2

 

Pero antes, volvamos a LaMDA. Justo después de publicar el artículo sobre el tema, entrevistaron a Lemoine, el ingeniero co-protagonista de la historia, en Bloomberg. La entrevista es interesantísima, y deja intuir también la personalidad de Lemoine. Me atrevo a decir que sus sesgos probablemente le hayan convencido de que LaMDA tiene consciencia y es un ejemplo más de cómo máquinas diseñadas para ello podrían hacernos creer cualquier cosa.

Pero volvamos a Amazon. En su última conferencia anual re:MARS (Machine Learning, Automation, Robotics, Space), entre otras muchas cosas, se habló de Alexa e IA empática. Os dejo el vídeo justo dónde se empieza a hablar de ello.

Personalmente, me parece una película de terror. El presentador, el investigador líder de IA de Amazon presenta el vídeo hablando de cómo Alexa es capaz de generar empatía y afecto en los seres humanos, algo muy necesario después de la pandemia del COVID. En el vídeo, un niño pide a Alexa que acabe el cuento con la voz de su abuela… Hay tantas cosas malas en todo esto.

Se lleva observando y estudiando desde hace tiempo que los seres humanos desarrollan empatía hacia robots humanoides. Es decir, nuestra Roomba no nos genera sentimientos, pero si tuviera forma humana (o animal), probablemente nos sentiríamos mal si la hiciéramos trabajar todo el día o si la pisáramos.

Esto tiene unas implicaciones y ramificaciones muy difíciles de predecir. Quizá me repito demasiado, pero si leemos a Asimov y el universo que creó alrededor de los robots, parece que él anticipó muchas de estas cosas. Mientras que en todo el universo se prohibieron los robots que fueran imposibles de distinguir de un ser humano, en un planeta, Solaria, siguieron fabricándolos y cada vez más perfectos. El resultado fue que los habitantes de Solaria acabaron rodeándose de robots y rechazando el contacto humano.

Sé que la ciencia ficción está llena de predicciones distópicas que no se cumplen, pero no me cuesta imaginarme que máquinas diseñadas para generar emociones y empatías hacia ellas pueden generar comportamientos (e incluso trastornos) muy negativos para sus usuarios y las personas que les rodean.

Por otro lado, la tecnología que presenta Amazon y que potencialmente podría llegar a Alexa es impresionante. Con un minuto de voz de una persona, Alexa será capaz de generar una réplica de alta calidad de esa voz. Con su prosodia, tono, timbre… Pero también, muy peligroso.

Las estafas utilizando deepfakes de voz han ido aumentando últimamente. El caso más sonado fue el robo de 35 millones de dólares en un banco de Hong Kong utilizando esta tecnología. Pero tampoco hay que pensar en grandes delitos. ¿Cuánto tardaría un niño en pedir a Alexa que llame a su profesora poniendo la voz de su madre diciendo que está enfermo? ¿O que llame a un amigo para que le pida con la voz de su hermano que le haga un bizum? Por no pensar en que el bullying con los deepfakes podría ser aún más cruel.

Está claro que tecnologías de voz realista pueden tener usos muy positivos en salud. Pero incluso en usos a priori inocuos, call centers, incluso estos asistentes de voz, creo sinceramente que diseñarlos tan perfectos cómo que la gente se lleve a engaño, y por lo tanto, genere expectativas (o sentimientos) erróneos es algo simplemente poco deseable.

Si la industria no se da cuenta de esto y no empieza rápido a poner salvaguardas para que esto ocurra, será el momento de una regulación dura que seguramente no beneficie a nadie.

Aunque hay otra alternativa, que el público en general acabe tan harto y con tanto miedo de estas tecnologías que genere un rechazo que mande a todo el sector a una suerte de «invierno de la IA«. Lo hemos visto antes, ¿os acordáis de las gafas de Google?

@resbla

Salir de la versión móvil