Categorías
innovación

El quinto Beatle es la IA

Paul McCartney ha confirmado hace pocos días que los Beatles lanzarán una nueva canción este año. De los Beatles originales sólo sobreviven dos, McCartney y Ringo Starr, pero en este nuevo tema se podrá escuchar a John Lennon. Habrá que empezar a hablar de la Inteligencia Artificial cómo el quinto Beatle.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2023/06/los-beatles.mp3?_=1

Hay que recordar que el último material original que publicaron los Beatles fue hace casi 30 años. Los Beatles de entonces (George Harrison aún vivía) acabaron un par de temas que John Lennon grabó en cintas caseras y que Yoko Ono entregó a McCartney en 1994. Esta nueva canción parece que se trata de Now and Then, tema que también estaba en esas cintas caseras pero con muy mala calidad (y que además parece ser que no gustaba a Harrison).

McCartney alucinó con el trabajo que hizo Peter Jackson para Get Back, un documental sobre la grabación de Let It Be. En ese documental ya consiguieron aislar y limpiar la voz de Lennon desde una cinta antigua.

En realidad, McCartney parece que ha cogido el gusto a esto de utilizar tecnología para «resucitar» a sus compañeros de banda (bueno, siempre a Lennon). En su última gira McCartney cantaba algunos temas con él.

Esto de resucitar artistas muertos con tecnología no es nuevo. Que yo recuerde, la primera vez que se hizo esto en el cine, fue en The Crow, después de que su protagonista, Brandon Lee, muriera durante el propio rodaje.

Y en el mundo de la música, hemos visto ya muchas veces estos duetos con artistas fallecidos. Incluso a veces, con hologramas

En todo caso, los Beatles han utilizado la IA para limpiar material ya existente y trabajar con ello. Pero el (grandísimo) elefante en la habitación es qué pasa cuando alguien utilice IA generativa para generar nuevo contenido con el estilo, la voz, e incluso la imagen de alguien fallecido. Ya hablamos en su caso de que a nivel experimental ya había gente haciéndolo.

Aunque hay un paso anterior, que es utilizar IA para hacer contenido nuevo basado en material existente. Una especie de remezcla. Y en algunos casos, ha sido un gran éxito de audiencia. Por ejemplo, alguien se ha creado un clon con IA del músico Drake, y ha sacado ya unas cuantas canciones. Canciones que engañaron a sus propios fans pensando que eran verdaderas, y que además han conseguido millones de reproducciones. La gente ya le llama «Drake AI«.

Las discográficas están como locas intentando parar todo esto en base a los derechos de autor. Pero ahora mismo esto parece intentar ponerle puertas al campo. Eso sí, hay gente que piensa que todo esto es parte de una campaña de promoción.

¿Y qué pasará cuando el contenido sea 100% sintético? Hace pocos meses, Kris Kashtanova, autora de Zarya of the Dawn, anunciaba que había conseguido por primera vez registrar una obra hecha con IA generativa. Las imágenes del comic las había hecho con Midjurney y ella había escrito el texto. Sin embargo, poco después, la oficina de derechos de autor en EEUU cambiaba su decisión y dejaba fuera del copyright las imágenes. Este caso hizo que la propia oficina publicara una aclaración de la norma sobre el registro de obras asistidas por IA en la que deja claro que registrarán obras en las que pueda haber elementos generados por IA pero en el que el trabajo creativo lo haya hecho un humano y especificaba que no registrarán obras creadas 100% a través de un prompt. Cierto es, que al menos para mí que no soy experto, me cuesta entender dónde está la línea…

En la Unión Europea no está claro qué podría pasar ante un caso así. Sabemos que la legislación sobre IA en la que está trabajando la UE está explorando la posibilidad de pedir a las empresas que desarrollan este tipo de tecnología que informen sobre el contenido que utilizaron para entrenar a los sistemas. De esta manera, si este contenido tuviera copyrights, probablemente estos se extendieran a los contenidos sintéticos generados a partir de ellos. Tiene lógica sobre el papel, las implicaciones en el mundo real pueden ser enormes y muy complejas.

Entramos en territorio desconocido en el tema de los derechos de autor cuando la autoría es de una Inteligencia Artificial. Pero estoy seguro que se arreglará de una manera o de otra. Los propios Beatles tienen una larguísima historia de luchas internas y externas por los derechos de autor… En todo caso, creo que podemos decir aquello de que la culpa de todo la tiene Yoko Ono.

@resbla

 

Categorías
innovación

Ya están aquí los drones asesinos.. o no?

Estos últimos días hemos visto que muchos medios se hacían eco de unos comentarios de un Coronel de la Fuerza Aerea de Estados Unidos (USAF) sobre cómo en una simulación, un dron había eliminado a su operador humano. Esto hasta ahora siempre ha sido un argumento de ciencia ficción, ¿ha llegado ya a ser una amenaza real?

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2023/06/etica-IA.mp3?_=2

 

No hay que buscar oscuras referencias en la ciencia ficción para ver cómo los autores han puesto muchas de sus visiones distópicas alrededor de una tecnología inteligente que decidía que los seres humanos somos un problema para su supervivencia.

Lo de una creación volviéndose contra su amo es casi tan antiguo como la ciencia ficción. La Criatura que crea Frankenstein, se dedica a acabar con la vida de su creador en búsqueda de alguien que le quiera. En RUR, novela de 1920 en la que aparece la palabra robot por primera vez, una suerte de personas artificiales creadas para ser sirvientes de las de verdad, terminan levantándose contra sus amos y exterminando la raza humana.

No es casual que Asimov pensara que habría que instalar sistemas de seguridad en estas máquinas que previnieran ante este tipo de riesgos. Sus famosas Reglas de la Robótica serían una especie de código integrado en una parte inaccesible de la inteligencia de sus robots para evitar que puedan hacer daño a los humanos. Eso sí, hay en un punto de la saga en la que eso deja de ser verdad… y hasta aquí puedo leer sin hacer demasiado destrozo.

Skynet fue consciente de sí misma en la madrugada del 29 de agosto de 1997, y segundos después decidió que los seres humanos eran una amenaza para su propia existencia y decidió eliminarlos a través de un ataque nuclear masivo.

Algo parecido a esto es lo que muchos medios del mundo se apresuraron a compartir después de que en un blog especializado se recogieran las declaraciones del Coronel de la USAF Tucker ‘Cinco’ Hamilton, Responsable de los tests y operaciones de Inteligencia Artificial.

Según lo que recogió el blog en una reciente feria del sector militar en el Reino Unido, la USAF realizó unas simulaciones en las que se utilizaba un dron equipado con IA para la toma de decisiones. En un primer momento se asignó el dron a una misión para identificar y destruir las defensas antiaéreas enemigas, pero la decisión final la tomaría un operador humano.

Al dron se le había entrenado para priorizar la destrucción de las baterías enemigas, así que a medida que la simulación avanzaba, y en algunas ocasiones recibía órdenes para abortar la misión por parte del operador humano, la IA decidió que éste era un obstáculo para realizar su misión y decidió eliminarlo.

Posteriormente se le estableció a la IA una especie de Primera Ley de la Robótica de Asimov, no mates humanos, y la IA tomó la siguiente decisión lógica en función de su programación, destruir las torres de comunicación propias para evitar recibir órdenes de su operador humano. Alguien podría decir que lo que necesita esa IA es una Segunda Ley de la Robótica y unas buenas órdenes, una buena programación.

En todo caso, el giro en la historia viene cuando ‘Cinco’ Hamilton pidió al susodicho blog que incluyera un comentario en la publicación diciendo que se «equivocó» en la presentación que hizo y que debía haber dejado claro que no hablaba de algo que había ocurrido, sino que era un «experimento mental» sobre lo que podía pasar en un escenario cómo el descrito. Y que su objetivo era el poner sobre la mesa la necesidad de hacer desarrollos de IA de forma ética.

Difícil saber al final qué es lo que pasó de verdad. No sé que es más irresponsable, el hacer un experimento así y contarlo, o pensar en un experimento así y contarlo mal. En todo caso, esta rectificación no la habréis visto en ningún sitio, lo cual también da que pensar.

Estamos últimamente hablando mucho sobre la ética y la IA. Hemos visto a Sam Altman recientemente en una gira mundial hablando de los peligros de la IA y de la necesidad de regularla.

Lo que a mí me chirría mucho de todo esto es que se habla de la IA cómo de algo autónomo que ya (casi) tiene vida propia. Y algo hay de cierto en todo esto, hay una gran parte de la IA generativa basada en deep learning que acaba convirtiéndose en una especie de caja negra en la que las decisiones las toma de forma autónoma y difícilmente explicable la máquina basándose en la ingente información con la que se la entrenó. Lo que tenemos claro ya, es que si la información con la que se le entrenó es sesgada (y cúal no), la IA será sesgada.

Pero todo esto no es más que una cortina de humo sobre los verdaderos responsables de que una máquina pueda ser peligrosa, los seres humanos que la programaron o que le dieron la información para entrenarla.

Personalmente, tengo claro que el problema de la ética con la IA no está con la tecnología, está con las personas que la están creando. No me es muy difícil imaginarme que muchos de ellos tienen una «moral distraída», o simplemente están divirtiéndose cómo niños con las posibilidades de la tecnología y no le están poniendo atención a las cosas realmente importantes.

@resbla

Categorías
innovación

Reflexiones blogueras en tiempos del ChatGPT

Son varios meses sin escribir en el blog. Decir que he estado muy ocupado sería muy tópico, pero la verdad es que han sido meses muy ocupados con mi nuevo trabajo. Al menos, he conseguido mantener los technobits semanales en Capital Radio, pero no los artículos que los acompañaban…

Tampoco ayuda que siga absorto las desgraciadas noticias que nos llegan de Ucrania. Esperemos que acabe pronto.

Pero es que además está lo de ChatGPT. Para aquellos que no hayáis oído hablar de ello, ChatGPT es un modelo de lenguaje desarrollado por OpenAI que puede generar texto coherente y natural a partir de una entrada dada. Está diseñado de una manera que funciona a través de un chat y en un modo conversacional, es decir, ChatGPT va construyendo sobre las anteriores interacciones con el usuario, y se adapta incluso a sus preferencias. Un ejemplo, parte de este párrafo lo ha escrito ChatGPT.

De hecho, podría haber pedido a ChatGPT que escribiera esta misma entrada sobre el tema… y estaría bien. Hay muchos ejemplos circulando por ahí. Aquí os dejo un intento rápido de que escribiera una sobre este tema para este blog:

OpenAI (la creadora de ChatGPT) ha utilizado cantidades ingentes de textos para «formar» a la tecnología que está detrás. Libros, noticias, blogs… todo lo que se puede encontrar en internet. Esto en sí mismo daría para mucho. Está por ver el impacto de estas tecnologías en los derechos de autor, o más bien, al revés. Pero no quiero hablar de esto hoy.

No sé si os habéis dado cuenta de que ChatGPT ha entendido de forma implícita que resbla.com es un blog. Sé de forma fehaciente que ChatGPT ha «leído» el contenido de este blog, aquí está la prueba (aún con errores):

Y no digo esto (sólo) por vanidad, me va a ayudar a ilustrar un par de ideas sobre ChatGPT, y al final, sobre este blog. Empecemos, con una obviedad, una gran parte del tráfico que reciben los blogs viene de buscadores. Ese tráfico normalmente llega porque la persona que está buscando información sobre algo, decide que alguna de las propuestas que da el buscador le puede ayudar con eso. Los buscadores han ido también evolucionando en cuanto a la información «por adelantado» que muestran sobre los resultados de la búsqueda.

Sin entrar en temas de posicionamiento (obviamente muy importante), los buscadores han buscado formas de dar más contexto a sus usuarios para poder decidir si ir al sitio o no. En paralelo, han ido dando más herramientas a los dueños de las páginas web para mostrar ese extra de información. Si originalmente sólo se veía el título de la web, luego las primeras frases, ahora hay unas «tarjetas» que permiten incluir un pequeño texto que complemente al título.

Más recientemente, han ido un poco más allá para las búsquedas sobre definiciones o términos muy concretos. Google por ejemplo, ofrece cómo primer resultado una respuesta de lugares con alta reputación cómo diccionarios, webs científicas, wikipedia, etc… El link para ir a la web origen de la información sigue estando ahí, pero en la gran mayoría de los casos ya no hace falta.

Esto es un punto importante. Para muchas de estas webs el monetizar el tráfico no es algo clave, pero para el resto del mundo sí que lo es, por lo que esta solución es un gran problema para muchas webs.

Vamos a ver un ejemplo, le pedimos a google la «definición de logaritmo»:

Tenemos en primer lugar a una web de Oxford Languages, y a la derecha tenemos un extracto de wikipedia, ambas tienen acuerdos de licencia con google (y cobran por ello, claro). Luego, tenemos una sección relativamente nueva de «otras preguntas de los usuarios» en las que google, en base a los clicks de los usuarios, da extractos de webs que responden a esas preguntas. Y finalmente, ya tendríamos los resultados de búsqueda tradicional. Si eres superprof.es, me temo que todo esto no te parece muy bien, y que el dinero que te estás gastando en posicionamiento te renta menos.

Ahora, preguntemos a ChatGPT por la definición de logaritmo:

Eso sí, con muchas ventajas…

Pero hay una cosa importante en todo esto. Sea de dónde sea que ChatGPT «aprendió» todo esto, no lo sabemos. No hay links de referencia, así que el contenido que ayudó a construir esta respuesta no recibirá ningún click, ningún pago, ningún reconocimiento, nada de nada…

Esto a los usuarios sin duda les importa un bledo. De hecho, sin duda, la experiencia es mucho mejor que con un buscador. Algo que da respuestas concretas a nuestras preguntas (sean o no correctas, eso ya es otro tema), y que además nos permite seguir profundizando en el mismo sitio sin tener que ir a diferentes páginas webs con diferentes formatos, tipo de lenguaje e incluso idioma, es sin duda una grandísima mejora…

Así que después de todas estas vueltas, llego a las ideas principales de las que quería hablar en este post de hoy. La primera es que esto del ChatGPT (Generative AI en general) va a ser verdaderamente disruptivo y será una Tecnología de Utilidad General (GPT). Y lo decimos teniendo en cuenta que en este blog hablamos mucho de hype, así que intentamos mucho no caer en la histeria de llamar a todo disruptivo.

A estas alturas, la lista de cosas que según los expertos ChatGPT cambiará para siempre es ya infinita. Pero creo que puedo decir sin temor a equivocarme que el negocio de la búsqueda en internet va a cambiar muy rápido y mucho. Y claro, que cambie el negocio de la búsqueda en internet significa que internet en sí misma cambiará también de forma radical. ¿Qué va a pasar con todo el contenido que se crea en internet con el objetivo de atraer tráfico si ese tráfico no va a llegar porque se «queda» en algo como ChatGPT?

Y si hablamos de búsqueda, estamos hablando de google. ¿Pero por qué Google no ha lanzado algo así? De hecho, sabemos que Google ha estado mucho tiempo trabajando en sistemas equivalentes a ChatGPT. ¿Os acordáis de LaMDA? Además, hemos visto los cambios que han ido introduciendo en su buscador para acercarse más a cómo las personas hacemos preguntas… Teniendo todo esto en cuenta, parece claro que no han querido disrumpirse a sí mismos. Habrían también llegado a la conclusión de que esta tecnología tiene el potencial de disrumpir la búsqueda en internet, y teniendo en cuenta que ese es su principal negocio a día de hoy, mejor no tocarlo. En cambio, no es de extrañar que Microsoft, competidor de google en temas de búsqueda pero con mucho menos que perder, está a punto de aumentar su inversión en OpenAI y ya se habla de que incorporará esta tecnología a Office lo antes posible.

¿Y dónde deja todo esto a los humildes blogueros? Pues mal, muy mal. Por suerte, yo nunca tuve este blog con la idea de ganar dinero con él. Cierto es que en su momento era un buen apoyo para mi actividad profesional, pero desde hace tiempo ya no lo es. En realidad, siempre fue una herramienta para aprender, investigar, ordenar y sintetizar ideas… La verdad es que incluso antes de ChatGPT la era de los blogs ya pasó, pero está claro que aún tienen menos sitio ahora. Por un lado, herramientas cómo ChatGPT generarán mucho contenido de calidad aceptable, y por otro, esas mismas herramientas darán respuestas a muchas búsquedas sin generar tráfico a otras webs.

Así que ya mirando mi ombligo, toca replantearse este blog. De momento ya tengo claro que no seguiré escribiendo technobits aquí. Voy a probar a hacer hilos en twitter sobre los technobits porque ya no veo el sentido de escribir posts largos. Y por otro lado, quiero ver si puedo sacar tiempo para escribir contenido de más profundidad. Tengo un par de cosas en el tintero desde hace tiempo que merecen una serie de posts largos… veremos.

@resbla

Salir de la versión móvil