Categorías
innovación

El quinto Beatle es la IA

Paul McCartney ha confirmado hace pocos días que los Beatles lanzarán una nueva canción este año. De los Beatles originales sólo sobreviven dos, McCartney y Ringo Starr, pero en este nuevo tema se podrá escuchar a John Lennon. Habrá que empezar a hablar de la Inteligencia Artificial cómo el quinto Beatle.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2023/06/los-beatles.mp3?_=1

Hay que recordar que el último material original que publicaron los Beatles fue hace casi 30 años. Los Beatles de entonces (George Harrison aún vivía) acabaron un par de temas que John Lennon grabó en cintas caseras y que Yoko Ono entregó a McCartney en 1994. Esta nueva canción parece que se trata de Now and Then, tema que también estaba en esas cintas caseras pero con muy mala calidad (y que además parece ser que no gustaba a Harrison).

McCartney alucinó con el trabajo que hizo Peter Jackson para Get Back, un documental sobre la grabación de Let It Be. En ese documental ya consiguieron aislar y limpiar la voz de Lennon desde una cinta antigua.

En realidad, McCartney parece que ha cogido el gusto a esto de utilizar tecnología para «resucitar» a sus compañeros de banda (bueno, siempre a Lennon). En su última gira McCartney cantaba algunos temas con él.

Esto de resucitar artistas muertos con tecnología no es nuevo. Que yo recuerde, la primera vez que se hizo esto en el cine, fue en The Crow, después de que su protagonista, Brandon Lee, muriera durante el propio rodaje.

Y en el mundo de la música, hemos visto ya muchas veces estos duetos con artistas fallecidos. Incluso a veces, con hologramas

En todo caso, los Beatles han utilizado la IA para limpiar material ya existente y trabajar con ello. Pero el (grandísimo) elefante en la habitación es qué pasa cuando alguien utilice IA generativa para generar nuevo contenido con el estilo, la voz, e incluso la imagen de alguien fallecido. Ya hablamos en su caso de que a nivel experimental ya había gente haciéndolo.

Aunque hay un paso anterior, que es utilizar IA para hacer contenido nuevo basado en material existente. Una especie de remezcla. Y en algunos casos, ha sido un gran éxito de audiencia. Por ejemplo, alguien se ha creado un clon con IA del músico Drake, y ha sacado ya unas cuantas canciones. Canciones que engañaron a sus propios fans pensando que eran verdaderas, y que además han conseguido millones de reproducciones. La gente ya le llama «Drake AI«.

Las discográficas están como locas intentando parar todo esto en base a los derechos de autor. Pero ahora mismo esto parece intentar ponerle puertas al campo. Eso sí, hay gente que piensa que todo esto es parte de una campaña de promoción.

¿Y qué pasará cuando el contenido sea 100% sintético? Hace pocos meses, Kris Kashtanova, autora de Zarya of the Dawn, anunciaba que había conseguido por primera vez registrar una obra hecha con IA generativa. Las imágenes del comic las había hecho con Midjurney y ella había escrito el texto. Sin embargo, poco después, la oficina de derechos de autor en EEUU cambiaba su decisión y dejaba fuera del copyright las imágenes. Este caso hizo que la propia oficina publicara una aclaración de la norma sobre el registro de obras asistidas por IA en la que deja claro que registrarán obras en las que pueda haber elementos generados por IA pero en el que el trabajo creativo lo haya hecho un humano y especificaba que no registrarán obras creadas 100% a través de un prompt. Cierto es, que al menos para mí que no soy experto, me cuesta entender dónde está la línea…

En la Unión Europea no está claro qué podría pasar ante un caso así. Sabemos que la legislación sobre IA en la que está trabajando la UE está explorando la posibilidad de pedir a las empresas que desarrollan este tipo de tecnología que informen sobre el contenido que utilizaron para entrenar a los sistemas. De esta manera, si este contenido tuviera copyrights, probablemente estos se extendieran a los contenidos sintéticos generados a partir de ellos. Tiene lógica sobre el papel, las implicaciones en el mundo real pueden ser enormes y muy complejas.

Entramos en territorio desconocido en el tema de los derechos de autor cuando la autoría es de una Inteligencia Artificial. Pero estoy seguro que se arreglará de una manera o de otra. Los propios Beatles tienen una larguísima historia de luchas internas y externas por los derechos de autor… En todo caso, creo que podemos decir aquello de que la culpa de todo la tiene Yoko Ono.

@resbla

 

Categorías
negocios

Opinión de un hater de Apple sobre las Vision Pro

Aunque realmente no quería, me ha sido imposible no hablar del lanzamiento de las Apple Vision Pro. Tampoco es que nadie me lo haya pedido, pero la noticia, no por ya descontada hace tiempo, no deja de ser inevitable.

La realidad es que ante este tipo de noticias de tamaño planetario es difícil no repetir lo que ya han dicho cientos de veces antes otras personas (normalmente más cualificadas además), pero después de ya varios días, y de haber leído bastantes opiniones al respecto, hay una cosa que no he leído y que me parece clave en lo que creo que será el fracaso comercial de las Apple Vision Pro.

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2023/06/apple-vision.mp3?_=2

Creo que hoy en día la gente moderna me llamaría hater de Apple. En realidad, estoy muy lejos de ello. Tengo amigos cercanos que trabajan en Apple, y no puedo tener más admiración por la compañía (siempre recomendable ver Pirates of Silicon Valley). Creo además que a pesar de que casi todo el mundo se centra en la tecnología, la verdadera base de su éxito ha sido la innovación en los modelos de negocio que ha ido introduciendo a medida que lanzaba nuevos productos.

Pero por mucho que admire a la compañía, aborrezco sus productos. En realidad aborrezco todos menos los iPod (los clásicos eso sí), el único producto que he utilizado felizmente durante mucho tiempo, eso sí, no tocando ni con un palo iTunes (esto me daría para un libro, pero sólo diré que humildemente pienso que debería considerarse malware).

En todo caso, ya saben que la mejor forma de combatir los sesgos propios es reconocerlos, así que al menos puedo decir que soy plenamente consciente de este.

Todo este rollo en realidad es para explicar que alguno de los motivos del éxito de los productos de Apple es precisamente lo que me hace aborrecerlos. Y esto es lo que voy a utilizar para explicar por qué creo que las Apple Vision Pro fracasarán comercialmente. Personalmente, creo que cuando los productos de Apple cumplen 4 condiciones han tenido siempre éxito. Vamos a ver si estáis de acuerdo…

La primera es que nunca son los primeros en llegar. Lo del first-mover advantage, no va con ellos. Apple es más de ser un copión aplicado que mejora los productos de los pioneros. No fueron los primeros con las tabletas, ni con los móviles, ni con los reproductores de mp3… Pero se aseguraron de llegar cuando consideraron que existía mercado en cada una de las categorías, y lo hicieron aprendiendo de los pioneros.

Recuerdo mis primeros reproductores mp3 antes del iPod. El primero era de un tamaño ridículo (32mb), y cuando conseguí comprar uno de un tamaño más decente, la velocidad de cambio entre canciones era realmente frustrante además de que su UX era pésima. Apple precisamente invirtió mucho en esto. Más allá del tema de iTunes y mi profundo odio hacia ese software, sin duda puso al alcance de mucha gente el poder utilizar archivos digitales. Pero volviendo a los puntos anteriores, los primeros iPods tenían gran capacidad, su UX era intuitivo (os acordáis de la rueda?), y eran rapidísimos en el cambio de música con una mezcla de trucos de hardware y software.

Las Apple Vision Pro efectivamente cumplen también esta condición. Marcas como Oculus, Apple, HTC o incluso Sony llevan años trabajando la categoría… aunque no se puede decir que ninguno esté vendiendo mucho (y mi opinión sobre la realidad virtual/aumentada/mixta no ha cambiado mucho).

La segunda condición es que los productos de Apple ofrezcan la mejor tecnología disponible, en muchos casos, específicamente diseñados para sus productos. En el pasado, lo vimos con el Gorilla Glass, baterías de ultimísima generación o pantallas Retina… Esto se cumple a rajatabla en las Apple Vision Pro. Estas gafas incorporan la última y más avanzada tecnología en cada uno de los componentes disponible. Aquí hay un buen resumen de las características técnicas.

Por supuesto, estas tecnologías exclusivas siempre vienen con un precio mayor. No sólo porque al no haber economías de escala son sustancialmente más caras que lo siguiente disponible, Apple también añade su margen premium. En el caso de las Apple Vision Pro, su precio es 3 veces superior a la mejor oferta de la competencia.

La tercera condición es el que Apple siempre es capaz de que todos los usuarios sean capaz de hacer un uso avanzado de los dispositivos. Hacen fácil lo difícil. Esto que a priori es algo positivo, es algo muy frustrante para usuarios como su humilde servidor. Para los que nos gusta trastear con los dispositivos, ser capaces de personalizar, cambiar, instalar o hacer lo que queramos con nuestros dispositivos, Apple es un verdadero dolor en el culo.

Hace poco leía este hilo en twitter que explica muy bien cómo nos sentimos muchos frente a los dispositivos de Apple. Uno parece que nunca es realmente propietario de los dispositivos Apple que ha pagado.

Esto vuelve a ser cierto en el caso de las Apple Vision Pro. No las he utilizado, pero sí que he utilizado otras gafas, y sinceramente no parecía muy complicado conseguir mejorar lo existente. La gente que sí que las ha probado dice que Apple lo ha vuelto a conseguir, la experiencia de uso es muy sencilla e intuitiva.

Y llegamos a la cuarta. Apple ha conseguido que su marca trascienda el mundo de la tecnología y sea una marca de consumo, casi de moda. Sus productos son para fardar, incluso posturear. Esto significa que puedes llevarlos encima, y a ser posible, muy visibles. Imposible explicar el éxito de productos significamente más caros que productos equivalentes sin este efecto. Quizá el ejemplo más claro sea el de los Airpods.

De hecho, no es casualidad que uno de los productos más irrelevantes de las últimas décadas para Apple haya sido Apple TV (el dispositivo, no el servicio de streaming). Uno no se puede llevar el Apple TV colgado del cuello, mientras que los Airpods, Iphones e incluso sus portátiles, son algo siempre muy visible. Eso pasará con las Vision Pro, nadie saldrá a la calle con ellas, sus usuarios sólo podrán posturear en redes sociales para dejar saber a todo el mundo que tienen unas.

Y cuando esa parte del valor de marca no existe, el del postureo, ¿realmente habrá tanta gente dispuesta a pagar el premium frente a otras ofertas? Ofertas que efectivamente no serán tan avanzadas técnicamente, pero que son dramáticamente más baratas. ¿Compraría alguien una lavadora marca Ferrari si costara 3 veces más que una Bosh por mi espectacular que esta fuera?

Yo tengo clara la respuesta. Y esto es lo que me lleva a afirmar que las Apple Vision Pro son un producto técnicamente espectacular, que definirá la dirección que tomarán el diseño de futuros productos en la categoría, pero que no representarán nada significativo comercialmente. Es más, creo que tampoco salvará la categoría de la XR en el mundo del consumo.

@resbla

 

Categorías
innovación

Ya están aquí los drones asesinos.. o no?

Estos últimos días hemos visto que muchos medios se hacían eco de unos comentarios de un Coronel de la Fuerza Aerea de Estados Unidos (USAF) sobre cómo en una simulación, un dron había eliminado a su operador humano. Esto hasta ahora siempre ha sido un argumento de ciencia ficción, ¿ha llegado ya a ser una amenaza real?

De todo esto hablamos en este technobits de Capital Radio con Luis Vicente Muñoz:

https://resbla.com/wp-content/uploads/2023/06/etica-IA.mp3?_=3

 

No hay que buscar oscuras referencias en la ciencia ficción para ver cómo los autores han puesto muchas de sus visiones distópicas alrededor de una tecnología inteligente que decidía que los seres humanos somos un problema para su supervivencia.

Lo de una creación volviéndose contra su amo es casi tan antiguo como la ciencia ficción. La Criatura que crea Frankenstein, se dedica a acabar con la vida de su creador en búsqueda de alguien que le quiera. En RUR, novela de 1920 en la que aparece la palabra robot por primera vez, una suerte de personas artificiales creadas para ser sirvientes de las de verdad, terminan levantándose contra sus amos y exterminando la raza humana.

No es casual que Asimov pensara que habría que instalar sistemas de seguridad en estas máquinas que previnieran ante este tipo de riesgos. Sus famosas Reglas de la Robótica serían una especie de código integrado en una parte inaccesible de la inteligencia de sus robots para evitar que puedan hacer daño a los humanos. Eso sí, hay en un punto de la saga en la que eso deja de ser verdad… y hasta aquí puedo leer sin hacer demasiado destrozo.

Skynet fue consciente de sí misma en la madrugada del 29 de agosto de 1997, y segundos después decidió que los seres humanos eran una amenaza para su propia existencia y decidió eliminarlos a través de un ataque nuclear masivo.

Algo parecido a esto es lo que muchos medios del mundo se apresuraron a compartir después de que en un blog especializado se recogieran las declaraciones del Coronel de la USAF Tucker ‘Cinco’ Hamilton, Responsable de los tests y operaciones de Inteligencia Artificial.

Según lo que recogió el blog en una reciente feria del sector militar en el Reino Unido, la USAF realizó unas simulaciones en las que se utilizaba un dron equipado con IA para la toma de decisiones. En un primer momento se asignó el dron a una misión para identificar y destruir las defensas antiaéreas enemigas, pero la decisión final la tomaría un operador humano.

Al dron se le había entrenado para priorizar la destrucción de las baterías enemigas, así que a medida que la simulación avanzaba, y en algunas ocasiones recibía órdenes para abortar la misión por parte del operador humano, la IA decidió que éste era un obstáculo para realizar su misión y decidió eliminarlo.

Posteriormente se le estableció a la IA una especie de Primera Ley de la Robótica de Asimov, no mates humanos, y la IA tomó la siguiente decisión lógica en función de su programación, destruir las torres de comunicación propias para evitar recibir órdenes de su operador humano. Alguien podría decir que lo que necesita esa IA es una Segunda Ley de la Robótica y unas buenas órdenes, una buena programación.

En todo caso, el giro en la historia viene cuando ‘Cinco’ Hamilton pidió al susodicho blog que incluyera un comentario en la publicación diciendo que se «equivocó» en la presentación que hizo y que debía haber dejado claro que no hablaba de algo que había ocurrido, sino que era un «experimento mental» sobre lo que podía pasar en un escenario cómo el descrito. Y que su objetivo era el poner sobre la mesa la necesidad de hacer desarrollos de IA de forma ética.

Difícil saber al final qué es lo que pasó de verdad. No sé que es más irresponsable, el hacer un experimento así y contarlo, o pensar en un experimento así y contarlo mal. En todo caso, esta rectificación no la habréis visto en ningún sitio, lo cual también da que pensar.

Estamos últimamente hablando mucho sobre la ética y la IA. Hemos visto a Sam Altman recientemente en una gira mundial hablando de los peligros de la IA y de la necesidad de regularla.

Lo que a mí me chirría mucho de todo esto es que se habla de la IA cómo de algo autónomo que ya (casi) tiene vida propia. Y algo hay de cierto en todo esto, hay una gran parte de la IA generativa basada en deep learning que acaba convirtiéndose en una especie de caja negra en la que las decisiones las toma de forma autónoma y difícilmente explicable la máquina basándose en la ingente información con la que se la entrenó. Lo que tenemos claro ya, es que si la información con la que se le entrenó es sesgada (y cúal no), la IA será sesgada.

Pero todo esto no es más que una cortina de humo sobre los verdaderos responsables de que una máquina pueda ser peligrosa, los seres humanos que la programaron o que le dieron la información para entrenarla.

Personalmente, tengo claro que el problema de la ética con la IA no está con la tecnología, está con las personas que la están creando. No me es muy difícil imaginarme que muchos de ellos tienen una «moral distraída», o simplemente están divirtiéndose cómo niños con las posibilidades de la tecnología y no le están poniendo atención a las cosas realmente importantes.

@resbla

Salir de la versión móvil