Agencia Internacional de la Inteligencia Artificial
Tengo la sensación de que el último Foro de Davos ha estado más lleno de lo habitual de lugares comunes y palabras huecas. A pesar de los grandísimos temas a los que se enfrentan las economías mundiales, parece que nadie ha querido salirse del guión.
Sin embargo, creo que sí que ha habido un tema sobre el que ha habido conversaciones de calado, la Inteligencia Artificial.
De esto hablamos en este #technobits de Capital Radio con Luis Vicente Muñoz:
Para empezar, el propio WEF publicó un informe sobre la aplicación de la IA en el mundo de la empresa, en el que por cierto colabora BBVA. Aún no he podido leerlo en detalle, pero parece un buen resumen de alto nivel del estado del arte de la Inteligencia Artificial desde un punto de vista de los negocios.
Llama la atención de forma positiva que el informe incluya módulos específicos en los que se habla de ética, cultura y personas, y governanza, además de las cosas que todos esperamos cuando se habla de Inteligencia Artificial.
Creo que empieza a ver un consenso universal sobre la necesidad de reflexionar y llegar a acuerdos sobre qué es aceptable y qué no en lo relativo a la Inteligencia Artificial. De hecho, esto es justo en lo que siguieron abundando Nadella (Microsoft) y Pichai (Google).
Creo que Pichai define muy bien el reto cuando dice que la IA tendrá un impacto más grande en la humanidad que el fuego o la electricidad. Pero de la misma manera que la oportunidad es enorme, los retos también lo son.
Por eso, aunque pueda sorprender a priori que los CEOs de dos de las empresas que más se pueden beneficiar de esta Cuarta Revolución Industrial (que será la de la Inteligencia Artificial) pidan una normativa que limite la aplicación y la investigación en este campo, creo que en realidad están cumpliendo con su obligación.
Ambos hicieron un alegato claro a favor de una regulación global sobre la Inteligencia Artificial, y muy especialmente y a corto plazo, sobre el reconocimiento facial. Hicieron un especial énfasis en la necesidad de que fuera realmente global y que no funcionaría si China no participaba del ejercicio.
Nadella llegó a decir que la privacidad (digital) debería incorporarse a los Derechos Humanos, y puso cómo ejemplo la regulación europea al respecto, concretamente la GDPR.
Esto ocurría justo pocos días después de que se supiera que la Unión Europea está estudiando prohibir de forma temporal el uso de tecnologías de reconocimiento facial en espacios públicos para darse tiempo a entender mejor las implicaciones de la tecnología.
Es difícil, y más teniendo en cuenta la situación entre China y EEUU, pensar que China podría entrar en una negociación global para la regulación de la Inteligencia Artificial. No sólo por su visión particular de los derechos humanos, sino también porque es una de las tecnologías elegidas por el gobierno para convertirse en líderes mundiales dentro de su plan Made in China 2025.
Sin embargo, hay motivos para la esperanza. Para empezar, hace pocos meses China publicó los Principios de la Inteligencia Artificial de Beijing (Beijing AI Principles). Es cierto que leyéndolos es difícil encajar la realidad actual de China en ellos, pero parece la prueba de que en China también se está generando una corriente de opinión importante en cuanto a la regulación de la IA.
Otro motivo de esperanza es que la Humanidad ya se enfrentó a situaciones parecidas en el pasado, y en general, salimos airosos y lo hicimos a través de la colaboración internacional. A bote pronto, se me ocurre cómo se atajó el agujero de la capa de ozono, pero seguramente el mejor ejemplo es cómo se lidió con la energía nuclear.
Durante los años siguientes al final de la Segunda Guerra Mundial la energía atómica se convirtió en parte fundamental de la cultura popular. Las bombas sobre Hiroshima y Nagasaki, lejos del horror que causaron, inspiraron la imaginación de la gente para creer que venía una nueva era «atómica» de energía barata sin límites y de mejoras rapidísimas en la salud.
Se pensaba que el «poder del átomo» transformaría el mundo para bien. La palabra atómico se convirtió en sinónimo de moderno y molón, y durante los años 50 se imaginaron todo tipo de dispositivos basados en energía nuclear, por ejemplo, coches.
En paralelo a este hype por la energía nuclear, y de espaldas al público, se estaban poniendo las bases de lo que luego fue la Guerra Fría, que ahora sabemos tuvo a todo el mundo en el filo de una devastadora guerra nuclear que habría acabado con la vida tal y cómo la conocemos.
Esa Guerra Fría se libró bajo el principio de la Destrucción Mutua Asegurada (MAD), pero también a través de acuerdos internacionales alrededor de la energía atómica. Acuerdos que limitaron los campos de investigación y aplicación de la tecnología.
Uno de los hitos más importantes fue el discurso que se conoció como Atoms for Peace en el que Eisenhower pusó las bases ante las Naciones Unidas de lo que luego sería la Agencia Internacional de la Energía Atómica y el Tratado Internacional de No Proliferación de Armas Atómicas.
Quizá alguien piense que las armas atómicas son claramente más peligrosas que la Inteligencia Artificial. Sin embargo, hay gente muy inteligente que piensa que la IA es el peligro más importante al que se ha enfrentado la humanidad. Algunos de los gurús más importantes de la tecnología están detrás de OpenAI, una fundación cuyo objetivo es desarrollar una IA segura para la humanidad.
De hecho algunos de sus fundadores firmaron una carta junto a Stephen Hawkins en la que avisaban de la necesidad de poner límites a la Inteligencia Artificial.
No es momento de ponerse distópico, de hecho, tenemos problemas más acuciantes en el corto plazo, pero parece que el nivel de concienciación y acuerdo al respecto es muy alto. No deberíamos dejar pasar la oportunidad.
¿Es el momento de una Agencia Internacional de la Inteligencia Artificial?
@resbla