«Es muy raro ver una tecnología que de la noche a la mañana pase a ser utilizada por millones de personas. Cuando eso ocurre, sientes a la vez emoción por las formas beneficiosas e inesperadas en que se está utilizando, pero también una sensación de fragilidad porque es una tecnología que se utiliza en todas partes a la vez.» Sara Hooker, Vicepresidenta de Investigación de Cohere y Líder de Cohere For AI
El Foro organizó dos cumbres sobre inteligencia artificial en 2023 y puso en marcha la Alianza para la Gobernanza de la IA (AIGA, por sus sigla en inglés), un grupo de múltiples partes interesadas que aborda cómo las políticas sobre IA pueden ponerse al día con la tecnología. El creciente impacto de la IA también parece que será un tema candente en su próxima reunión anual en Davos.
¿Qué dicen los expertos? ¿Qué hemos aprendido este año sobre la IA y cómo pueden las sociedades humanas gobernar en el futuro esta tecnología en rápida evolución y potencialmente muy disruptiva?
Por qué es tan importante la IA y su gobernanza
La IA tiene el poder de transformar nuestro mundo, cambiando nuestra forma de vivir e interactuar, aumentando la productividad y el compromiso en el trabajo, impulsando la creatividad y mucho más.
Sin embargo, estas tecnologías evolucionan a un ritmo exponencialmente rápido y llevan al mundo a un territorio desconocido, lleno de desafíos potenciales, como el uso indebido de la tecnología, las brechas de seguridad, el desplazamiento de puestos de trabajo y la disrupción económica.
El Informe sobre el Futuro del Empleo 2023 del Foro Económico Mundial afirma que, aunque la IA podría desplazar millones de puestos de trabajo, la aparición de esta tecnología creará muchos nuevos.
Los especialistas en IA y aprendizaje automático son los empleos que más crecen, junto con otras funciones que requieren habilidades humanas, como la capacidad de emitir juicios, la creatividad, la destreza física y la inteligencia emocional.
Las funciones que disminuyen más rápidamente son las repetitivas, como cajeros de banco, cajeras, empleados de correos y taquilleros.
«Yo no minimizaría la ansiedad, porque creo que es natural. Con cada gran cambio tecnológico, hemos tenido ansiedad y parte de ella tiene mucho mérito», dijo Hooker. «Creo que es importante tener conversaciones realistas sobre cómo creamos programas educativos y pensamos cómo apoyar la forma en que la gente utiliza la tecnología de IA».
Entonces, ¿cómo podemos garantizar que los modelos de IA se desplieguen de forma segura y responsable?
Se han hecho varios intentos de salvaguardar el uso de la IA, explica Cathy Li, Jefa de IA, Datos y Metaverso, y Jefa Adjunta de C4IR, en el Foro Económico Mundial.
En octubre de 2023, el Gobierno de EE. UU. promulgó una Orden Ejecutiva sobre Inteligencia Artificial en la que se establecían nuevas normas para garantizar un uso seguro de la Inteligencia Artificial.
Ese mismo mes, el grupo de países avanzados G7 también publicó un código de conducta internacional para las organizaciones que desarrollan sistemas avanzados de IA.
A continuación, el gobierno británico organizó una cumbre sobre IA, que desembocó en la Declaración de Bletchley, en la que se pedía una actuación multilateral para aprovechar los beneficios de la IA y abordar al mismo tiempo sus riesgos.
En la Cumbre sobre Gobernanza de la IA del Foro Económico Mundial, celebrada en San Francisco en noviembre de 2023, los debates reflejaron el compromiso de garantizar el desarrollo ético y responsable de la inteligencia artificial.
«Participantes de diversos sectores destacaron las enormes oportunidades de la integración de la IA, al tiempo que subrayaron la necesidad crítica de un desarrollo responsable, alineado con las normas éticas mundiales. Se abordaron temas como marcos reguladores adaptables y normas armonizadas», afirmó Li.
El evento reunió a reguladores, gobiernos, empresas, círculos académicos y otras partes interesadas para debatir los retos y oportunidades de la IA.
«La oportunidad de transformación que supone la IA para toda la sociedad, para los gobiernos, las empresas, las comunidades o simplemente las personas, solo puede lograrse si contamos con una sólida colaboración de los sectores público y privado», declaró Sabastian Niles, presidente y jefe jurídico de Salesforce.
Si lideramos con confianza e inclusión, pensamos en la igualdad, la sostenibilidad y la innovación y realmente abrazamos el éxito de las partes interesadas al considerar la IA, creo que podemos elevar el nivel y mejorar los resultados empresariales, los resultados humanos, los resultados sociales, los resultados de la sociedad civil y lograr también los objetivos moonshot (ambiciosos) más poderosos».
«Necesitamos una legislación y políticas públicas sólidas, que respalden y protejan el desarrollo de este tipo de tecnologías de forma que promuevan la innovación responsable.
«Necesitamos sistemas aún más multilaterales y con más partes interesadas», afirmó Niles.
Reducir la brecha digital
«La inteligencia artificial en sí misma no es algo que se pueda gobernar realmente. Se pueden gobernar los subefectos o los sectores a los que puede afectar la inteligencia artificial. Y si se analizan caso por caso, es la mejor manera de crear algún tipo de política», afirmó Khalfan Belhoul, CEO de la Dubai Future Foundation.
«Pero el mayor reto es cómo unificar esas políticas y establecer las mejores prácticas y normas y luego aplicarlas a escala mundial para garantizar que todo el mundo pueda utilizar la IA de la mejor manera posible».
«La Alianza AIGA puede centrarse en el primer paso: reunir a las voces adecuadas en la sala y elaborar un plan global que recoja todos esos puntos de vista, para luego convertirlos en acciones concretas.
«Cuando intentas convertir esas acciones a través de esta Alianza, probablemente diría que la primera acción sería algún tipo de caso de uso tangible o un proyecto piloto que pueda ser un ejemplo para el mundo, sobre el que se pueda estandarizar gradualmente.
«Con la inteligencia artificial en concreto, habría que centrarse en un sector específico. Por ejemplo, ¿cómo puedo influir en el sector de los medios de comunicación y qué tipo de contenidos podemos utilizar? ¿Cómo utilizaremos ese contenido? Una vez hecho esto, se puede saltar gradualmente a otros sectores», explica Belhoul.
Lo que diferencia la alianza del Foro y a sus cumbres es, en primer lugar, que están basados en la comunidad. Y en segundo lugar, estos eventos ágiles son capaces de perseguir algunas de las acciones más urgentes y necesarias sobre el terreno de manera muy oportuna.
«Uno de los objetivos principales es garantizar que los beneficios del desarrollo de la IA se extiendan tanto a los países desarrollados como a los países en desarrollo», declaró Li.
«Reducir la brecha digital se convirtió en un tema central, y los participantes abogaron por un mayor acceso a infraestructuras críticas, como servicios de datos en la nube y computadoras, así como bases esenciales para mejorar la formación y la educación.
«Entre las principales conclusiones cabe citar la necesidad de definiciones claras y de una reflexión meditada en el debate sobre el código abierto y la innovación, el fomento de la colaboración público-privada para el acceso mundial a los recursos digitales y el avance de la gobernanza de la IA a través de normativas adaptables, estándares armonizados y debates internacionales en curso», afirmó Li.
En medio de los debates políticos sobre la IA, hay quien teme que un exceso de regulación pueda acabar con la innovación, dejando sin explotar todo el potencial transformador de la IA.
«Mi mayor temor para la IA en este momento es que una regulación asfixiante ponga freno a este maravilloso progreso que, de otro modo, haría que tantas personas en el mundo tuvieran vidas más sanas, largas y satisfactorias», dijo Andrew Ng, fundador de Coursera y DeepLearning.AI.
«La tecnología de IA es muy potente, pero es una tecnología de propósito general, lo que significa que no es útil para una cosa sola, como ChatGPT o Bard. Está ayudando a los sistemas sanitarios a mejorar la forma en que procesan los historiales médicos, está haciendo más eficiente el procesamiento de documentos legales, está ayudando al servicio de atención al cliente y a las aspiraciones de los clientes, etc.
«Las aplicaciones individuales tienen riesgos y deben regularse: si quieres vender un dispositivo médico, asegurémonos de que es seguro. Si se fabrica un automóvil autoconducido, hay que regularlo. Si tienes un sistema de suscripción para conceder préstamos, asegurémonos de que sabemos cómo comprobar que no está sesgado».
«El peligro viene con la regulación de la tecnología bruta.
«Comparemos la IA con la electricidad. Hay múltiples casos de uso que considerar -y claro, puede electrocutar a la gente, puede provocar incendios peligrosos. Pero hoy en día, pocos o ninguno de nosotros renunciaríamos a la calefacción, la refrigeración y la iluminación por miedo a la electrocución.
«Creo que lo mismo podría aplicarse a la IA. Hay una serie de casos de uso perjudiciales, pero cada día la hacemos más segura y regulamos las aplicaciones para ayudarnos a avanzar. Pero imponer normativas erróneas para frenar el desarrollo tecnológico de la IA sería un gran error», afirmó Ng.
¿Qué será del futuro el desarrollo de la IA y su gobernanza?
«La Cumbre sobre Gobernanza de la IA del Foro Económico Mundial logró la formulación de planes prácticos para el desarrollo responsable e inclusivo de la tecnología de IA generativa», afirmó Cathy Li.
«Los próximos pasos implican consolidar y compartir esos planes en la Reunión Anual de Davos en enero de 2024, mediante la publicación de nuestro primer informe.
«En Davos se debatirá entre los modelos de IA de código abierto y cerrado, y los riesgos a corto y largo plazo de las tecnologías de IA.
«La expectativa es que esas iniciativas guíen nuevos esfuerzos de colaboración y acciones dentro de los aliados de gobernanza y el ecosistema más amplio para garantizar avances responsables y éticos en el campo de la inteligencia artificial», dijo.