Por: Robert Muggah, Gabriella Seiler, y Gordon LaForge
RIO DE JANEIRO – Puede ser que los últimos meses sean recordados como el momento en que la inteligencia artificial (IA) predictiva se generalizó. Si bien los algoritmos de predicción han estado en uso durante décadas, el lanzamiento de aplicaciones como ChatGPT3 de OpenAI, y su rápida integración con el motor de búsqueda Bing de Microsoft, puede haber abierto las compuertas en lo que respecta a la IA fácil de usar. En cuestión de semanas tras su lanzamiento ChatGPT3 ya había atraído a 100 millones de usuarios mensuales, muchos de los cuales, sin duda, ya han experimentado su lado oscuro: desde insultos y amenazas hasta desinformación y una capacidad demostrada para escribir códigos maliciosos.
Los chatbots que generan titulares son sólo la punta del iceberg. La inteligencia artificial para crear texto, voz, arte y video avanza rápidamente, con implicaciones de gran alcance para la gobernanza, el comercio y la vida cívica. No causa sorpresa que capitales inunden el sector, ya que gobiernos y empresas por igual están invirtiendo en empresas ‘startups’ a fin de desarrollar e implementar las últimas herramientas de aprendizaje automático. Estas nuevas aplicaciones combinarán datos históricos con aprendizaje automático, procesamiento de lenguaje natural y aprendizaje profundo con el propósito de determinar la probabilidad de eventos futuros.
El punto más importante: la adopción del nuevo procesamiento del lenguaje natural y las inteligencias artificiales generativas no se limitará a los países ricos y a empresas como Google, Meta, y Microsoft, que fueron las que encabezaron su creación. Estas tecnologías ya se están extendiendo a lo largo y ancho de entornos de ingresos bajos y medios, donde el análisis predictivo aplicado a todo tipo de temas (desde reducir la desigualdad urbana hasta abordar la seguridad alimentaria) es muy prometedor para los gobiernos, las empresas y las ONG que tienen problemas de liquidez y que están en la búsqueda de mejorar la eficiencia y liberar los beneficios sociales y económicos.
El problema, sin embargo, es que no se ha prestado suficiente atención a las posibles externalidades negativas y efectos no deseados de estas tecnologías. El riesgo más evidente es que estas poderosas herramientas predictivas sin precedentes vayan a fortalecer la capacidad de vigilancia de los regímenes autoritarios.
Un ejemplo ampliamente citado es el “sistema de crédito social” de China, que utiliza historiales de crédito, condenas penales, comportamiento en línea, así como otros datos para asignar una puntuación a cada persona en el país. Esas puntuaciones pueden determinar si una persona puede obtener un préstamo, acceder a una buena escuela, viajar en tren o avión, etcétera. A pesar de que el sistema chino se anuncia como una herramienta para mejorar la transparencia, también cumple las funciones de un instrumento de control social.
Sin embargo, incluso cuando son utilizadas por gobiernos democráticos bien intencionados, empresas centradas en lograr un impacto social y organizaciones sin fines de lucro progresistas, las herramientas predictivas pueden generar resultados sub-óptimos. Los fallos de diseño en los algoritmos subyacentes y los conjuntos de datos sesgados pueden conducir a violaciones de la privacidad y a discriminación basada en la identidad. Esto ya se ha convertido en un problema flagrante en la justicia penal, donde el análisis predictivo perpetúa rutinariamente las disparidades raciales y socioeconómicas. Por ejemplo, un sistema de IA creado para ayudar a que los jueces estadounidenses evalúen la probabilidad de reincidencia determinó erróneamente que los acusados de raza negra presentan un riesgo mucho mayor de reincidencia en comparación con los de raza blanca.
También aumentan las preocupaciones sobre cómo la IA podría profundizar las desigualdades en el lugar de trabajo. Hasta ahora, los algoritmos predictivos han incrementado la eficiencia y las ganancias en formas que benefician a los directivos y accionistas a expensas de los trabajadores de base (especialmente en la economía colaborativa, también llamada ‘economía gig’).
En todos estos ejemplos, los sistemas de IA son un espejo distorsionante de la sociedad, ya que refleja y magnifica nuestros prejuicios y desigualdades. Como señala la investigadora de tecnología Nanjira Sambuli, la digitalización tiende a exacerbar, en lugar de mejorar, los problemas políticos, sociales y económicos preexistentes.
El entusiasmo por adoptar herramientas predictivas debe equilibrarse con la consideración informada y ética de sus efectos deseados y no deseados. Cuando los efectos de estos poderosos algoritmos son desconocidos o causan controversias, el principio de precaución desaconsejaría su implementación.
No debemos permitir que la IA se convierta en otro ámbito en el cual los responsables de la toma de decisiones pidan disculpas en lugar de permiso. Es por esta razón que el Alto Comisionado de las Naciones Unidas para los Derechos Humanos y otros han solicitado prórrogas en la adopción de sistemas de IA hasta que cuente con la actualización de los marcos éticos y de derechos humanos a fin de tomar en consideración sus daños potenciales.
La elaboración de los marcos apropiados requerirá forjar un consenso sobre los principios básicos que deben dar forma al diseño y al uso de herramientas predictivas de IA. Afortunadamente, la carrera en pos de la IA ha llevado de manera paralela a una avalancha de investigaciones, iniciativas, institutos, y redes sobre ética. Y si bien la sociedad civil ha tomado la iniciativa, entidades intergubernamentales como la OCDE y la UNESCO también se han involucrado en estos temas.
Desde al menos el año 2021 la ONU ha venido trabajando en la creación de estándares universales para una inteligencia artificial ética. Además, la Unión Europea ha propuesto una Ley de la Inteligencia Artificial (el primer esfuerzo de este tipo por parte de un regulador importante) que bloquearía ciertos usos (como aquellos que se asemejan al sistema de crédito social de China) y sometería otras aplicaciones de alto riesgo a requisitos y supervisión específicos.
Hasta la fecha, este debate se ha concentrado arrolladoramente en América del Norte y Europa Occidental. Pero los países de ingresos bajos y medios tienen que considerar sus propias necesidades, preocupaciones y desigualdades sociales de línea base. Existen numerosos estudios que demuestran que las tecnologías desarrolladas por y para los mercados de las economías avanzadas a menudo son inapropiadas para las economías menos desarrolladas.
Si las nuevas herramientas de IA simplemente son importadas y son utilizadas ampliamente antes de que se establezcan las estructuras de gobernanza necesarias, muy fácilmente podrían llegar a hacer más daño que bien. Todos estos temas deben ser considerados si vamos a diseñar principios verdaderamente universales para la gobernanza de la IA.
Reconociendo estos vacíos, el Instituto Igarapé y New America acaban de lanzar un nuevo Grupo de Trabajo Global sobre Análisis Predictivo para la Seguridad y el Desarrollo. El grupo de trabajo reunirá a defensores de los derechos digitales, socios del sector público, emprendedores tecnológicos y científicos sociales del continente americano, así como de África, Asia y Europa, con el objetivo de definir los primeros principios para el uso de tecnologías predictivas en la seguridad pública y el desarrollo sostenible en el Sur Global.
La formulación de estos principios y estándares es sólo el primer paso. El mayor desafío será conseguir la colaboración y coordinación internacional, nacional y sub-nacional necesarias para aplicar dichos principios y estándares en las leyes y en la práctica. En la prisa global por desarrollar e implementar nuevas herramientas predictivas de inteligencia artificial, los marcos de prevención de daños son esenciales para garantizar un futuro seguro, próspero, sostenible y centrado en el ser humano.
Robert Muggah, uno de los cofundadores del Instituto Igarapé y del SecDev Group, es miembro del Global Future Council on Cities of Tomorrow del Foro Económico Mundial y es asesor del Global Risks Report. Gabriella Seiler es consultora en el Instituto Igarapé, y socia y directora en Kunumi. Gordon LaForge es analista político sénior en New America y catedrático en la Thunderbird School of Global Management de la Arizona State University.
-
Criterio.hn y la revista Project Syndicate bajo una alianza de cooperación comparten artículos de sus columnistas Ver todas las entradas