
Por: Juan Figueroa
En un escenario global, los titanes tecnológicos han desatado una enérgica competencia por desentrañar los usos más prometedores y aplicaciones potenciales de la Inteligencia Artificial (IA).
Sin embargo, es crucial reconocer que el alcance de su impacto no se limita únicamente a propósitos constructivos, sino que se extiende hacia ámbitos bélicos y antidemocráticos, planteando interrogantes cruciales sobre los destinos que puede tomar esta innovación.
Históricamente, el curso que toma una tecnología depende en gran medida de las manos que la guían. En el siglo pasado, la energía nuclear, por ejemplo, desplegó su potencial tanto para iluminar como para devastar ciudades enteras alrededor del mundo.
Hoy, la Inteligencia Artificial emerge como el pilar de una nueva revolución industrial, y sus aplicaciones abarcan un espectro amplio, desde el avance productivo hasta las posibilidades destructivas que plantea esta creación tecnológica.
Justo Hidalgo, director de IA de Adigital, subraya que la IA se erigirá como el catalizador central de la innovación en los años venideros.
Se estima que para el año 2035, aproximadamente la mitad del crecimiento económico en diversos países europeos podría derivar de la adopción de la IA. Los impactos profundos que la IA ha engendrado en ámbitos diversos, como la salud, la industria automotriz y los servicios en línea, son evidencia de su creciente influencia en la sociedad contemporánea.
Resulta innegable que la inversión y la adopción de la IA han sido lideradas, en su primera fase, por Estados Unidos y China, con la Unión Europea siguiendo en la distancia. A pesar de esto, no puede desestimarse la posibilidad de que los veintisiete logren competir en un nivel más equiparado en un futuro próximo, lo que evidencia una tendencia global hacia la difusión y adopción de esta tecnología disruptiva.
No obstante, es en el sector privado donde esta revolución tecnológica toma su forma más prominente.
El campo de batalla por la hegemonía de la IA se libra entre los gigantes tecnológicos, cada uno persiguiendo una posición de liderazgo en la carrera por la innovación.
La introducción de la IA representa un salto cuántico comparable a la revolución de internet, donde Microsoft se ha adelantado a la competencia con ChatGPT. Esta ventaja temprana no solo se traducirá en un impulso para Microsoft, sino también estimulará a empresas notables como Google, Amazon, Meta y Apple a realizar inversiones significativas en el desarrollo y la adopción de la IA.
Así, no solo los gigantes del software, sino también los actores en el ámbito de los semiconductores como Nvidia, Taiwan Semi, ASML, Advantest y Arista Networks, serán los principales beneficiarios de este dinámico desarrollo, conforme avanzamos hacia la siguiente etapa de la revolución de la IA.
En última instancia, la competencia y el desarrollo acelerado en el ámbito de la IA perfilan una realidad donde los límites entre los usos constructivos y los peligros potenciales se vuelven borrosos. La difusión global de esta tecnología exige una evaluación cuidadosa de sus implicaciones éticas, sociales y políticas, y la colaboración entre líderes tecnológicos, reguladores y la sociedad en su conjunto se convierte en un elemento crucial para guiar la trayectoria futura de la Inteligencia Artificial.
Los Gigantes de la industria
El panorama actual revela que la adopción de la IA por parte de las empresas ha experimentado un crecimiento exponencial desde 2017, más que duplicándose en 2022. A pesar de este auge, se observa un estancamiento en los últimos años, con una tasa de adopción situada en un rango del 50% al 60%, según datos extraídos de un estudio anual de McKinsey.
En este escenario, la ascensión de Chat GPT bajo el paraguas de Microsoft plantea consideraciones de gran envergadura. Se especula que su integración exitosa en el motor de búsqueda Bing podría tener consecuencias potencialmente catastróficas para Alphabet, la matriz de Google.
La posibilidad de que los ingresos publicitarios de Google se vean amenazados ante esta evolución no pasa desapercibida, según advierte el experto Frank Schwarz, gestor en MainFirst. Por otro lado, Meta ha tomado un giro estratégico al redirigir sus esfuerzos hacia el metaverso, con la introducción de su AI Sandbox, un conjunto de herramientas diseñadas para potenciar la efectividad de los anuncios y el marketing.
En la carrera por la supremacía tecnológica, las empresas asiáticas también juegan un papel de importancia. La presentación de Wenxin Yiyan, también conocido como bot Ernie, por Baidu en marzo, no pasó desapercibida y sirvió como punto de partida para las innovaciones de IA provenientes de JD.com, Netease y Tencent.
La incógnita persiste sobre qué compañías se alzarán en la cima de esta competencia a nivel global. Incluso la red social china TikTok ha ingresado al ámbito de la inteligencia artificial generativa, al desarrollar el chatbot Tako, capaz de sostener conversaciones y responder preguntas con sus usuarios.
De acuerdo con el informe Artificial Intelligence Index Report 2023 de la Universidad de Stanford, los inversores estadounidenses respaldaron cerca de 542 nuevas empresas en el sector de la IA en 2022. Paralelamente, en China se financiaron alrededor de 146 empresas, mientras que en el Reino Unido se apoyaron 99 y en toda la Unión Europea se respaldaron unas 100. Empresas como Samsung han elegido fortalecer su industria de semiconductores y también buscan integrar la inteligencia artificial en sistemas móviles, electrodomésticos y su asistente personal Bixby, similar al Siri de Apple.
Sin embargo, el progreso en Europa no fluye con la misma fluidez que en el otro lado del Atlántico. Justo Hidalgo, director de IA de Adigital, enfatiza que para mantenerse en el rumbo adecuado, Europa debe convertir los avances académicos y técnicos en ventajas comerciales. Esta conexión crucial entre el desarrollo académico y la innovación industrial es un factor determinante en los años venideros. A pesar de esto, la inversión europea en el sector, tanto de origen público como privado, aún se encuentra considerablemente lejos de las cifras registradas en otras geografías. Un contraste impactante emerge al constatar que solo el 3% de los unicornios de IA a nivel mundial tienen base en Europa, y la inversión privada en inteligencia artificial en el continente europeo es significativamente diez veces inferior a la de Estados Unidos y cinco veces menor que en China, como destaca Hidalgo.
Estas tendencias y concentraciones de poder en manos de un puñado de corporaciones tecnológicas no pasan desapercibidas para algunos críticos. La dependencia creciente de la IA en la sociedad suscita preocupaciones sobre la centralización del poder de procesamiento, tanto en términos de investigación y desarrollo como en las operaciones diarias que dependen de infraestructuras propiedad de estas grandes corporaciones a escala global. Vili Lehdonvirta, profesor del Oxford Internet Institute, expresa su inquietud ante esta situación.
Esta coyuntura plantea una transición silenciosa hacia una orientación más segmentada en términos tecnológicos y políticos. El desplazamiento gradual de una perspectiva liberal basada en la interoperabilidad global refleja un escenario donde el desarrollo tecnológico se entrelaza con la creciente rivalidad entre los gobiernos de Estados Unidos y China. Estos desarrollos, en lugar de propiciar formas internacionales de colaboración en la gobernanza de la IA, podrían propiciar una fragmentación de los ecosistemas tecnológicos a nivel global. Benjamin Cedric Larsen, jefe de proyectos de IA en el Foro Económico Mundial, señala que este proceso podría dar como resultado la emergencia de un ecosistema digital “chino”, otro “estadounidense” y uno “europeo”, cada uno con su conjunto único de reglas y sistemas de gobierno. A medida que avanzamos, la compleja tarea de regular y gobernar las formas más avanzadas de inteligencia artificial podría convertirse en un desafío monumental en un escenario caracterizado por diferencias enfoques y normativas.
Las Preocupaciones ciertas
En el contexto actual, los actores más influyentes han tomado conciencia de los riesgos inherentes a la proliferación de la inteligencia artificial (IA). Sam Altman, el CEO de OpenAI, ha expresado un apoyo decidido a la idea de implementar regulaciones en el sector, insistiendo en que las compañías deberían estar sujetas a una “combinación de requisitos de licencia o registro” con el propósito de mitigar posibles peligros. Un análisis exhaustivo realizado por la gigante tecnológica Intel pone en evidencia la vertiginosa y en algunos casos inquietante rapidez con la que la inteligencia artificial está avanzando.
De acuerdo con la compañía, el ritmo de crecimiento en el entrenamiento de sistemas de IA supera en más de cien millones de veces la famosa Ley de Moore, que postula que la velocidad de las computadoras se duplica cada dos años.
En consonancia con esta preocupación, un grupo distinguido compuesto por más de 10.000 expertos ha plasmado su inquietud en una carta abierta reciente, instando a todos los laboratorios de inteligencia artificial a detener inmediatamente, por un período mínimo de seis meses, el entrenamiento de sistemas de IA más potentes que GPT-4. Esta medida es un intento claro de sopesar las implicaciones y los potenciales riesgos asociados a la rápida evolución de esta tecnología.
Adicionalmente, la reverberación de esta tecnología en el ámbito laboral genera inquietud en diversos sectores. Un informe emitido por Goldman Sachs a finales de marzo ha estimado que en Estados Unidos y Europa, uno de cada cuatro empleos podría desaparecer como resultado directo de la influencia de esta tecnología. A nivel global, se estima que alrededor del 18% de los puestos de trabajo existentes en el planeta son susceptibles de ser reemplazados por la IA, según señala el banco.
En este complejo escenario, incluso un alto ejecutivo como Michael Schwarz, economista jefe de Microsoft, ha levantado una bandera de advertencia. Schwarz ha destacado el potencial peligro de la IA en manos de individuos sin escrúpulos y, en particular, ha expresado la certeza de que la IA será aprovechada por “actores malintencionados”, resultando en daños reales. Sus declaraciones, realizadas durante un panel del Foro Económico Mundial en Ginebra, subrayan la necesidad apremiante de considerar las posibles consecuencias éticas y sociales de esta tecnología en evolución constante. A medida que la IA avanza, estas voces de advertencia adquieren una importancia aún mayor en la búsqueda de un enfoque equilibrado y responsable en su desarrollo y aplicación.
Tecnología de guerra
La popularización de la inteligencia artificial generó un esperado interés por parte del sector de la defensa, una evolución que se alinea con la histórica tendencia de herramientas digitales desempeñando un papel crucial en el mantenimiento de ventajas tácticas desde mediados del siglo XX. En este contexto, tecnologías como el reconocimiento facial y los drones no tripulados han sido protagonistas en la esfera militar, consolidándose como elementos fundamentales utilizados de manera cotidiana durante más de una década.
Un ejemplo destacado de esta intersección entre inteligencia artificial y defensa se refleja en la presentación reciente de la Plataforma de Inteligencia Artificial (AIP) por parte de Palantir, este mismo mes. Esta innovadora plataforma se posiciona como una herramienta potencialmente valiosa para las fuerzas militares al permitir la toma de decisiones en entornos de combate, aprovechando modelos similares a los empleados en ChatGPT. Palantir subraya que su software puede aprovechar redes de información, comunicación e inteligencia para proporcionar un análisis detallado de las unidades presentes en una región, proporcionando sugerencias sobre cómo administrar recursos y diseñar estrategias de respuesta frente a amenazas. Sin embargo, es importante destacar que la empresa hace hincapié en la necesidad de que este software sea utilizado en consonancia con los marcos éticos y las convenciones que rigen todas las tecnologías de defensa.
En esta misma línea, organizaciones como la Cruz Roja han expresado una preocupación creciente en relación a la imprevisibilidad inherente de la inteligencia artificial y su posible impacto en el desarrollo y despliegue de armas autónomas, un tema ya de por sí controvertido. En particular, resaltan que los sistemas de aprendizaje automático plantean cuestionamientos sobre sesgos codificados, incluso en aspectos como raza, género y sexo, lo que genera preocupaciones adicionales en áreas como la vigilancia. En este sentido, el Comité Internacional de la Cruz Roja advierte que con armas autónomas, predecir los efectos y consecuencias podría volverse una tarea considerablemente compleja para los usuarios.
Esta convergencia de inteligencia artificial y defensa plantea un conjunto de desafíos éticos, técnicos y legales que deben ser abordados de manera proactiva para garantizar la seguridad, la responsabilidad y la transparencia en la implementación de esta tecnología en el ámbito militar. Las implicaciones de este cruce entre innovación y seguridad se extienden a través de esferas múltiples y, en última instancia, requieren un enfoque equilibrado y colaborativo para maximizar los beneficios y mitigar los riesgos inherentes.
Riesgos a la Democracia
Las consecuencias de la adopción de estas nuevas herramientas en los procesos democráticos y en la estructura gubernamental plantean un conjunto de inquietudes que han captado la atención de los expertos en el campo. Estos profesionales argumentan que existe la posibilidad de que estas tecnologías se utilicen para amplificar la manipulación de la opinión pública, una preocupación que ha estado presente en las campañas electorales en todo el mundo durante la última década, y que podría llegar a ser aún más compleja con la creciente sofisticación de herramientas como los deepfakes, las cuales permiten la creación de imágenes, vídeos y textos falsificados de manera casi indistinguible de la realidad.
Un ejemplo pertinente de esta dinámica se presenta con el Gobierno chino, que podría aprovechar la gran concentración de usuarios que utilizan sus superaplicaciones, como WeChat, para reforzar su control sobre la población. Esta inquietante perspectiva es subrayada por Matt O’Shaughnessy, investigador del Carnegie Endowment for International Peace, quien destaca que un proyecto de ley reciente en China demuestra claramente la intención de reforzar el dominio sobre la tecnología y los ecosistemas de información del país. Según las normativas propuestas, se impondría la condición de que el contenido generado refleje los valores socialistas fundamentales y se prohibiría cualquier contenido que se considere subversivo al poder estatal.
Mathias Rissa, director del Centro Carr para la Política de Derechos Humanos, señala que, en muchos casos, las autocracias también recurren a la tecnología como un medio para controlar a su población, un patrón que es evidente en la estrategia del Gobierno chino. Rissa argumenta que las bases de datos secretas y las aplicaciones de inteligencia artificial han tenido impactos perjudiciales en diversos sectores, como el financiero, los negocios, la educación y la política. Además, destaca que las decisiones basadas en inteligencia artificial, como las relacionadas con la libertad condicional, las hipotecas o las solicitudes de empleo, a menudo están influenciadas por sesgos inherentemente presentes en estos sistemas.
En este contexto, Benjamin Cedric Larsen, jefe de proyectos de inteligencia artificial en el World Economic Forum, señala una distinción importante en las tendencias regulatorias. Mientras que en Gobiernos autoritarios como Rusia y China se está observando una orientación hacia el control de la población a través de regulaciones más restrictivas, en las naciones occidentales se aprecia una tendencia hacia la protección de la privacidad y los datos de los usuarios. Este contraste refleja la evolución de un enfoque ideológico que tiene como objetivo salvaguardar los principios fundamentales de los derechos humanos en el papel y la aplicación de la inteligencia artificial.