La reconocida periodista e ingeniera Karen Hao se ha destacado como una de las figuras más influyentes en el campo de la inteligencia artificial, explorando su impacto desde los laboratorios de Silicon Valley hasta las comunidades más afectadas en el Sur Global. En su obra El imperio de la IA (Península), Hao desentraña la transformación de OpenAI de una entidad sin fines de lucro a un poderoso conglomerado tecnológico enfocado en la expansión y la acumulación de recursos y poder.
Hao presenta un análisis detallado del emergente orden mundial centrado en la inteligencia artificial generativa, vinculando esta tendencia con la explotación laboral en países como Kenia, problemas ecológicos en Chile y los desafíos que estas tecnologías imponen a la democracia y los derechos humanos.
Pregunta: ¿Por qué consideras que existe un imperialismo en la expansión de la inteligencia artificial?
Respuesta: Defino a estas corporaciones como imperios debido a que sus métodos para acumular poder económico y político son comparables a los de los imperios tradicionales. En mi libro identifico cuatro paralelismos clave: Primero, se apropian de recursos ajenos, como los datos usados para entrenar sus modelos. Segundo, explotan labor masivamente, incluyendo a empleados en el extranjero dedicados a la anotación de datos y moderación de contenido, además de promover modelos que automatizan el trabajo humano. Tercero, monopolizan la producción de conocimiento al controlar a la mayoría de los investigadores en IA, ya sea mediante contratación directa o financiación de sus investigaciones en academia, lo que sesga la producción científica hacia intereses corporativos. Cuarto, construyen narrativas moralizantes sobre sí mismos, presentándose como el «buen imperio» que trae progreso y modernidad a la humanidad, mientras demonizan a competidores como portadores de destrucción.
P: ¿La IA es ahora un elemento más en la geopolítica mundial?
R: Aunque no estoy completamente de acuerdo con la idea de que nos encontramos en una carrera armamentista tecnológica, sí observo que Silicon Valley promueve la idea de ser el baluarte de Occidente, equiparando esto con la carrera nuclear y presentándose como los «buenos» frente a los «malos». Pero la IA, al ser fundamentalmente software, difiere de las armas nucleares en su facilidad para cruzar fronteras y en su base en el conocimiento. La colaboración internacional, especialmente entre EE. UU. y China, ha sido crucial, como se demuestra con el desarrollo de la red neuronal residual por investigadores chinos, un avance clave para la IA generativa.
Sin embargo, Silicon Valley tiende a ignorar o negar esta colaboración, promoviendo un relato de superioridad y pureza de la IA estadounidense, lo que no solo es falso, sino que ha fortalecido el sector de IA en China, cuyos modelos abiertos incluso son utilizados por firmas estadounidenses. La realidad muestra que la cooperación internacional sigue siendo vital y que la competencia no excluye la colaboración en este sector.
P: ¿Entonces, el discurso sobre la IA tiene un propósito utilitarista basado en el miedo?
R: Exactamente, tanto el miedo como la esperanza son explotados por estas empresas dependiendo del público objetivo. Por ejemplo, Sam Altman de OpenAI, a menudo menciona que la IA ayudará a resolver el cambio climático o curar el cáncer, no para infundir miedo, sino para inspirar y atraer hacia visiones utópicas de un futuro mejor. Este uso de utopías o distopías, dependiendo de la conveniencia, es precisamente lo que hace problemático este tipo de discurso: permite que las empresas continúen causando daños actuales y tangibles mientras se escudan en teorías futuristas.
P: Entonces, ¿la IA es una industria extractiva?
R: Sí, en muchos sentidos. Extrae recursos de la tierra, datos, trabajo, energía, agua y capital. Como mencionaste, esencialmente se reduce a la extracción del entorno y del conocimiento intelectual.
P: ¿Por qué afirmas que la ciencia en torno a la IA está cautiva?
R: En la última década, hemos visto un gran desplazamiento de la investigación en IA desde el ámbito académico hacia el corporativo, con la mayoría de los investigadores recibiendo algún tipo de financiamiento de grandes tecnológicas. Esto les da a estas empresas un influjo significativo, tanto blando como duro, sobre qué tipo de investigación se realiza. Un ejemplo claro es el despido de Timnit Gebru de Google tras publicar un artículo crítico sobre los grandes modelos de lenguaje, lo que limita la comprensión pública sobre las verdaderas capacidades y limitaciones de estas tecnologías.
P: ¿Debería regularse más la industria de la IA?
R: Absolutamente. Necesitamos aumentar la transparencia y entender mejor cómo estas empresas operan y utilizan recursos. Esto incluye conocer más sobre los datos que emplean, dónde se ubican sus centros de datos, cuántos recursos consumen y a quién venden sus productos. También deberíamos considerar mecanismos para redistribuir la riqueza que acumulan, como impuestos o salarios justos para los trabajadores que contratan.
P: ¿Cuál es el peligro principal de la IA que no estamos enfrentando como sociedad?
R: La principal amenaza es que al concentrar recursos en modelos de IA a gran escala, estas empresas están limitando nuestra capacidad para innovar no solo en IA sino en otras tecnologías esenciales. Un informe de Bloomberg indicó que las inversiones en tecnología climática han disminuido debido a que los fondos ahora se dirigen a modelos de IA costosos. Además, representan un nuevo tipo de imperio que podría comprometer la democracia y la libertad en el mundo.

Hola, soy María, parte del equipo de MuyMac. Me dedico a analizar las tendencias que marcan nuestro día a día, desde innovaciones tecnológicas hasta nuevas modas, para mantenerte siempre actualizado.