Es noticia
Esta periodista de EEUU descubrió en España por qué la IA es el "nuevo colonialismo"
  1. Tecnología
Entrevista con Karen Hao

Esta periodista de EEUU descubrió en España por qué la IA es el "nuevo colonialismo"

Karen Hao fue la primera periodista en tener acceso amplio a OpenAI en 2019. Desde entonces, lleva investigando a fondo esta industria en varios países y avisa de los intereses ocultos de las grandes tecnológicas

Foto:  Karen Hao. (Tony Luong/Cedida)
Karen Hao. (Tony Luong/Cedida)
EC EXCLUSIVO Artículo solo para suscriptores

Karen Hao recuerda quedarse boquiabierta admirando la fachada modernista de la Casa Lleó Morera, en pleno Paseo de Gracia, en Barcelona, cuando todas las piezas encajaron en su cabeza. Hacía unos días que había visitado por primera vez Colombia, el país natal de su marido, y ahora ambos disfrutaban de una luna de miel por Europa. Su paso por Granada, Córdoba y Barcelona le marcó, y no solo por los stendhalazos. "El contraste entre Colombia y España es tan grande que te hace entender muy bien qué ocurre tras una etapa colonialista, cuando un país se enriquece a costa de otro. Viendo los edificios modernistas en Cataluña, me di cuenta del paralelismo con lo que está sucediendo ahora con la inteligencia artificial", explica Hao desde Hong Kong en una entrevista con El Confidencial.

Esa idea es el germen de un libro que Hao, periodista en The Atlantic, The Wall Street Journal o el MIT Technology Review, ha comenzado a escribir y verá la luz en 2025. A sus 30 años, lleva más de seis siguiendo la pista a las grandes empresas de inteligencia artificial. Fue la primera periodista en tener amplio acceso a OpenAI en 2019 y una de las pocas en adentrarse en su sede en Silicon Valley. Ha entrevistado a casi todos los padres de la IA, como el Premio Princesa de Asturias, Geoffrey Hinton, y su conclusión es más bien inquietante: la inteligencia artificial está repitiendo la misma "apropiación violenta de tierra", dice, "extracción de recursos y explotación de la gente que ocurrió con el colonialismo europeo".

PREGUNTA. Llevas tiempo investigando qué hay detrás del boom actual de la IA y lo vas a plasmar en un libro. ¿Cuál es la tesis?

RESPUESTA. La conclusión tras cubrir esta tema en varios países es que hay importantes desequilibrios de poder en la forma en la que esta tecnología se usa. Hay muy poca gente que participa en su desarrollo y, sin embargo, afecta a la vida de millones de personas.

Existe un aspecto de puro colonialismo en la IA actual, ya que permite a un pequeño grupo de personas, que ya son muy ricas y poderosas, proyectar su ideología al resto del mundo. Estas personas venden una visión particular de modernidad y progreso. Te dicen, tienes que adoptar esta tecnología o aceptar nuestro sistema de educación si quieres progresar al nuevo siglo. La forma en la que se sostiene la IA es perpetuando ideas sobre quién es el dueño de los recursos y cómo derivar valor de los mismos. Durante la época colonial, los imperios iban a otro lugar y se proclamaban dueños de unos determinados recursos. Esa era la forma en la que perpetuaban su riqueza y aumentaban el tamaño del imperio, a costa de la degradación de las vidas de mucha otra gente. Algo parecido ocurre ahora con la IA, necesita una enorme cantidad de datos, poder de computación, agua para refrigerar los servidores… Esto no funciona si la compañía no logra convencernos de que los datos son de su propiedad desde el inicio y de que, por eso, no tiene que pagar por ellos.

Foto: Timnit Gebru. (Getty/TechCrunch/Kimberly White)

P. Se te ocurrió todo esto mientras contemplabas edificios modernistas en Barcelona.

R. Como estadounidense, tengo una relación extraña con el colonialismo, no se nos enseña en las escuelas. Lo único que nos dicen es, EEUU fue una colonia, poco más (risas). Creo que no tuve una comprensión completa de este periodo hasta que visité España. Mi marido es colombiano y pasamos parte de nuestra luna de miel en España. Pero justo antes estuvimos en Colombia. Fue un contraste enorme, vi la situación política, económica y de infraestructuras de Colombia frente a la de España y pude entender físicamente qué ocurre cuando un país se enriquece a costa de otro. La arquitectura de Barcelona de alguna forma glorificó eso en mi cabeza: es muy bella y, a la vez, gran parte de esos edificios fueron encargados y pagados con dinero proveniente de países como Colombia, en los que la infraestructura es todavía muy pobre.

Desde ese momento he viajado mucho alrededor del mundo y ves este mismo fenómeno entre Kenia y Silicon Valley. Muchas tecnológicas dependen de trabajadores de Kenia para la moderación y etiquetado de datos de cosas como ChatGPT. Hay gente en Kenia que se pasa 40 o 60 horas a la semana revisando este contenido tóxico para crear filtros automáticos que impidan luego que otros usuarios vean ese contenido. Pero cuando vas a la sede de OpenAI en Silicon Valley, tienen una oficina majestuosa de varios pisos con todo tipo de cosas gratis. Luego vas a Kenia y la gente que subcontrata OpenAI vive en casas de hojalata. Viven en sitios tan pobres que no saben cuándo van a volver a comer. OpenAI no les paga bien por el tipo de trabajo que hacen, en muchos casos menos de 2 dólares la hora, lo que no es suficiente para vivir y salir de esa situación. Como país, te das cuenta de que los recursos de Kenia, tanto humanos como materiales, están bloqueados al servicio de una industria de otro país, están ayudando a crear una enorme riqueza para otra potencia, pero no ven ni una pequeña parte de esa riqueza.

placeholder Karen Hao. (TEDx/Cedida)
Karen Hao. (TEDx/Cedida)

P. ¿No lleva ocurriendo esto desde hace siglos? El iPhone es quizás el ejemplo más reciente de este colonialismo tecnológico. Sin los minerales que se extraen en África o las fábricas en China, no tendríamos un iPhone en la mano.

R. Sí, lo que estamos viendo con la IA ahora es una continuación de lo que hemos ido viviendo década tras década a lo largo de la historia. La diferencia ahora creo que es la escala y la rapidez con la que se está produciendo este fenómeno al tratarse de una tecnología digital y no algo físico como un móvil o un coche.

Cuando fabricas un iPhone, es un proceso físico, tienes trabajadores en una planta en China o en un país donde existen minas de un determinado material. El hecho de que esos empleados estén en una planta trabajando juntos, codo con codo, les da más poder, se pueden organizar, pueden explicar a otros empleados que las condiciones que tienen no son justas. Apple se ha enfrentado a muchos de estos casos, en los que las inspecciones laborales y la organización de los empleados han hecho que tenga que mejorar las condiciones.

"Con la IA, nos ha llevado unos 10 años darnos cuenta de que hay gente detrás de esta tecnología y en muy malas condiciones laborales"

A lo largo del tiempo, China se ha beneficiado mucho de ser el mayor fabricante de iPhones del mundo. Ha logrado subir en la cadena, muchos empleados se han especializado y trabajan ahora para empresas chinas en procesos avanzados de fabricación. Sin embargo, cuando el trabajo es 100% digital, como ocurre con la IA, y se desarrolla en un idioma específico, lo primero que ocurre es que muchas de estas personas trabajan desde casa, no saben que hay otros empleados como ellos en su misma situación o quiénes son. Tienen menos poder de organización. Con la IA, nos ha llevado unos 10 años darnos cuenta de que hay gente detrás de esta tecnología y en muy malas condiciones laborales.

Por otro lado, dado que la IA es tan intensiva en capital, es muy difícil imaginar que un país como Kenia pueda desarrollar sus propias empresas de IA como ha hecho China en el sector industrial tras el iPhone. OpenAI entrena modelos que cuestan miles de millones de dólares. Entrenar y desarrollar un único modelo puede costar 1.000 millones. No es posible ni imaginar que un país como Kenia pueda llegar a eso.

P. Empresas como OpenAI argumentan que en realidad están creando empleo, ofreciendo una oportunidad laboral en un país como Kenia donde antes no existía este tipo de trabajo. Todos ganan, dicen.

R. Esa podría ser en realidad una de las grandes oportunidades de la industria de IA, que sirva para ofrecer una oportunidad económica real a gente que no la ha tenido hasta ahora. Pero eso no es lo que está ocurriendo ni lo que está haciendo OpenAI y el resto de tecnológicas. No están pagando suficiente a esta gente. En el caso de Venezuela, por ejemplo, vi muchos empleados que al principio ganaban bastante y, justo por eso, no buscaban otros empleos. Recuerdo el caso de una venezolana que al principio ganaba unos 100 dólares a la semana, que para ella era mucho, pero un tiempo después ingresaba solo 10 dólares al mes. Aun así, no buscaba otros empleos por si volvían a ofrecerle más trabajo. Es una forma en la que estas plataformas se venden a los empleados, les dicen, no os preocupéis, vendrá más trabajo, vendrá más trabajo, y acaban en esta situación.

En Kenia pasa algo parecido, están orgullosos de dedicarse a esto, de contribuir a una industria que les venden como el futuro. Pero no obtienen una renta estable que les permita salir de su situación de pobreza. Si estas empresas hicieran lo que es moralmente correcto y pagaran lo suficiente y de forma regular, entonces sí tienes una situación en la que todos ganan. Eso es lo que OpenAI dice que hace, pero en realidad no es así.

placeholder Sam Altman, CEO de OpenAI. (Reuters)
Sam Altman, CEO de OpenAI. (Reuters)

P. El periódico The New York Times acaba de demandar a OpenAI por usar su contenido sin permiso. En tu trabajo explicas que las empresas de IA no solo se aprovechan de mano de obra barata en terceros países, también usan nuestros datos y el contenido ajeno sin permiso.

R. Como la IA es una tecnología digital, solemos olvidarnos de que tiene una cadena de producción en sí misma, igual que un producto físico, que un móvil o el café. Y cada paso de esa cadena de suministro está roto.

Los datos son lo primero, las tecnológicas los necesitan coger de algún sitio. Hablan de ellos de una forma desvinculada de la gente que los genera. Dicen, "nuestros datos", porque ayuda a entender que vienen de algún sitio, pero en realidad es un modelo de negocio disfuncional, se apropian de todo, de los datos que genera la gente, del contenido que generan los medios… Luego viene la siguiente capa, la de empleados trabajando por una miseria para ordenar esos datos. Tienes otra capa de la cadena, los chips necesarios para procesar la información. Necesitas extraer toneladas de minerales raros para fabricarlos. Además, los centros de datos que alimentan los modelos de AI consumen gran cantidad de los recursos hídricos de la zona en la que se ubican. En Uruguay, por ejemplo, se están produciendo enormes protestas contra los centros de datos de Google porque hay una gran sequía y la gente casi no tiene agua para beber. El gobierno, sin embargo, ha priorizado usar el agua para los centros de datos en lugar de para la gente. Esto está ocurriendo en muchas partes del mundo, en Holanda, Reino Unido, también en EEUU, en Oregón, Arizona, Virginia…

Foto: El logotipo de Google, visto desde un cristal roto. (Reuters/Dado Ruvic)

P. La exempleada de Google, y especialista en ética de IA, Timnit Gebru, dice que estamos asistiendo al mayor robo corporativo de la historia. ¿Estás de acuerdo?

R. Desde luego. Sin los datos, estas compañías no pueden desarrollar la tecnología. Con ella, ganan grandes cantidades de dinero y prometen que, de alguna manera, van a redistribuir la riqueza. En realidad, no han pagado por la base que les ha permitido crear la tecnología. Si fuera cierto que van a redistribuir la riqueza, ¿por qué no pagan por esos datos desde el inicio? Mucha de esta información la generamos cada uno de nosotros de forma indirecta. Cogerla sin más, sin permiso expreso, es un asunto muy serio de privacidad. Has robado información que he generado, que ni siquiera sé que existe y que no me has pedido permiso para usar. Y luego están cogiendo datos que son muy caros de generar, contenido periodístico, música, películas… Estamos ante un enorme robo.

P. En tus publicaciones aseguras que la retórica de Google ("IA para todo el mundo"), Meta ("IA responsable") o OpenAI ("distribuir los beneficios de la IA") es falsa. ¿Por qué?

R. Hay un libro reciente titulado Power and Progress, escrito por dos economistas del MIT, Daron Acemoglu y Simon Johnson, que explica esto de forma brillante. Analiza los últimos 1.000 años de progreso y su principal conclusión es que el desarrollo tecnológico nunca está distribuido de forma igualitaria, siempre está generado por y para la gente rica. Es solo a través de algún tipo de evento cataclísmico que estos avances acaban distribuyéndose a todo el mundo.

Pone como ejemplo las herramientas de automatización en la agricultura. Al principio, la promesa era que estas tecnologías iban a aumentar la producción de alimentos pero en realidad lo que hicieron fue explotar aún más a la gente que trabajaba en las granjas. Ahora se suponía que, con la tecnología, tenían que producir mucho más. Además, cobraban menos, porque la tecnología automatizaba muchos procesos y devaluaba su trabajo. No fue hasta el estallido de la peste negra que esta tecnología empezó a ser beneficiosa para todo el mundo. La peste negra eliminó tanta mano de obra que los escasos trabajadores restantes tuvieron mucho más poder para organizarse y exigir mejores salarios y condiciones. Ahí fue cuando la tecnología empezó a beneficiar a todo el mundo.

"Las compañías de IA prometen que van a redistribuir la riqueza. Pero no han pagado por la base que les ha permitido crear la tecnología"

Una de las grandes conclusiones que hacen estos dos economistas es que, siempre que hay una nueva tecnología revolucionaria, hay un paso clave previo que se tiene que dar para que triunfe: la gente adinerada que la desarrolla tiene que prometer que no será para su propio beneficio. Tienen que decir que será algo bueno para todos, crear una narrativa que compre todo el mundo sobre los efectos positivos de esa tecnología. Esto ocurre sobre todo en países avanzados y democráticos. Es lo que están haciendo todas estas compañías, intentan convencernos de que deberíamos permitirles hacer lo que están haciendo porque al final será beneficioso para el progreso y el futuro. Pero, en realidad, lo que está ocurriendo es que están creando una excusa, una tapadera, para seguir haciendo lo que se lleva haciendo durante siglos: gente adinerada creando tecnología por y para la gente adinerada. Y eso es lo que están haciendo en EEUU con la regulación de la IA, dicen: oh, si nos reguláis no vamos a ser capaces de crear esto y esto otro que será tan beneficioso para todos.

P. Meta es un caso interesante en la retórica de estas grandes empresas de IA. Su jefe de IA, el francés Yann LeCun, dice que todos los agoreros que aseguran que la IA supone una amenaza para la humanidad son "idiotas útiles" al servicio de OpenAI, Microsoft o Google, que lo único que quieren es establecer sus modelos propietarios de IA. LeCun defiende modelos abiertos, accesibles por todo el mundo. Sin embargo, a la vez, carga contra la nueva ley europea de IA por querer regular los modelos fundacionales de IA. ¿Cómo se entiende esto?

R. LeCun es siempre contradictorio (risas). Él asegura que mucho de este fatalismo sobre la IA no se basa en ninguna prueba. Ambos bandos, los tecno-optimistas y los agoreros, están realizando proyecciones sobre cómo evolucionará la IA en el futuro, pero sin ninguna base factual. No sabemos qué va a pasar. Sin embargo, creo que hay un elemento compartido y es que ambos bandos argumentan que son ellos los que deben controlar la tecnología. Los tecno-optimistas dicen, dejadnos en paz, sabemos mejor que nadie qué hacer para que esta tecnología nos conduzca a una nueva era de progreso y renacimiento. Mientras que los agoreros piden que se les deje el control a ellos porque si no todos vamos a morir. Al final, lo que Yann LeCun quiere es lo mismo que el resto, que le dejen a él controlar la tecnología.

placeholder Yann LeCun, vicepresidente y jefe de IA de Meta. (Reuters)
Yann LeCun, vicepresidente y jefe de IA de Meta. (Reuters)

Cuando Meta promueve la IA de software abierto, en realidad ellos no están haciendo eso. Es parte de su narrativa de por qué deben ser una de las partes más confiables del sector y por qué se les debe dejar hacer. Uno de los elementos clave del software abierto es que debes ser capaz de examinar todos los elementos que se han usado en el desarrollo de un producto. Meta nunca ha abierto el código ni los datos que usan para entrenar sus modelos de IA. Lo único que han hecho es abrir el modelo una vez ha sido entrenado, te lo puedes descargar y usarlo. Es un buen paso y una alternativa al resto, pero Meta no quiere que sepas cómo lo han desarrollado. Eso es parte de por qué LeCun está impulsando menos regulación en Europa. No le importa publicar el código, pero no quiere publicar los datos de entrenamiento.

P. ¿Qué te parece la nueva ley de IA en Europa?

R. Siempre he pensado que, dado nuestro gobierno tan disfuncional en EEUU, la mejor oportunidad que tenemos de que se regule bien una tecnología es esperando a que lo haga Europa primero (risas). Así que me parece una gran idea lo que está ocurriendo con esta ley.

Foto: Mustafa Suleyman. (Cedida)

P. Siempre hablamos de EEUU y Europa en el desarrollo de la IA, pero China, pese a los bloqueos de tecnología, es puntera en muchos frentes. ¿Qué rol crees que va a jugar China en el desarrollo y uso posterior de la IA?

R. China está regulando mucho la IA, de hecho es el país que más leyes ha aprobado sobre esta tecnología, en parte porque el gobierno está muy preocupado por el efecto desestabilizador que pueda tener a nivel social y político. La forma en la que la IA puede extender desinformación puede usarse en contra del Partido Comunista, temen perder el control sobre la narrativa. El efecto de esta regulación es que se ha generado un ecosistema autocontenido de compañías de IA que tienen que obedecer ciertas reglas.

"Creo que la IA va a ser revolucionaria, igual que lo fue internet, se va a convertir en una parte fundamental de todo lo que hacemos"

China ha bloqueado a muchas empresas de IA de otros países, y al revés, OpenAI ha decidido no usar su tecnología en este país. Estamos viendo algo parecido a lo que ocurrió al inicio de internet, con diferentes partes del mundo tomando diferentes rumbos en el desarrollo de la tecnología. Pero esto es bueno. No creo que el modelo de una única plataforma, compañía o país exportando a todo el mundo sea viable o positivo. OpenAI no conoce los matices de cada país a nivel social o político. Tenemos ejemplos de esto, de cómo Facebook trató de exportar su idea de internet y red social a todo el mundo, y lo que ocurrió en sitios como Birmania, que fue un absoluto desastre.

P. Hablabas antes de los tecno-optimistas vs. los agoreros respecto al futuro de la IA. ¿Qué nos espera con esta tecnología?

R. Creo que la IA va a ser revolucionaria, igual que lo fue internet, en el sentido que se va a convertir en una parte fundamental de todo lo que hacemos. No podemos hacer nada hoy sin internet, a nivel personal o a nivel laboral. Empresas y personas hemos construido nuestras vidas alrededor de internet. Creo que pasa lo mismo con la IA. Muchas de las cosas que hacemos a diario ya dependen de la IA, cada vez que haces una búsqueda en Google, envías un email y se autocompleta… ahora con la IA generativa veremos una adopción mucho mayor. De cara al futuro, creo que no habrá ninguna industria que no esté diseñada con la IA en mente, de la misma manera que ninguna empresa o industria o actividad se diseña ahora sin tener en cuenta internet.

P. Muchos especialistas hablan del riesgo de que una superinteligencia tome el control en el futuro. ¿Fantasías?

R. No creo en una superinteligencia en el sentido de algo que tendrá más poder que un humano. Lo que sí creo es que los humanos podrán usar la IA para generar muchísimo daño, pero no será la tecnología la que lo haga por sí misma, serán los humanos. Se habla mucho del término inteligencia artificial general, o AGI, pero en realidad no hay ni una definición acordada y compartida sobre qué es. Cada compañía tiene su propia idea de lo que es, OpenAI tiene de hecho dos definiciones diferentes contradictorias entre sí.

placeholder  Karen Hao. (Tony Luong/Cedida)
Karen Hao. (Tony Luong/Cedida)

Hoy ya dejamos que la IA tome muchas decisiones. La industria publicitaria online está ya dominada por la IA, no hay intervención humana para servir un anuncio a este usuario u a otro, y eso ya genera problemas de discriminación, de interferencia en unas elecciones… Creo que, a medida que la IA vaya tomando más y más control en infraestructuras críticas y vaya tomando más decisiones sin intervención humana, vamos a tener más problemas y conflictos. Pero no creo que haya que esperar a la AGI. Eso ya está ocurriendo ahora.

P. ¿Por qué entonces expertos como Geoffrey Hinton, uno de los padres de la IA, y poco sospechoso de intereses corporativos, están tan alarmados sobre el riesgo de que una superinteligencia acabe amenazando a la humanidad?

R. He hablado con él sobre esto en el pasado. Su argumento es muy teórico y matemático. Su tesis es que a los humanos nos cuesta mucho transmitir conocimiento. Tenemos sistemas educativos diseñados al completo solo para esto, para intentar trasladar ideas de la cabeza de una persona a otra. Y hay muchos problemas asociados a este proceso. Si trasladas esto a la tecnología, si tienes dos modelos de IA, al final se basan en modelos matemáticos, son secuencias de números, por lo que a nivel técnico es posible añadir un modelo a otro y combinarlos de forma casi instantánea. Hinton cree que, una vez lleguemos a un punto en el haya modelos lo suficientemente potentes ahí fuera, se podrían combinar en uno solo y crear una especie de superinteligencia, mucho más potente y rápida que un humano.

A mí me cuesta creer este argumento. Los modelos actuales ya son tan grandes y costosos que combinarlos en uno aún mayor puede no ser viable. El CEO de Anthropic ya ha dicho que en 2025 costará 10.000 millones de dólares entrenar un solo modelo. No hay tantos chips ni dinero en el mundo para llevar eso a cabo. Pero, aunque fuera posible, no creo que eso cambie nada de lo que deberíamos hacer en la actualidad, que es intentar entender los límites y fallos de los modelos de IA para intentar corregirlos. Y no me refiero solo dentro de un laboratorio, sino analizar cómo esos modelos de IA interactúan con la sociedad. Cómo afectan a unas elecciones, a la capacidad de la gente de creer un contenido concreto, cómo afecta a sus vidas… Si trabajamos duro en identificar las limitaciones de estos modelos ahora, en lugar de acelerar su desarrollo sin más, no creo que lleguemos a un punto de amenaza existencial.

Karen Hao recuerda quedarse boquiabierta admirando la fachada modernista de la Casa Lleó Morera, en pleno Paseo de Gracia, en Barcelona, cuando todas las piezas encajaron en su cabeza. Hacía unos días que había visitado por primera vez Colombia, el país natal de su marido, y ahora ambos disfrutaban de una luna de miel por Europa. Su paso por Granada, Córdoba y Barcelona le marcó, y no solo por los stendhalazos. "El contraste entre Colombia y España es tan grande que te hace entender muy bien qué ocurre tras una etapa colonialista, cuando un país se enriquece a costa de otro. Viendo los edificios modernistas en Cataluña, me di cuenta del paralelismo con lo que está sucediendo ahora con la inteligencia artificial", explica Hao desde Hong Kong en una entrevista con El Confidencial.

Inteligencia Artificial
El redactor recomienda