Es noticia
Este visionario de la inteligencia artificial te explica cómo la "izquierda radical" te manipula
  1. Tecnología
"El wokismo' es horrendo, hay que combatirlo"

Este visionario de la inteligencia artificial te explica cómo la "izquierda radical" te manipula

La figura de Pedro Domingos ejemplifica la nueva batalla en el sector tecnológico entre izquierda y derecha. Todos quieren dominar el campo de la inteligencia artificial, y eso implica riesgos preocupantes para toda la sociedad

Foto: Pedro Domingos. (Universidad de Washington)
Pedro Domingos. (Universidad de Washington)
EC EXCLUSIVO Artículo solo para suscriptores

Pedro Domingos ha dicho basta y ya no va a callarse. Este doctor en ciencias de la computación por la Universidad de Irvine (California) y profesor emérito por la Universidad de Washington es uno de los investigadores en inteligencia artificial más respetados a nivel mundial. Colega de Geoffrey Hinton y Yann LeCun, dos de los 'padres' de esta tecnología, premiados recientemente con el Princesa de Asturias, Domingos es de los pocos que hablan sin tapujos de un peligro creciente: la politización de la tecnología. "En Google hay demasiados activistas locos y eso hay que combatirlo", dispara.

La figura de Domingos, de origen portugués, refleja muy bien lo que se está cociendo en uno de los campos más vanguardistas de la tecnología mundial: la inteligencia artificial. Las 'big tech' llevan años invirtiendo miles de millones en desarrollar los algoritmos más avanzados. China y EEUU mantienen un pulso por convertirse en la potencia más puntera en este campo y, en especial, en su aplicación al terreno militar (con permiso de Putin). Pero las posibilidades de la IA son tan descomunales como sus riesgos. ¿Y si acabamos gobernados por algoritmos que discriminan a minorías? ¿Qué ocurrirá cuando un programa razone y tome decisiones igual que un humano? Cada vez más ingenieros y especialistas en ética advierten: hay que evitar que la lA se nos vaya de las manos. Domingos, autor del libro ' El algoritmo maestro', es una de las voces que avisan sobre los que avisan: "Son tonterías de gente que solo quiere empujar su agenda ideológica y su 'wokismo", explica en una entrevista con El Confidencial desde su despacho en Seattle.

Foto: Uno de los sistemas de detección de la empresa de inteligencia artificial militar Anduril. (Anduril)

La preocupación por los riesgos de la IA captó hace poco la atención mundial cuando un ingeniero de Google, Blake Lemoine, aseguró que uno de los programas de la compañía, LaMDA, tenía sentimientos humanos. El asunto quedó pronto desmentido, Lemoine había perdido el norte, pero quedó el poso. ¿Cuán avanzada es de verdad la inteligencia artificial? ¿Quién está controlando que los algoritmos de Google o Facebook, usados por gobiernos y empresas de todo tipo, no se pasen de la raya y acaben siendo racistas, sexistas y discriminatorios, igual que muchas personas? Domingos se echa las manos a la cabeza: "Esto son todo chorradas".

PREGUNTA. Empecemos por lo más sencillo. Hace unos días un ingeniero de Google, Blake Lemoine, aseguró que el programa LaMDA era consciente y tenía sentimientos. ¿Qué es LaMDA exactamente?

RESPUESTA. LaMDA surgió hace cinco años y es lo más de lo más ahora mismo en IA. Es un 'chatbot', un programa que imita cómo las personas se expresan por escrito. Su trabajo es mantener una conversación contigo. La forma en que aprende es analizando cantidades masivas de texto, por ejemplo, toda la web. Lee lo que hay en internet y aprende a predecir lo próximo que vas a decir. Esto se lleva intentando desde el principio de la IA, pero ahora, con las redes neuronales y las grandes cantidades de datos que hay, es posible hacerlo de manera bastante fiable. Esta tecnología es la que usa Google en su buscador para entender lo que dices y servirte mejores resultados.

placeholder Foto: Reuters.
Foto: Reuters.

P. ¿Cómo pudo un ingeniero de Google creer que este 'software' tenía sentimientos humanos?

R. Este ingeniero perdió la cabeza, LaMDA no es capaz de sentir nada. Es verdad que es fácil que un 'bot' como este engañe a un ser humano. Es de hecho tan fácil que lleva ocurriendo desde los años sesenta. Por aquella época hubo un programa famoso llamado Eliza, creado en el MIT por Joseph Weizenbaum, que era algo parecido. El 'software' solo veía trozos de texto, pero a la persona le daba la impresión de que entendía lo que le escribías. Podías decirle "no aguanto a mi suegra...", y te respondía: "¿Por qué? ¿Qué es lo que no aguantas?". Daba la ilusión de empatía. Si Eliza ya era capaz de hacer esto, avanza varias décadas hasta LaMDA, que usa billones de parámetros, y es comprensible que alguien piense que hay algo más. Lo que en este caso generó tanta atención, y con razón, es que quien resultó engañado no era una persona cualquiera, era un ingeniero de Google. Pero puedes ser ingeniero y no tener muchos conocimientos técnicos de IA.

P. Hablar de redes neuronales tampoco ayuda, da la impresión de que funcionan como el cerebro humano cuando no es así.

R. Sí, el campo de la IA está lleno de estas cosas. Como dice Yann LeCun, el científico jefe en IA de Meta, está bien inspirarse en la naturaleza, pero no demasiado. Al final, muchas de estas redes neuronales tienen muy poco que ver con cómo funciona nuestro cerebro. LaMDA y GPT-3, un sistema similar, solo almacenan billones de piezas de texto. Cuando conversas con ellos, usan similitudes entre el texto que reciben y el que tienen almacenado y componen algo. Eso no es pensar. Es más lo que hacen los loros, que solo repiten. Pero la pregunta clave es, ¿cuándo podremos asegurar que uno de estos programas piensa? ¿Cómo podemos construir un sistema que nos convenza de verdad de que tiene sentimientos? No tenemos una respuesta para eso, nadie sabe qué es lo que hace que algo sienta.

Foto: El proyecto Waterfall of Meaning, de Google, durante una exposición en Londres. (Getty/Tristan Fewings)

P. El jefe del ingeniero de Google, Blaise Agüera y Arcas, uno de los directivos de la compañía, aseguró en un artículo en 'The Economist' que él mismo "creía estar hablando con una entidad inteligente". ¿Tiene él parte de culpa por vender algo irreal?

R. Sí, él y otros se emocionaron más de la cuenta. Lo que ocurre con estos programas es que si escoges las frases donde lo hacen bien, parecen muy avanzados. Pero hay muchas otras frases en las que sus respuestas son pésimas, se ve al segundo que el sistema no solo es estúpido, es inimaginablemente estúpido. Hubo un cambio enorme en IA alrededor de 2012, cuando se creó AlexNet, y desde entonces ha habido un flujo enorme de gente que tiene mucho conocimiento de IA, pero de una tecnología muy concreta. Caen en el mismo error en que cayeron otros en los años cincuenta, como Herbert Simon, uno de los padres de este campo, premio Turing en el 75 y Nobel en el 78. Él decía, "en 10 años habremos resuelto todos estos problemas". Y no ocurría nada. Ahora igual. Como las cosas son fáciles para nosotros, tenemos esta ilusión de que serán fáciles para las máquinas, y no es así.

P. ¿Cuán lejos estamos entonces de lograr una IA consciente y con sentimientos de verdad?

R. Para responder a eso, primero tenemos que responder qué es la consciencia. Hay múltiples ideas para medirla, una de ellas es Phi, propuesta por el neurocientífico italiano Giulio Tononi. Puedes medir el nivel Phi de consciencia de un sistema y, si tomas esta medida, todos estos programas tienen una puntuación muy baja. El problema es que casi nadie está satisfecho con estas definiciones de consciencia.

¿Cómo evaluamos entonces las personas que algo es consciente? Es muy sencillo. Yo sé que soy consciente. Pienso, luego existo. Y como tú eres parecido a mí, tú eres también consciente. Sin embargo, incluso si una IA se comportara igual que si fuera consciente, ¿sabríamos que lo es? La respuesta es no. Creo que la tecnología evolucionará durante la próxima década hasta el punto de que podrá engañar a la mayoría de personas sobre si es consciente o no. En ese punto, lo que ocurrirá es que empezaremos a tratar a la IA como si lo fuera. Habrá algún investigador que dirá, no, no lo es, pero a nadie le importará.

"Si una IA se comportara exactamente igual que si fuera consciente, ¿sabríamos que lo es? La respuesta es no"

P. Entonces, ¿la IA tendrá sentimientos de verdad cuando no podamos saber a ciencia cierta si los tiene o no?

R. Eso es. De momento, hay algunos elementos básicos de la consciencia que estos sistemas no tienen. El primero es ser consciente de lo que te rodea. LaMDA no tiene sensores, solo recibe el texto que le escriben. Pero ahora imagina una IA que controle todo en el hogar, para eso necesitas cámaras y sensores de todo tipo y necesitas integrar todo eso en tiempo real. Los coches autónomos son otro ejemplo. Cuando todo eso esté integrado, algunos argumentarán que los sistemas sienten, y será difícil contradecirlo.

P. Muchos investigadores y expertos en ética aseguran que hay riesgos enormes asociados a la IA y al hecho de que llegue un punto en que no podamos distinguir estos sistemas de un comportamiento humano.

R. Por supuesto que hay riesgos. Sin embargo, tenemos un esquema mental equivocado a la hora de entender la IA, percibimos riesgos que no lo son en realidad, y no percibimos los verdaderos problemas. El principal riesgo que se percibe es el de ‘Terminator’, llegará un día en el que las máquinas se rebelarán contra nosotros. Esto es una tontería y viene de esa interpretación errónea de que estos sistemas se comportan como un humano, con los mismos prejuicios y defectos que tenemos, que pueden ser racistas, machistas, etc. Los especialistas en ética no dejan de dar la tabarra con esto. Es absurdo. Estos sistemas funcionan con algoritmos que no se basan en ninguno de esos prejuicios. El problema es que si tú intentas corregir esos supuestos prejuicios que no existen, es cuando los creas. Además, estás ignorando los riesgos reales. Uno de ellos es que todos estos sistemas de IA están tomando decisiones sobre nosotros. Y el problema no es que tengan prejuicios o nos vayan a manipular, el problema es que son demasiado estúpidos. El mayor riesgo de la IA hoy en día es que es demasiado estúpida.

P. Pero la IA aprende todo el rato, y entre otras cosas aprende de los datos que le sirven los ingenieros. Si esos datos o esos ingenieros tienen sesgos sexistas o racistas, ¿no los acabará teniendo la IA también?

R. Le pongo un ejemplo concreto e importante. Imagine que tenemos un sistema de IA diseñado para decidir si darle una hipoteca o no a un cliente. La gente suele decir: "Algunos empleados de banca tienen prejuicios contra los negros o contra las mujeres. Como eso es así, estos sistemas también van a tener prejuicios y van a perpetuar esas decisiones". Pero hay que diferenciar. Si el día en el que se forma a ese programa de IA, lo que en 'machine learning' se llama supervisión, se hace en base a las decisiones que tomaron los empleados de banca, entonces sí que perpetuarás esos errores. Pero si la base del aprendizaje fue la realidad de si esos clientes pagaron o no pagaron, entonces no hay ningún prejuicio. Simplemente va a predecir si pagarás o no en base a tu historial financiero. Nunca se hace esta distinción. Muchos dicen, "oh, es que los negros no pagan sus créditos porque la sociedad está estructurada contra ellos". OK, pero ese no es el problema que tiene que solucionar la IA. Estos algoritmos aprenden a ser un reflejo fiel de la realidad. Los seres humanos son muy difíciles de cambiar, pero los sistemas de IA sí se pueden modificar, no perpetúan nada.

Se podrían revisar todos los casos de supuesta discriminación de los algoritmos y demostrar que es una tontería. Otro ejemplo: se dice, "oh, es que este algoritmo reconoce mejor las caras de los blancos que la de los negros". No es verdad. El problema no es que el sistema sea racista o tenga prejuicios, el problema es que es demasiado estúpido. Comete errores porque no sabe cómo hacerlo mejor.

placeholder Timnit Gebru, la ingeniera de Google despedida tras diversas alegaciones sobre el riesgo de los proyectos de IA de la compañía. (Getty)
Timnit Gebru, la ingeniera de Google despedida tras diversas alegaciones sobre el riesgo de los proyectos de IA de la compañía. (Getty)

P. Pero si el objetivo de la IA es imitar el mundo real, y el mundo real está lleno de discriminaciones, ¿no tenemos un problema?

R. Es un hecho que los seres humanos discriminamos y tenemos prejuicios. La cuestión es: ¿discriminan también las máquinas? Hay esta hipótesis de que sí lo hacen, cuando en realidad en la mayoría de los casos no es así. Si existen, pueden venir de tres fuentes: del algoritmo de IA, de los datos o del ingeniero que desarrolló el sistema. El punto es que, a medida que los algoritmos se convierten en más y más sofisticados, lo que debe ocurrir es que el sistema se perfecciona, comienza a alejarse de las decisiones que tomaría una persona para tomar mejores decisiones. El objetivo de la IA no es imitar a los humanos. En algunos casos puede que sí, pero en general su objetivo es hacerlo mejor que los humanos.

P. Hay muchos especialistas en IA dedicados solo a la ética. Google, Facebook y otras tecnológicas han creado grupos enteros destinados a este tema. De hecho, Google despidió a varios empleados en el pasado, como Margaret Mitchell, antigua jefa de ética de IA de Google, o Timnit Gebru, por no respetar las reglas de la empresa. Mitchell y Gebru habían advertido antes en varias publicaciones de los riesgos de la IA y los proyectos de Google en este terreno.

R. Bueno, primero tenemos que distinguir entre investigadores de IA de verdad y otros como Margaret Mitchel y Timnit Gebru. Ellas tienen una ideología particular. Todos tenemos una ideología, no digo que sea malo o bueno. Pero cuando ves todo tu trabajo a través de este prisma ideológico y lo que haces es empujar una agenda propia, hay un problema. Geoffrey Hinton o Yann LeCun son investigadores, lo que hacen es desarrollar nuevos sistemas de IA y algoritmos para solucionar problemas. Eso es lo que intento hacer yo también. Los especialistas en ética se llaman a sí mismos investigadores, pero no lo son. Por eso critico lo que hacen, porque sitúan su ideología e inclinaciones políticas como si fuera investigación, pero no lo es. Es política disfrazada de investigación.

Foto: (Ilustración: Raúl Arias)

P. ¿No cree en la necesidad de que haya departamentos de ética vigilando que la IA no se vaya de las manos?

R. Soy un gran creyente de la ética en la IA, pero el problema de todos estos especialistas en ética es que dicen: "Si me criticas, si criticas mi ideología disfrazada de ética, entonces es que estás contra la ética". Esto es una chorrada. El campo de la ética aplicada a IA existe desde los inicios, desde los cincuenta. El problema es que durante los últimos 10 años ha sido tomada por todos estos 'wokes' que creen que la ética es solo lo que hacen ellos y cualquiera que no esté de acuerdo está contra la ética. No creo que lo hagan de forma deshonesta, creen firmemente en su agenda, en su ideología. Lo que no entienden es que otras personas pueden tener otra concepción de la ética. No podemos tener el campo de la IA secuestrado por ese pequeño conjunto de personas con una visión tan estrecha y equivocada del mundo.

placeholder Pedro Domingos. (Universidad de Lisboa)
Pedro Domingos. (Universidad de Lisboa)

P. Usted publicó hace un tiempo este tuit: "Que Google tenga un grupo de ética de IA es como si ExxonMobil monta un grupo de ética medioambiental: es una garantía de que no va a acabar bien".

R. Por supuesto [risas]. Tiene sentido, ¿no? ¿No está de acuerdo?

P. Que Google tenga un grupo de ética en IA a mí me parece buena idea, necesario de hecho. ¿No lo ve así?

R. Bueno, de hecho le han cambiado el nombre, ahora se llama Responsible AI, lo de ética es bastante resbaladizo. Hablar de la ética de IA es como hablar de la ética de la aritmética. Es casi un chiste. Si yo hoy escribo un 'paper' sobre cómo acelerar el procesamiento del texto para escalar modelos como LaMDA, muchos de estos eticistas me van a obligar a escribir una sección debatiendo las implicaciones sociales de esto. Y el 'paper' puede ser rechazado si no les gusta. ¿En serio? ¿Hay que hablar de la ética de hacer un algoritmo más rápido?

"El problema en Google no es que haya demasiada gente malvada. El problema es que emplea a demasiados activistas locos"

P. Llamó a Timnit Gebru, la ingeniera a la que Google despidió por airear los riesgo de la IA, "activista loca". ¿Lo mantiene?

R. Sí, por supuesto que lo mantengo, es lo que es. Es una activista y está un poco loca. Lo siento, pero es lo que hay. De todas formas, ese comentario lo hice de forma general. Hablaba de que el problema en Google no es que haya demasiada gente malvada, como defienden estos eticistas. El problema es que emplea a demasiados activistas locos. Ese fue mi comentario, ni siquiera me refería a ella. El problema en este país son todos estos 'woke', si le dices a una mujer que es una activista loca es que eres un machista, y si se lo dices a una persona negra, eres un racista.

P. Usa la palabra 'woke' casi como si fuera un insulto.

R. El 'wokismo' es un enorme problema en EEUU ahora mismo y se está extendiendo al resto del mundo, como a Francia. El 'wokismo' es algo horrendo y tenemos que combatirlo. Nos está arruinando. Se está extendiendo a todos los campos. Hace 10 años, estaba claro que en cuanto la IA se convirtiera en algo más popular, iban a saltar sobre nosotros. Y vaya si lo han hecho. Lo que estoy tratando es plantar batalla en mi campo. Yo soy un investigador en IA con visibilidad, y por eso lo hago, pero hay muchos con miedo a hablar alto y decir lo que piensan sobre el 'wokismo' y la cultura de la cancelación.

placeholder Ilustración: Irene de Pablo/EC.
Ilustración: Irene de Pablo/EC.

P. Publicó en un artículo un consejo para combatir a los 'wokes' y la cultura de la cancelación: "Reírse de ellos sin piedad".

R. El 'wokismo' es una ideología, pero la cultura de la cancelación va más allá y tiene una larga historia. La caza de brujas era un ejemplo de cultura de la cancelación. El macartismo también. Es un tipo de totalitarismo y se ha asociado con muchas ideologías, aunque en los últimos años va de la mano de una izquierda radical, que es la que agrupa a todos los 'wokes'. Cuando esta gente te ataca, tienes que ser capaz de hacerles frente. Reírte de ellos hasta el extremo es uno de mis consejos. Su ideología es de risa, así que lo lógico es reírse de ella y de ellos. Ríete de ellos y hazlo en público hasta sacarles de sus casillas. Entonces se desacreditarán a sí mismos.

P. En España, un partido de extrema derecha, Vox, ha usado justo esa táctica, la de cabrear a la izquierda para extender su mensaje.

R. Esa táctica no es mala por que la usen algunos indeseables. Es una táctica usada por la extrema derecha, la extrema izquierda, el centro… Es el género de la sátira y puede ir en cualquier dirección. En EEUU al menos, la izquierda siempre se ha reído de la derecha sin piedad. Ahí tienes a Stephen Colbert o John Stuart. Ahora las cosas han cambiado. No me gusta Vox, lo conozco superficialmente, pero no me gusta ningún extremismo, ni el de la derecha ni el de la izquierda. Soy de Portugal, nací durante la revolución, conocí el fascismo, el comunismo, lo conocí todo y odio los extremismos. Durante los años de Bush, me preocupaba que nos estábamos yendo demasiado a la derecha. Pero ahora es lo contrario. En mi profesión, en el campo académico, en mi ciudad, no veo a la derecha por ninguna parte, solo veo izquierda o extrema izquierda, y por eso lucho contra los demonios que veo.

P. ¿Qué le pareció la presidencia de Donald Trump?

R. No soporto a Trump, es horrible. Cuando ganó las elecciones, un famoso economista italiano, Luigi Zingales, de la Universidad de Chicago, explicó cómo Berlusconi era horrible, un idiota, pero la izquierda le odiaba tanto que lo convirtió en una víctima hasta el punto de que muchos empezaron a simpatizar con él. "No dejéis que ocurra lo mismo en EEUU con Trump", advirtió. Adivina lo que pasó: exactamente lo mismo.

Pedro Domingos ha dicho basta y ya no va a callarse. Este doctor en ciencias de la computación por la Universidad de Irvine (California) y profesor emérito por la Universidad de Washington es uno de los investigadores en inteligencia artificial más respetados a nivel mundial. Colega de Geoffrey Hinton y Yann LeCun, dos de los 'padres' de esta tecnología, premiados recientemente con el Princesa de Asturias, Domingos es de los pocos que hablan sin tapujos de un peligro creciente: la politización de la tecnología. "En Google hay demasiados activistas locos y eso hay que combatirlo", dispara.

El redactor recomienda