Es noticia
Te vas a quedar en paro: cómo OpenAI juega con el miedo para seguir dominando la IA
  1. Tecnología
POLÉMICO INFORME

Te vas a quedar en paro: cómo OpenAI juega con el miedo para seguir dominando la IA

ChatGPT nació como una fundación abierta sin ánimo de lucro para evitar que empresas como Google tiranizasen la inteligencia artificial. Pero, en el camino, está cambiando mucho

Foto: Sam Altam, CEO de OpenAI. (Reuters/Brendan McDermid)
Sam Altam, CEO de OpenAI. (Reuters/Brendan McDermid)
Loading

Loading

"Todo lo que hemos visto de Google, Microsoft y otros en las últimas semanas da que pensar que todos estaban más preparados de lo que parecía y que estaban esperando a que alguien levantara la liebre. Y ellos lo han hecho", comenta Nerea Luis Mingueza, doctora en Ciencias de la Computación y reconocida divulgadora española. Se está refiriendo a Open AI, la fundación detrás de ChatGPT, el bot conversacional lanzado a finales del pasado año y que ha puesto la inteligencia artificial en el centro de la industria tecnológica, empujando a todos los gigantes del negocio a iniciar una alocada carrera por dominar esta revolución, una competición en la que los anuncios ya no suceden en semanas, sino en días o incluso horas.

Nuevo GDocs y Gmail, renovación de Microsoft Office, otra versión de MidJourney, Ernie Bot de Baidu... Son solo algunas de las muchas novedades que se han desvelado recientemente. También GPT-4, el nuevo modelo de lenguaje de Open AI, una iteración más humana de inteligencia artificial. Pero más allá de las virtudes de su último lanzamiento, esta organización ha dado, y mucho, que hablar después de que publicase una investigación sobre las profesiones en peligro de extinción por culpa de las inteligencias artificiales generativas. “Los resultados indican que aproximadamente el 80% de la mano de obra estadounidense podría ver afectado al menos el 10% de sus tareas laborales por la introducción de las GPT", aseguran los autores. "Alrededor del 19% de los trabajadores podría ver afectado al menos el 50% de sus tareas”. Para evitar ser atropellado por esta revolución, laboralmente hablando, el documento señala "el pensamiento crítico" y "las ciencias" como factores clave.

placeholder Foto: Reuters/Dado Ruvic.
Foto: Reuters/Dado Ruvic.

El informe no tardó en hacerse viral y cosechar miles de titulares en todo el mundo. Pero también suscitó críticas por algunas carencias y falta de rigor. Incluso hay quien ve todos estos movimientos como parte de una campaña de marketing que lo que pretende es que Open AI siga marcando la agenda, el debate y la conversación sobre la inteligencia artificial generativa. No es la única vez que han jugado esta baza. El propio Sam Altam, CEO de la fundación, dijo recientemente en una entrevista en ABC News que, a pesar de los beneficios, había que tener "miedo" ante esta revolución. "Tenemos que tener cuidado", afirmó. "Creo que la gente debería estar contenta de que tengamos un poco de miedo con todo esto".

Un momento clave para OpenAI

Estos mensajes no llegan en un momento casual para una empresa, fundada en 2015, que llegó con el objetivo de desarrollar esta tecnología de forma abierta, colaborando con investigadores y plataformas y publicando sus investigaciones abiertas. Elon Musk, que abandonó un par de años después la fundación, aseguró que el nombre fue idea suya y expresaba el sentimiento de ser un contrapeso a Google. Sin embargo, con el paso de los años, lo más open que queda de Open AI es el nombre.

El lanzamiento de GPT-4, al contrario que iteraciones anteriores, se ha hecho de forma opaca, sin dar detalles sobre el tamaño del modelo, la arquitectura, el entrenamiento, la construcción de los datos para alimentarlo o la capacidad de cómputo. La propia dirección confirmaba que esos datos, que antes se publicaban y ahora no, se los reservaba para evitar dar información clave a los competidores. En resumen, que ha dejado de ser una fundación para ser una empresa tecnológica más alejada de su espíritu original y en busca del máximo beneficio. Y encima, como criticaba Musk, "controlada virtualmente" por Microsoft, que recientemente invirtió 10.000 millones de dólares.

"La transparencia en este caso puede ser un arma de doble filo. Estas herramientas son muy poderosas y ponerlas al alcance de todo el mundo puede suponer un peligro", opina a este respecto Carissa Véliz, profesora de Ética Digital de la Universidad de Oxford y autora de Privacidad es poder, un ensayo elegido por The Economist como uno de los libros del año. "La energía nuclear, como contó con la participación gubernamental en su creación, se desarrolló con estándares y controles. Eso mismo deberíamos tener en este caso. No hablo de desvelar complementamente el desarrollo, hablo de que haya una transparencia en la esfera pública, con expertos que velen por el bien común y controlen aspectos del diseño e implementación", apunta la experta en conversación con este periódico.

Foto: Sundar Pichai, máximo responsable de Google y Alphabet. (Foto: Getty / David Paul Morris)

Véliz fue especialmente crítica con las declaraciones de Altman a ABC News. Considera que existe una desconexión entre lo que dice y hace la empresa. "Es difícil de entender decir que estamos preocupados por lo que hemos creado pero soltarlo y dar acceso al público general, sin haber contado con legisladores, expertos en ética y otras figuras", crítica.

La experta destaca el proceder de Google. La compañía, que lleva una década investigando la materia, ha mantenido una postura mucho más conservadora que Microsoft y OpenAI. Es cierto que este tipo de tecnologías puede tener mayor impacto en su negocio, pero también es cierto que la multinacional de Sundar Pichai impuso una estricta normativa que las inteligencias artificiales debían cumplir antes de ponerse en circulación. Estas reglas surgieron de una crisis que atravesó Alphabet tras desvelarse que había ganado un contrato del Pentágono para desarrollar herramientas con esta tecnología para su uso militar. Finalmente, declinó este trabajo por la oposición interna al proyecto.

"Estas empresas más grandes suelen estar en el punto de mira de críticos y reguladores. Por eso no han lanzado sus chatbots antes, por preocupaciones evidentes. Sin embargo, Open AI no estaba en el radar y ha podido poner una tecnología, con muchas implicaciones para la sociedad, en marcha mucho más rápido. Eso demuestra que la democracia no está al mando de estos avances, sino empresas privadas que muchas veces desarrollan sus productos sin pensar en el aspecto ético, que se suele dejar siempre para más tarde". En este sentido, también critica el ocultismo que ha acompañado a GPT-4, ya que no se conoce, entre otras muchas cosas, "cómo se ha trabajado para minimizar los riesgos".

placeholder Carissa Véliz, filósofa y profesora de Ética Digital en Oxford. (Cedida)
Carissa Véliz, filósofa y profesora de Ética Digital en Oxford. (Cedida)

"No tiene una solución sencilla, pero yo apostaría por que hubiese unos reguladores expertos en inteligencia artificial, de la misma manera que los hay en sanidad o en transporte. El de los medicamentos es un buen ejemplo. Sería idóneo establecer un sistema de revisión por pares para los algoritmos. Un nuevo fármaco no dejaríamos sacarlo al mercado si no se ha probado en un contexto controlado con un segmento representativo de la población".

Sobre el estudio de los trabajos en riesgo, Véliz dice que es "interesante y útil", pero que no puede venir firmado por la propia empresa, "ya que hay intereses económicos y de parte". "Se necesita una visión externa, independiente". El informe, por cierto, se elaboró por parte de tres trabajadores de Open AI y un cuarto colaborador de la Universidad de Pensilvania.

¿Un 'prepint' para alimentar el 'hype'?

Estas críticas son compartidas por Ujue Agudo, doctora en Psicología e investigadora de BikoLabs, una consultora navarra que se dedica a estudiar los efectos de la IA y los algoritmos en las personas y sus decisiones. Agudo dice estar bastante "cabreada" por el uso que Open AI ha hecho de la herramienta del preprint, que es como se conoce en la jerga especializada a los borradores de artículos científicos para que sean revisados formalmente por otros expertos antes de publicarse definitivamente. "Es un instrumento que se utiliza para recibir feedback y mejoras por parte de otros miembros de la comunidad. Es una de las mejores cosas que ha dado el concepto de ciencia abierta. Y ellos lo han hecho, por así decirlo, con un fin publicitario, para alimentar el hype", lamenta esta experta.

En relación a los últimos movimientos de la compañía, Agudo pone sobre la mesa el problema de la alineación de la inteligencia artificial que, sin entrar en demasiados vericuetos técnicos, sería la capacidad del sistema para dar los resultados para los que fue diseñado y no generar resultados indeseados.

En el pasado reciente, Microsoft tuvo que desconectar un chatbot que había expresado ideas racistas, misógino y comprensivo con Adolf Hitler tras 24 horas en contacto con los usuarios. Meta, antes conocida como Facebook, recogió cable con un desarrollo que había sido capaz de crear su propio lenguaje, incomprensible para los responsables del proyecto. Open AI podía servir hasta ahora "de canario en la mina". "Tener el máximo de información en abierto te permitía investigar o comprender ciertos resultados e incluso detectar fallos que también podrían estar ocurriendo en otras plataformas y dar el aviso para controlar esos errores", comenta. Su compañero Karlos G Liberal comparte muchos de estos diagnósticos y afirma que esta decisión de la compañía llega en un momento que se está debatiendo y discutiendo todo lo que rodea a la propiedad intelectual de los datos con los que se entrena estos sistemas, un asunto que ha llegado ya a los tribunales en algunos países. "Hasta que eso no esté resuelto se cubren las espaldas", remata.

placeholder Foto: Microsoft.
Foto: Microsoft.

Guardarse información clave no es el único giro que ha ejecutado la compañía en las últimas semanas. El pasado viernes anunció que activaba el soporte para plugins y que estaba preparando una tienda para estas extensiones, al más puro estilo de la App Store que creó Apple para las aplicaciones del iPhone o el iPad. Estos plugins son funciones creadas para extender o personalizar las capacidades de Chat GPT. Se puede pedir que busque en la web, ejecute código o recurra a servicios de terceros.

Adiós, 'non-profit'

Utilizando el plugin de Instacart se le podría pedir que nos de los ingredientes de una receta y los encargue o pedirle una planificación de viaje utilizando los datos y referencias únicamente de Expedia. Estos accesorios son gratuitos, pero están disponibles, al igual que GPT-4, solo para los usuarios de pago. Este anuncio se une al de la puesta en marcha de la API que permite a millones de desarrolladores incorporar las capacidades de Chat GPT en sus sitios.

Desde Open AI han destacado la oportunidad que suponen los plugins para hacer crecer el servicio y crear nuevas utilidades, pero también han alertado de los peligros, como personas que intenten utilizar fraudulentamente esta tecnología, aunque prometen que han establecido controles de seguridad para evitar esta situación. La pregunta, una vez más, es inevitable. ¿Por qué unos como Google son tan conservadores y ellos van quemando etapas tan rápido? "Creo que ellos como empresa emergente son conscientes de que tienen una ventana de oportunidad que no pueden desaprovechar", opina Karlos G Liberal, que establece paralelismos entre el lanzamiento de la API y lo que hacía en su momento, por ejemplo, Facebook con los botones de me gusta o de Facebook login. "Ellos consiguen un beneficio directo por el pago que hacen los desarrolladores, pero también tienen otro beneficio y es que esos usuarios están entrenando y mejorando el modelo de lenguaje de una forma que de otra manera no podrían".

"Personalmente creo que hay una parte de estos mensajes que son sinceros", opina Nerea Luis Mingueza. "También es cierto que ayudan a generar la expectación en torno a su tecnología y ellos son conscientes. Y recurren al tema y el argumento del trabajo porque es algo que nos afecta a todos y nos preocupa a todos", remata la investigadora, que recuerda que Microsoft bautizó su evento El futuro del trabajo. "Es algo más general. El de Open AI no es un caso único. Y hay que tener claro que la IA va más sobre acompañar en el trabajo que sustituirlo".

placeholder Sundar Pichai. (EFE)
Sundar Pichai. (EFE)

Sobre el "miedo" expresado por Altman, esta investigadora cree que la compañía está tomando medidas de seguridad y de control de riesgos efectivas. "Cuando me conecto, observo el tema de las versiones y pasan poco tiempo entre una y otra, por lo que me da pie a pensar de que están constantemente trabajando para detectar y solventar esos fallos en el menor tiempo posible", añade.

Como ejemplo, Luis Mingueza recuerda la brecha de seguridad detectada en Chat GPT que permitía consultar el historial de otros usuarios. La compañía "tumbó el servicio temporalmente" el pasado martes y, poco después, todo funcionaba con normalidad. "El mensaje del temor va más, según mi punto de vista, porque estamos en pleno desarrollo y que vamos a ver fallos y errores. Pero eso es un proceso natural", agrega. Esta advertencia también la hizo Sundar Pichai, CEO de Alphabet, en un correo interno enviado a los 80.000 empleados que han ayudado a testar su chatbot. “A medida que más personas comiencen a usar Bard y prueben sus capacidades, nos sorprenderán. Las cosas saldrán mal”, escribió el mandamás de Google. “Pero los comentarios de los usuarios son fundamentales para mejorar el producto y la tecnología subyacente”.

"Todo lo que hemos visto de Google, Microsoft y otros en las últimas semanas da que pensar que todos estaban más preparados de lo que parecía y que estaban esperando a que alguien levantara la liebre. Y ellos lo han hecho", comenta Nerea Luis Mingueza, doctora en Ciencias de la Computación y reconocida divulgadora española. Se está refiriendo a Open AI, la fundación detrás de ChatGPT, el bot conversacional lanzado a finales del pasado año y que ha puesto la inteligencia artificial en el centro de la industria tecnológica, empujando a todos los gigantes del negocio a iniciar una alocada carrera por dominar esta revolución, una competición en la que los anuncios ya no suceden en semanas, sino en días o incluso horas.

Inteligencia Artificial
El redactor recomienda