Es noticia
Hablemos del riesgo de que la IA destruya la humanidad: ¿peligro real o puro 'marketing'?
  1. Mercados
  2. The Wall Street Journal
Dónde concentrar los recursos y la atención

Hablemos del riesgo de que la IA destruya la humanidad: ¿peligro real o puro 'marketing'?

Los expertos en inteligencia artificial debaten si centrarse en evitar un apocalipsis de la IA o en problemas como la parcialidad y la desinformación

Foto: Foto: Reuters/Florence Lo.
Foto: Reuters/Florence Lo.
EC EXCLUSIVO Artículo solo para suscriptores

Los pioneros de la inteligencia artificial se debaten sobre cuál de los peligros de la tecnología es el más aterrador.

Un bando, en el que se encuentran algunos de los principales ejecutivos que construyen sistemas avanzados de IA, sostiene que sus creaciones podrían conducir a la catástrofe. En el otro bando, hay científicos que afirman que la preocupación debería centrarse principalmente en cómo se está aplicando la IA en la actualidad y cómo podría causar daños en nuestra vida cotidiana.

Dario Amodei, líder del desarrollador de IA Anthropic, se encuentra en el grupo que advierte del peligro existencial. Este verano declaró ante el Congreso que la IA podría suponer un riesgo de este tipo para la humanidad. Sam Altman, responsable del fabricante de ChatGPT OpenAI, recorrió el mundo esta primavera diciendo, entre otras cosas, que la IA podría algún día causar graves daños o algo peor. Y Elon Musk dijo en un evento del Wall Street Journal en mayo que "la IA tiene una probabilidad no nula de aniquilar a la humanidad", poco antes de lanzar su propia empresa de IA.

Se espera que Altman, Musk y otros altos ejecutivos de IA asistan la semana que viene a la primera de una serie de reuniones a puerta cerrada sobre IA convocadas por el líder de la mayoría del Senado de EEUU, Chuck Schumer (demócrata, Nueva York), para considerar temas que incluyen "escenarios catastróficos".

Foto: Google quiere que te libres de tantas reuniones y ya deja a su inteligencia artificial sustituirte (Surface para Unsplash)

El otro bando de investigadores de la IA califica esas advertencias de distracción alimentada por la ciencia ficción, o incluso de perversa estratagema de marketing. Afirman que las empresas de IA y los reguladores deberían centrar sus limitados recursos en las amenazas existentes e inminentes de la tecnología, como las herramientas que ayudan a producir una potente desinformación sobre las elecciones o los sistemas que amplifican el impacto de los prejuicios humanos.

La disputa se intensifica a medida que empresas y gobiernos de todo el mundo intentan decidir dónde concentrar los recursos y la atención de modo que se maximicen los beneficios y se minimicen los inconvenientes de una tecnología que se considera potencialmente revolucionaria.

"Es una dicotomía muy real y cada vez mayor", afirma Nicolas Miailhe, cofundador de Future Society, un grupo de reflexión que trabaja en la gobernanza de la inteligencia artificial y trata de salvar la brecha. "Es fijarse en el fin de mes o en el fin del mundo".

A pesar de toda la atención que está recibiendo, el debate público sobre el riesgo existencial de la IA, o "riesgo x", como les gusta llamarlo a los más preocupados por ella, había permanecido confinado hasta hace poco a una franja de filósofos e investigadores de IA.

Foto: Foto: Reuters/Florence Lo.
TE PUEDE INTERESAR
Las burbujas ya no son lo que eran: la realidad golpea a las 'startups' de IA
The Wall Street Journal. Berber Jin

Esto cambió tras el lanzamiento de ChatGPT por OpenAI a finales del año pasado y sus posteriores mejoras, que han proporcionado respuestas similares a las humanas, lo que ha hecho sonar las alarmas sobre la posibilidad de que estos sistemas adquieran una inteligencia sobrehumana. Destacados investigadores como Geoffrey Hinton, considerado uno de los padrinos de la IA, han afirmado que contiene un atisbo de razonamiento humano. Hinton abandonó este año su puesto en Google, de Alphabet, para debatir más libremente sobre los riesgos de la IA.

Con las advertencias de riesgo existencial, "ha existido el tabú de que se burlarán de ti, te tratarán como a un loco y afectará a tus perspectivas laborales", afirma David Krueger, profesor de Aprendizaje Automático en la Universidad de Cambridge. Krueger ayudó a organizar en mayo una declaración en la que se afirmaba que el riesgo de extinción a manos de la IA está a la altura de los peligros de las pandemias y la guerra nuclear. La firmaron cientos de expertos en IA, incluidos altos cargos e investigadores de Google, OpenAI y Anthropic.

"Quería que los investigadores supieran que están en buena compañía", declaró Krueger.

Algunos expertos afirman que para las empresas de IA resulta paradójico hacer hincapié en el riesgo x de los sistemas, porque transmite la sensación de que su tecnología es extraordinariamente sofisticada.

Foto: Playa de una isla paradisiaca. (EFE/Mark R. Cristino)

"Es obvio que estos tipos se benefician del bombo que se sigue alimentando", opina Daniel Schoenberger, un exabogado de Google que trabajó en su lista de principios de IA de 2018 y ahora está en la Fundación Web3. Añade que los responsables políticos deberían centrarse más en los riesgos a corto plazo, como que la IA abarate el montaje de campañas para difundir información falsa y engañosa, o que concentre más poder en Silicon Valley.

"Existe un riesgo de dominación, de que Big Tech se convierta en Big AI", afirma Schoenberger.

Los líderes de la IA preocupados por los riesgos existenciales afirman que sus preocupaciones son genuinas, y no una estratagema. "No se nos pasa por la cabeza decir: 'Es que los gobiernos no tienen remedio, así que el llamamiento a la regulación es una especie de jugada de ajedrez 4D'. Se trata de un riesgo existencial", afirmó Altman, de OpenAI, en junio.

Los llamados catastrofistas no dicen que la IA vaya a surgir necesariamente como Skynet en las películas de Terminator para destruir a los humanos. A algunos les preocupa que los sistemas de IA entrenados para buscar recompensas puedan acabar con impulsos ocultos de búsqueda de poder, dañen inadvertidamente a los humanos mientras cumplen nuestros deseos o simplemente superen a los humanos y se hagan con el control de nuestro destino. La investigación en esta comunidad se centra en gran medida en lo que se denomina alineación: cómo garantizar que las mentes informáticas del mañana tengan objetivos intrínsecamente sincronizados con los nuestros.

Foto: Foto: Getty/Johannes Simon.

En cambio, a los especialistas en ética e imparcialidad de la IA les preocupa que estas herramientas exploten, accidental o intencionadamente, a los trabajadores y agraven la desigualdad de millones de personas. Quieren que las empresas tecnológicas y los reguladores apliquen normas y técnicas de formación para reducir esa amenaza.

La diversidad es un punto álgido. Los especialistas en ética de la IA han demostrado que los sistemas de IA entrenados a partir de datos históricos pueden introducir la discriminación del pasado en decisiones futuras de alto riesgo, como la vivienda, la contratación o las sentencias penales. La investigación también ha demostrado que los sistemas generativos de IA pueden producir imágenes sesgadas. También argumentan que la falta de diversidad entre los investigadores de IA puede impedirles ver el impacto que la IA podría tener en las personas de color y las mujeres.

El debate ha llegado a ser acalorado. "¿Cuál es su plan para asegurarse de que no suponga un riesgo existencial?", preguntó Max Tegmark, presidente del Future of Life Institute, a Melanie Mitchell, destacada investigadora de IA y profesora del Santa Fe Institute, durante un foro público sobre el riesgo x celebrado en junio. "No está respondiendo a mi pregunta".

"No creo que exista un riesgo existencial", replicó Mitchell, añadiendo que la gente está trabajando duro "en mitigar los riesgos más inmediatos del mundo real", mientras Tegmark ponía los ojos como platos.

Foto: Foto: Reuters/Florence Lo.

Mitchell declaró en una entrevista que el debate sobre el riesgo existencial "está todo basado en especulaciones, realmente no hay ciencia".

Tegmark, profesor del Instituto Tecnológico de Massachusetts cuya organización sin ánimo de lucro pretende evitar que la tecnología genere riesgos extremos a gran escala, cree que a las empresas les interesa avivar la división entre la gente centrada en cuestiones de equidad y el riesgo existencial para evitar la regulación.

"La gente de ambos bandos se hace un flaco favor si no encuentra la forma de ponerse de acuerdo con la otra parte", afirmó en una entrevista.

El conflicto ha provocado chispas durante años. En 2015, algunos académicos y científicos se reunieron para debatir los riesgos de la IA al margen de una conferencia celebrada en el campus de Google. Uno de los bandos se enfrentó a los defensores del riesgo existencial, argumentando que había que centrarse en los daños actuales, incluida la parcialidad.

Los partidarios del riesgo x replicaron que, con el futuro de la humanidad en peligro, nadie debería preocuparse de que la IA provoque una diferencia de un cuarto de punto en una hipoteca, explica Steven Weber, profesor de la Universidad de California en Berkeley, que estaba presente.

Foto: El CEO de Arm, Rene Haas. (EFE/Ritchie B. Tongo)

"Casi pensé que iba a ser una pelea a puñetazos en una reunión académica", recuerda Weber.

La preocupación por el apocalipsis dista mucho de ser unánime, y algunos agoreros sostienen que incluso los ejecutivos de las grandes empresas que dicen estar preocupados no están haciendo lo suficiente para evitarlo.

"Estamos asistiendo a una ridícula carrera hacia IA divinas por parte de todos los grandes actores", afirma Connor Leahy, director ejecutivo de Conjecture, una empresa de IA que trabaja en soluciones al problema de la alineación. Leahy se toma con humor la preocupación de las grandes empresas tecnológicas por el riesgo existencial. "Cuidado con las manos, no con la boca", dice Leahy.

También hay esfuerzos por salvar la brecha. Algunos investigadores centrados en la ética afirman que no descartan por completo el riesgo existencial, sino que piensan que debería abordarse como parte de problemas más definidos que existen en la actualidad. Algunos catastrofistas afirman que el camino hacia el fin bien podría provenir de preocupaciones destacadas por la comunidad ética, como la desinformación industrializada que derriba gobiernos o inicia guerras. Ambas partes están interesadas en poder perforar la caja negra de cómo piensa la IA, lo que se conoce como el problema de la interpretabilidad.

"Algunas personas están tratando realmente de tender un puente entre estos dos espacios", afirma Atoosa Kasirzadeh, profesor asistente de Ética de la IA en la Universidad de Edimburgo, que anteriormente trabajó para Google DeepMind. "Esperemos que esas comunidades puedan convencerse de que en el fondo a todos les preocupa el mismo tipo de cosas".

*Contenido con licencia de The Wall Street Journal.

Los pioneros de la inteligencia artificial se debaten sobre cuál de los peligros de la tecnología es el más aterrador.

Inteligencia Artificial
El redactor recomienda