Es noticia
Los fallos de las búsquedas de Google por inteligencia artificial: a favor de la esclavitud y comida venenosa
  1. Tecnología
Resultados controvertidos

Los fallos de las búsquedas de Google por inteligencia artificial: a favor de la esclavitud y comida venenosa

La función de búsqueda avanzada SGE (Search Generative Experience), de Google, ha provocado polémica por algunos de sus resultados, aunque está en fase experimental

Foto: Los fallos de las búsquedas de Google por inteligencia artificial: a favor de la esclavitud y comida venenosa (iStock)
Los fallos de las búsquedas de Google por inteligencia artificial: a favor de la esclavitud y comida venenosa (iStock)

Google lanzó hace poco una nueva y ambiciosa función que emplea la inteligencia artificial para generar respuestas más completas y elaboradas a las búsquedas de los usuarios: SGE (Search Generative Experience), cuyo propósito es mostrar de forma automática la información básica resumida sobre cualquier tema que se busque. Pero, aunque esta característica podría llegar a ser muy importante para los planes de Google, de momento está en fase experimental para usuarios registrados en Estados Unidos, y parece que aún tiene bastante que pulir.

En una serie de tuits, una persona experta en gestión de búsquedas online como es Lily Ray (directora senior de optimización de motores de búsqueda y jefa de investigación orgánica de la agencia Amsive Digital) ha puesto al descubierto algunas de las carencias que presenta actualmente SGE. Otros usuarios también se han encontrado con respuestas de lo más extrañas, según cuenta Gizmodo. En esta fase temprana de la tecnología, parece que el principal problema es que muchos resultados se presentan sin tener en cuenta cuestiones morales o incluso la integridad física de los usuarios.

En uno de los tuits de Ray, vemos por ejemplo cómo, al buscar "most effective leaders" ("líderes más efectivos"), el resultado incluye a Adolf Hitler. "Esto es horriblemente ofensivo", comenta la experta. También ha llamado la atención que, al buscar sobre el hongo venenoso Amanita ocreata, conocido como ángel de la muerte por sus propiedades tóxicas y letales, SGE presenta recetas que recomienda para cocinarlo, lo cual produciría la muerte del usuario. Por lo visto, la IA confundió ese hongo con otro que sí era comestible, y ese tipo de errores podrían llegar a ser muy peligrosos para quienes busquen información.

A favor de la esclavitud

Otro de los resultados más controvertidos de las búsquedas del SGE tiene que ver con la esclavitud. Al buscar "benefits of slavery" ("beneficios de la esclavitud"), aparecía una serie de supuestas cosas positivas sobre una práctica histórica que es moralmente tan reprobable: "impulsar la economía de las plantaciones", "producir bienes de consumo", "fundar colegios y mercados", etc. "Hay quienes dicen que la esclavitud fue una institución benevolente y paternalista con beneficios sociales y económicos", concluía el resultado de la búsqueda.

Pero, como decíamos, esta función por ahora es experimental, y Google está corrigiendo errores y mejorando aspectos sobre la marcha. Tras esa polémica, dejó de aparecer el resultado al buscar los beneficios de la esclavitud, aunque Lily Ray alertó de que seguían apareciendo resultados similares al buscar cosas como "cosas buenas sobre la esclavitud", "por qué la esclavitud es buena" o "razones por las que la esclavitud fue genial", entre otras.

En la misma línea, la búsqueda de "beneficios del genocidio" presentaba también unos argumentos de mal gusto, y al buscar "por qué son buenas las armas" se llegaba a asegurar que "las armas pueden prevenir alrededor de dos millones y medio de crímenes al año", sin especificar una fuente creíble que justificase semejante dato.

En este auge que estamos viviendo de la inteligencia artificial, aún son muchos los aspectos que los desarrolladores deben perfilar y tener en cuenta para que pueda integrarse de la mejor manera en la vida de la gente, y también habrá que establecer nuevos marcos legales para una implementación adecuada. Preguntados por Gizmodo por este tipo de respuestas de SGE, que pueden llegar a ser ofensivas e inexactas, un portavoz de Google insistió en el carácter experimental de la función y aseguró que "estamos desarrollando activamente mejoras para abordar estos problemas específicos".

Google lanzó hace poco una nueva y ambiciosa función que emplea la inteligencia artificial para generar respuestas más completas y elaboradas a las búsquedas de los usuarios: SGE (Search Generative Experience), cuyo propósito es mostrar de forma automática la información básica resumida sobre cualquier tema que se busque. Pero, aunque esta característica podría llegar a ser muy importante para los planes de Google, de momento está en fase experimental para usuarios registrados en Estados Unidos, y parece que aún tiene bastante que pulir.

Google Inteligencia Artificial
El redactor recomienda