el autocompletar lo carga el diablo

"Rivera es un facha": por qué las búsquedas de Google se autocompletan con insultos

El buscador aplica filtros para evitar autocompletar frases con palabras inapropiadas o hirientes. Pero admiten que el sistema “no es una ciencia exacta”

Foto: Albert Rivera, candidato de Ciudadanos. (Foto: Reuters)
Albert Rivera, candidato de Ciudadanos. (Foto: Reuters)

El actual presidente en funciones puedes ser “un inútil”, “un muñeco” o “un mentiroso”. Pablo Iglesias es “un peligro para España” y Albert Rivera, “un facha”. Así autocompleta el buscador de Google la frase que comienza con el nombre del respectivo candidato a las próximas elecciones seguido del verbo ser. De Pedro Sánchez pregunta que “quién es” y de dónde.

Lea aquí: El cerebro artificial de Google que aterra (y fascina) a ingenieros y científicos

No todos los resultados incluyen ofensas, pero algunos de ellos sugieren que los filtros que aplica el gigante tecnológico para eliminar palabras inapropiadas no funcionan demasiado bien. Sin embargo, desde la web SourceFed le han acusado de lo contrario: de alterar la función para eliminar sugerencias como “crímenes” y “acusado” al introducir el nombre de Hillary Clinton con el fin de manipular al electorado.

Desde Google se han defendido diciendo que “el algoritmo de autocompletar no muestra ninguna predicción ofensiva o despreciativa siguiendo a un nombre”. Según la compañía, “las predicciones están basadas en diferentes factores, incluyendo la popularidad de los términos de búsqueda”. Con motivo del revuelo han aprovechado también para explicar los aspectos básicos de la función de la mano de Tamar Yehoshua, responsable de producto de Google en el área de búsquedas.

La función de autocompletar, también conocida como Google Suggest, funciona oficialmente desde el año 2008, aunque comenzó a probarse en 2004 −concebida por los ingenieros de Google Labs−. Sin embargo, no fue hasta 2010 cuando el buscador empezó a mostrar y cambiar las sugerencias mientras el usuario teclea en la barra.

Las predicciones están basadas en diferentes factores, incluyendo la popularidad de los términos de búsqueda

Las palabras que propone se basan, primeramente, en las fórmulas que utiliza la gente para realizar sus pesquisas y la popularidad y relevancia de las búsquedas. Si muchas personas han ‘googleado’ que Iglesias es un peligro nacional o que Rajoy miente, entonces el algoritmo predictivo asociará esas palabras a sendos políticos. No hace falta que la frecuencia se haya mantenido en el tiempo: un pico muy pronunciado (normalmente provocado por algún acontecimiento reciente) basta para que los términos se cuelen en el menú de sugerencias.

Las anteriores consultas realizadas por el mismo internauta también determinan el resultado. Estas reciben, de hecho, un trato prioritario y el algoritmo las valora más que a las anteriores (las más populares), aunque el mismo usuario puede eliminarlas de la lista de propuestas.

Otros factores que influyen en las palabras sugeridas son el idioma y la localización geográfica: el país, la provincia o incluso la ciudad desde la que se consulta el motor de búsqueda determina los resultados que este va a devolver.

Una barrera para los insultos

Yehoshua explica que Google añadió los filtros para eliminar las palabras injuriosas u ofensivas hace tiempo, debido a las quejas recibidas por este motivo. Hoy es posible comunicarles estas situaciones y pedir la retirada del contenido, tanto por parte del afectado como por terceros, siempre que el motivo de la denuncia cumpla ciertos requisitos.

Según los de Mountain View, el algoritmo descarta sugerencias que fomenten el odio o la violencia, que incluyan información personal, términos relacionados con pornografía o contenido para adultos, los que violan alguna norma o los que atentan contra la privacidad. Entre otras cosas, no muestra números de teléfono ni de la Seguridad Social.

Cuando este medio ha preguntado a la empresa sobre los detalles del ‘software’, no ha obtenido más información que la aportada por Yehoshua. “El filtro funciona de la misma manera sin importar de quién se trata”, indica el responsable de la compañía. Pero advierte que la función de autocompletar “no es una ciencia exacta” y que los resultados del algoritmo predictivo cambian frecuentemente debido a la gran cantidad de factores que tiene en cuenta.

El filtro funciona de la misma manera sin importar de quién se trata

Incluso las palabras que predice para una misma pesquisa de un mismo usuario pueden variar con el tiempo. “Hay que tener claro que las predicciones de la función autocompletar no son resultados de búsqueda y no limitan aquello que puedes consultar”, advierte Yehoshua. “Es solo un atajo para quienes estén interesados”.

Sin embargo, estos argumentos no han sido suficientes en varias ocasiones cuando las sugerencias calumniosas han llevado a la empresa ante los tribunales. En 2009, por ejemplo, el Centro Nacional Privado de Educación a Distancia francés demandó a Google por asociar la palabra ‘arnaque’ (estafa) a la organización en las búsquedas, y el gigante de internet fue declarado responsable del entuerto. Se le ha criticado también por su trato diferenciala las religiones.

Desgraciadamente, para quienes hayan pensado alguna vez en desactivar la funcionalidad, no existe tal opción. “Está construida sobre el buscador de Google para ayudarte a consultar información más rápida y fácilmente”, aseguran desde la compañía. Y añaden: “Siempre puedes elegir no clicar en las predicciones”. Un consejo que también vale para los que no estén de acuerdo con las sugerencias asociadas a los candidatos presidenciales. 

Tecnología

El redactor recomienda

Escribe un comentario... Respondiendo al comentario #1
6 comentarios
Por FechaMejor Valorados
Mostrar más comentarios