¿SON EL REFLEJO DE NUESTRAS INQUIETUDES?

"La mujer, en casa": Cuando Google muestra su lado 'evil' al completar la frase

Cuando un usuario escribe en el cuadro de búsqueda de Google, la función 'Autocompletar' sugiere resultados. No siempre aparece lo que queremos

Foto: La mujer, en casa: Cuando Google muestra su lado 'evil' al completar la frase

Cuando un usuario escribe en el cuadro de búsqueda de Google, la función Autocompletar le ayuda a encontrar la información rápidamente sugiriéndole búsquedas similares. Por ejemplo, si empezamos a escribir Ste, la función nos sugerirá resultados tales como (y por este orden), steam, Steve Jobs, stevia o Stephen Hawking.

Esta utilidad tiene como objetivo facilitar las cosas al usuario del gigante de internet. Al poder elegir una de las predicciones de búsqueda, encontrará la información más rápidamente y no tendrá que escribir tanto.

Además, repite búsquedas favoritas (siempre y cuando se mantenga la sesión abierta), y detecta errores. Gracias a su algoritmo, si empieza a escribir pongamos por caso, melborn, inmediatamente le preguntará: ¿Querías decir Melbourne, Australia?

El problema es que no siempre sugiere lo que queremos.

¿Un reflejo de lo que piensa la sociedad?

Algunos usuarios se han quejado de la forma en la que Google acaba nuestras oraciones durante las búsquedas. Un ejemplo de ello lo tenemos en una campaña de la ONU que muestra cómo esta herramienta refleja el sexismo que todavía hay en la sociedad.

Si un usuario escribe en inglés en el buscador "Las mujeres no deberían", las respuestas son bastante contundentes al respecto: "tener derechos", "votar", "trabajar" o "boxear" son tan solo algunas de las respuestas. Pero es que también sucede a la inversa. Si se escribe "Las mujeres deberían" aparecen resultados como "estar en la cocina" o "estar en casa".

También ocurre con otras búsquedas como por ejemplo si se escribe en inglés en el buscador "El hombre negro debe", muestra respuestas como "no tener una cita con una mujer blanca" o "no casarse con una mujer blanca".

El argumento de la campaña es que Google Autocomplete deja entrever la idea colectiva. Pero, ¿es esto cierto?

Las consultas de búsqueda que ofrece la función Autocompletar son un reflejo de la actividad de los usuarios de internet y del contenido de las páginas web que Google indexe. Todas las predicciones que aparecen en la lista desplegable se corresponden con búsquedas anteriores de usuarios del buscador o con otras que se muestran en la web.

Además de estas consultas, el usuario también puede ver sugerencias de búsquedas relevantes que haya hecho en el pasado (si ha iniciado sesión y tiene activado el historial web), o perfiles de Google+ que coincidan con el nombre de una persona que esté buscando. En cualquier caso, el lenguaje, la localización y el momento en el que se hace la búsqueda son factores clave para estos resultados.

"Cuando nos encontramos con estas búsquedas, nos quedamos impactados por lo negativas que eran y decidimos que teníamos que hacer algo", ha explicado Christopher Hunt, director de arte de la agencia Memac Ogilvy & Mather Dubai, encargada de realizar la campaña publicitaria para la ONU.

Por su parte, en su página web, Google advierte que la función Autocomplete se determina mediante un algoritmo y sin intervención humana.

Tecnología
Escribe un comentario... Respondiendo al comentario #1
0 comentarios
Por FechaMejor Valorados
Mostrar más comentarios