Es noticia
El 'googler' español que enseña a pensar al móvil que llevas en tu bolsillo
  1. Tecnología
"no tengo miedo a las máquinas"

El 'googler' español que enseña a pensar al móvil que llevas en tu bolsillo

Sergio Guadarrama, investigador de 'machine learning' en Google Research, nos explica su trabajo en un área en la que todavía están dando "los primeros pasos"

Foto: Sergio Guadarrama en el evento ‘The magic in the machine’ celebrado en Campus Madrid (Google España)
Sergio Guadarrama en el evento ‘The magic in the machine’ celebrado en Campus Madrid (Google España)

Al madrileño Sergio Guadarrama le interesaban las redes neuronales (algoritmos inspirados en el comportamiento del cerebro humano) años antes de que las de AlphaGo saltaran a la fama por derrotar a un campeón mundial de un juego milenario. Por eso, Enric Trillas, un veterano investigador en inteligencia artificial al que considera su "maestro", le preguntó si "le picaba el gusanillo" de trabajar en un campo que aún no estaba entre las prioridades de los gigantes tecnológicos (es más, Facebook y Twitter ni siquiera existían).

Foto: Imagen de un escáner cerebral tras ser analizada por una red neuronal 'Deep Dream' creada por Google. (Foto: Juan Sánchez Ramos)

Hace más de 15 años que este informático comenzó su doctorado en Inteligencia Artificial en la Universidad Politécnica de Madrid (UPM). "Me fascinaba esa conexión entre lo que percibes y lo que comunicas, y cómo podemos hacer máquinas que aprendan a percibir y a comunicar", explica Guadarrama a Teknautas.

Ya hace dos años que es ingeniero sénior de 'software' en Google Research, donde se ha especializado en investigar las arquitecturas del famoso aprendizaje profundo o 'deep learning' (un área del 'machine learning' en la que participan redes neuronales de múltiples capas). “[El 'machine learning'] tiene un impacto muy rápido, por ejemplo las investigaciones que hacemos: publicamos un 'paper' y seis meses después está en un producto”, detalla Guadarrama.

Estamos dando los primeros pasos dentro del 'machine learning' y todavía no sabemos muy bien las posibilidades que tiene

No en vano, los algoritmos que aprenden con ejemplos ya están en la base de muchos servicios del gigante de Mountain View, desde Google Translate hasta Google Photos, pasando por el sistema que bloquea el 'spam' en Gmail o el reconocimiento de voz. Y según Guadarrama, es solo el comienzo: "Estamos dando los primeros pasos muy iniciales dentro del 'machine learning' y todavía no sabemos muy bien las posibilidades que tiene".

Instruyendo a las máquinas

Posdoctorado en el European Centre for Soft Computing, profesor en la Universidad Rey Juan Carlos y en la UPM o investigador en la prestigiosa Universidad de California en Berkeley, la trayectoria profesional de Guadarrama no hacía otra cosa que ascender cuando Google comenzaba a interesarse por el 'deep learning'. En 2013, el gigante fichó a Geoffrey Hinton, uno de los padres de esa disciplina que comenzaba a demostrar su potencial, para que les ayudara a dar sentido a sus montañas de datos.

Guadarrama y sus colegas en la Universidad de California en Berkeley trabajaban por entonces en el reconocimiento de imágenes y de textos. Sin embargo, les hacía falta una herramienta para avanzar. "Un compañero mío dijo '¿qué tal si intentamos hacerlo nosotros y creamos un 'software' que podamos usar para hacer estas redes neuronales tan grandes y para poder entrenarlas?'" La idea salió mejor de lo esperado.

El equipo desarrolló Caffe, una herramienta de código abierto que otros investigadores podrían utilizar para entrenar a sus algoritmos. "Tuvo un impacto grandísimo", recuerda Sergio. Expertos y empresas de todo el mundo comenzaron a utilizar el 'software'. "De los que creamos Caffee, todos teníamos veinte ofertas para ir donde quisiéramos".

En su caso, le contactó el mismísimo gigante de las búsquedas. "Me dijeron 'oye, ¿no querrías seguir tu investigación en Google?' [...] Y dije 'pues no lo sé, déjame pensarlo'". Cuando Guadarrama realizó sus estudios, no se había producido el 'boom' de la inteligencia artificial, de ahí que imaginara un futuro ligado a la universidad. No obstante, decidió aprovechar la "oportunidad fantástica" de sumarse a Google Research. "La gente sigue haciendo investigación, seguimos publicando 'papers', seguimos yendo a las conferencias y estas ideas las traducimos y luego las aplican a producto".

De los que creamos Caffee, todos teníamos veinte ofertas para ir donde quisiéramos

En la actualidad trabaja sobre todo en el área de reconocimiento de imágenes ("no solo decir 'aquí hay un perro', sino decir exactamente dónde está el perro localizado dentro de la imagen?) o en la descripción de esas instantáneas con palabras (?no hay una respuesta clara y una respuesta incorrecta, con lo cual eso hace más difícil entrenar a la máquina?).

También ha logrado que TensorFlow, la librería para realizar investigaciones con redes neuronales que Google publicó en código abierto en 2015, sea más fácil de utilizar para cualquier investigador. Desarrollando tutoriales, haciendo mejoras, modificando la documentación en base a las contribuciones de los usuarios o distribuyendo modelos ya entrenados, Sergio y sus compañeros han perfeccionado la plataforma.

Poder charlar con investigadores tan famosos como el propio Hinton (algo que califica como una "experiencia impagable") o tener menos presión a la hora de publicar estudios respecto del ámbito universitario (en Google te piden que publiques, pero solo "los buenos, cuando de verdad haya un salto importante"), le permite "tomar más riesgos", según Guadarrama, a la hora de realizar esas investigaciones que acaban llegando a nuestros ‘smartphones’.

"Lo publicas y además lo traduces en un producto que tiene una implicación que afecta a la vida de las personas, que es algo que también llena mucho, cuando ves que algo que tú has hecho, que has investigado, lo están usando cientos de miles", señala este ingeniero español.

Una máquina "todavía se confunde" si le enseñas una foto de un perro con un sombrero de ‘cowboy’ porque no sabe si es un perro

Por supuesto, lidiar con los errores también es parte del trabajo de un investigador de Google. ¿Qué se les pasa por la cabeza cuando, por ejemplo, su algoritmo etiqueta a dos personas negras como 'gorilas'? "Hay que ver si tienen sesgos, si tienen problemas y corregirlos lo más rápido posible", explica Guadarrama. "Entonces lo que hacemos es añadir más diversidad a los conjuntos de imágenes donde se entrenan esos algoritmos para que cubran más características". Además, el español forma parte de un grupo de trabajo que estudia cómo mitigar los efectos de los sesgos inconscientes en las creaciones de Google.

De un modo u otro, Guadarrama cree importante que el público entienda "dónde estamos hoy en día" gracias a herramientas como TensorFlow. "Aunque en ocasiones parece fantástico reconocer que hay algo en las fotos [...] si le enseñas una foto de un perro con un sombrero de ‘cowboy’ se confunde, porque ya no sabe si es un perro".

"Queda mucho por hacer"

Pese a las limitaciones actuales de la inteligencia artificial ("resuelto el go, no me sabe jugar a la brisca"), la preocupación por su futuro es uno de los temas candentes en los últimos meses. Elon Musk o Stephen Hawking son algunas de las personalidades que han dado la voz de alarma. Junto a otros cientos de investigadores, rubricaron recientemente los 23 principios de Asilomar para que el desarrollo de las tecnologías sea beneficioso para todos.

Entre los firmantes se encontraban Ray Kurzweil, director de ingeniería de Google; Jeff Dean, líder de Google Brain; o Demis Hassabis, Mustafa Suleyman y Shane Legg, cofundadores de DeepMind, la compañía británica que Google adquirió y que ha desarrollado AlphaGo. El gigante de Mountain View también se ha unido a Amazon, Microsoft, Facebook, IBM o Apple en Partnership on AI, una alianza que pretende establecer las bases éticas de la inteligencia artificial.

Ahora bien ¿en Google realmente temen a los robots? "Yo te puedo decir mi opinión personal, que es que miedo a las máquinas yo no lo tengo", señala Guadarrama. "También tenemos que darnos cuenta de que es importante hacernos las preguntas, por eso es importante que Google y muchas otras empresas y universidades, organismos como OpenAI sin ánimo de lucro, se hayan unido en esto para estudiar las implicaciones que puede tener".

Ray Kurzweil ha vaticinado recientemente que la inteligencia artificial pasará un test de Turing válido (alcanzando niveles humanos) en 2029, y ha fijado el 2045 como el año en que se alcanzará la singularidad tecnológica. Pero, ¿dedican mucho tiempo en Google a pensar en este tema? "La verdad es que tampoco me lo planteo mucho, creo que hay muchos problemas en el mundo más importantes y acuciantes", dice Sergio. "Por ejemplo el cambio climático: ya está pasando y podemos hacer cosas sobre ello. Lo otro es una fantasía que no se sabe muy bien cómo se define", agrega este experto en inteligencia artificial.

Se vaticina que la inteligencia artificial pasará un test de Turing válido en 2029 y que en 2045 se alcanzará la singularidad tecnológica

Mientras otros se preocupan por el futuro o por vencer a los maestros de go, Sergio Guadarrama sigue trabajando para que la inteligencia artificial mejore su eficiencia. "Queda mucho por hacer, investigar nuevas maneras en las que los algoritmos aprendan con menos datos, que sean capaces de traducir lo que aprenden en una tarea a otra tarea diferente…". Este madrileño aún tiene mucho que enseñar a las máquinas.

Al madrileño Sergio Guadarrama le interesaban las redes neuronales (algoritmos inspirados en el comportamiento del cerebro humano) años antes de que las de AlphaGo saltaran a la fama por derrotar a un campeón mundial de un juego milenario. Por eso, Enric Trillas, un veterano investigador en inteligencia artificial al que considera su "maestro", le preguntó si "le picaba el gusanillo" de trabajar en un campo que aún no estaba entre las prioridades de los gigantes tecnológicos (es más, Facebook y Twitter ni siquiera existían).

Inteligencia Artificial Universidad Rey Juan Carlos (URJC)
El redactor recomienda