Es noticia
El algoritmo del diablo (versión 2013)
  1. Alma, Corazón, Vida
ASÍ ACABARÁN LAS MATEMÁTICAS CON NUESTRO MUNDO

El algoritmo del diablo (versión 2013)

(Esta es la continuación del reportaje El algoritmo del diablo, versión 2012, que se publicó ayer) Hasta el año 2000, el método

(Esta es la continuación del reportaje El algoritmo del diablo, versión 2012, que se publicó ayer)

Hasta el año 2000, el método de selección de analistas cuantitativos, también conocidos como quants, consistía en una prueba compuesta por un gran número de operaciones que se realizaba en una habitación cerrada, y que superaban aquellos que lograban resolver la mayor cantidad de ellas en el menor tiempo. Roberto P. Reizábal, un quant research trader que ha ocupado distintas posiciones en el sector me explica que el proceso tenía todo el sentido, ya que quienes contaban en los corros con los cerebros más ágiles, aquellos que podían arbitrar mayor número de operaciones, partían siempre con ventaja. En ese contexto, las habilidades mentales resultaban decisivas. Pero eso fue hasta que llegó el mercado electrónico y lo cambió todo. Radicalmente.

placeholder

Robert Harris es un prestigioso novelista británico, autor de obras de éxito como Patria o El poder en la sombra, que Roman Polanski llevó a la pantalla con el título de El escritor. Me dice que su visión de la literatura es similar a la de un John Le Carré, y que le gusta hacer ficción sobre hechos que nos cuentan algo sobre nuestra realidad. Su última obra, El índice del miedo, Ed. Grijalbo) incide en esa vieja atmósfera de terror típica de narraciones góticas como Frankenstein, añadiendo un punto del Stanley Kubrick de 2001, para subrayar de nuevo lo cerca que estamos de que nuestras creaciones acaben con nosotros. En su interesante novela, Harris describe cómo ese mundo compuesto por cálculos matemáticos, algoritmos y ordenadores adquiere una lógica propia que convierte en prescindible la acción humana.  Es ficción, sí, me dice, pero “está basada en hechos que han ocurrido y que la mayoría de expertos con los hablé en el proceso de documentación aseguran que volverán a producirse tarde o temprano. Este mismo verano, un fondo cuyas inversiones estaban basadas en algoritmos perdió cientos de millones de dólares a causa de un error de la computadora. Ese es el problema, que cuanto más dependemos de las máquinas, menos controlamos el sistema”

Estamos ante procesos automatizados tan veloces que no dejan espacio a la intervención humana en caso de que se produzca un errorEl mundo de fantasía de Harris no lo es tanto, asegura Christopher Steiner, autor de Automate This: How Algorithms Came to Rule Our World (Portfolio/Penguin) para quien los mercados pertenecen ya a los algoritmos y los humanos se han reducido a simples espectadores. Los bots de inversión (aplicaciones de software que funciona de manera automática) han provocado últimamente extrañas disfunciones con distintos grados de gravedad, que van desde el hundimiento sin explicación y en apenas cinco minutos del precio de las acciones de la empresa energética Progress Energy (que perdió el 90% de su valor), hasta la misteriosa evaporación de cientos de millones de dólares del mercado el 6 de mayo de 2010 en el llamado flash crash.

Estamos ante procesos automatizados tan veloces que no dejan ningún espacio a la intervención humana en caso de que se produzca un error, lo que no es tan improbable, y menos aún dada la frecuencia y la intensidad de las operaciones realizadas a través de estos bots algorítmicos. El 40% de los movimientos en el mercado americano son realizados por dos compañías Getco (en Chicago) y Tradebot (en Kansas), formadas por hackers e ingenieros. Ambas utilizan los algoritmos para rastrear oportunidades en los mercados, al igual que hacen otras miles de compañías de mediano y pequeño tamaño. Así, el 60% de las operaciones realizadas en EEUU se producen a través de bots, y Europa no está lejos, ya que muchas compañías asociadas a la FIA European Principal Traders Association suelen utilizar esta clase de herramientas. Los algoritmos son el futuro inmediato, y eso es algo que debería preocuparnos, toda vez que debido a la enorme rapidez de sus operaciones, nos pueden conducir sin que nos demos cuenta, avisa Steiner, a una brutal crisis de liquidez.

placeholder

Traslado estas preocupantes conclusiones a Reizábal, ya que de tener algo de cierto, estarían poniendo de manifiesto cómo las fantasías de Harris de un mundo económico dominado por las máquinas estarían cumpliéndose. El quant trader relativiza esos diagnósticos. Me explica que se utilizan diversos tipos de algoritmos con diferentes finalidades, ya sea para ejecutar órdenes al mejor precio, para realizar operaciones de arbitraje o para predecir el futuro de un modo más preciso, y que en todos ellos puede darse un error de código (“Si está mal programado, te metes la gran hostia”) pero que si no está mal escrito, las cosas no tienen por qué fallar.

No buscamos la certeza en la precisión del diagnóstico, sino en la velocidad de la acción, y eso nos puede provocar serios problemasPero eso no significa que los problemas desaparezcan. Y no sólo porque los errores de código puedan generar pérdidas de grandes proporciones, sino porque los cambios tecnológicos nos han conducido a terrenos totalmente nuevos. Es posible que estemos avisados (al menos hasta que aparezca la próxima fórmula novedosa) de que las predicciones algorítmicas destinadas a predecir los movimientos de los valores no son tan fiables como creíamos, pero eso no significa que la confianza ciega en el poder de los instrumentos matemáticos haya desaparecido. Sólo ha cambiado de dirección: ahora no buscamos la certeza en la precisión del diagnóstico, sino en la velocidad de la acción, y eso nos puede provocar serios problemas.  

Como me explica Roberto, hoy es mucho más sencillo conseguir buenos resultados en las inversiones si se es más rápido que los demás que afinando en procesos de predicción que, al fin y al cabo, siempre resultan falibles. Muchos fondos han apostado intensamente por el arbitraje, un método que trata de explotar en beneficio del inversor las diferencias en los precios, por muy pequeñas que sean, que un mismo valor (una divisa, las acciones de una compañía, etc.) puede tener en distintos mercados. En ese contexto, que tus órdenes sean más rápidas que las de los competidores (e incluso que las de las mismas bolsas) es la mejor forma de ganar dinero, en tanto se trata de un beneficio obtenido sin ningún riesgo. Por eso, el perfil del quant que buscan las firmas financieras ha variado po completo, y ya “no es el del matemático loco que aspira a encontrar la ecuación del siglo, sino el de un experto con un máster en computing science o en estadística, y mejor aún si es doctor”.

(Página 2 de 2)

Como me cuenta S. un quant español que trabaja en Londres, hablamos de un oficio nada conocido en España (“siempre estamos a la cola de todo”), en parte por la desconfianza de la vieja guardia “que no quiere dar relevo a las nuevas generaciones”. En Londres, sin embargo, donde la atmósfera siempre ha sido favorable a  las innovaciones financieras, “el Gobierno británico puso un montón de pasta encima de la mesa para favorecer el financial computing, juntando gente top en informática, top en estadística y top en finanzas. Ha habido un cambio tecnológico, hay que adaptarse o morir, y ellos lo saben”. Si antes debía contarse con las mentes más rápidas para conseguir ventaja en los corros, hoy se trata de contratar a aquellos que procesarán la información de la manera más veloz posible. Los quants de ayer eran matemáticos, los de hoy informáticos e ingenieros en telecomunicaciones que saben programar en circuitos integrados.

Estas empresas de inversión se están yendo a operar a los lugares físicamente más cercanos a los servidores para ganar una milésima decisivaPero para alcanzar el éxito (esto es, para conseguir buenas cifras al final de cada ejercicio) en un mundo donde el High Frecuency Trading está cada vez más presente, hace falta más que contar con los mejores analistas cuantitativos. Como asegura un quant británico, la vía más rápida para triunfar “es la fuerza bruta. Cuanto más rápido sea tu ordenador, más rápido podrá actuar tu programa. Estamos hablando de milisegundos, así que hasta la velocidad de la luz es significativa”. Por eso, señala Roberto, importa y mucho la distancia del ordenador al servidor, por lo que las empresas de inversión se están yendo a operar a lugares físicamente cercanos a los servidores para ganar en sus operaciones esa milésima decisiva. Otro condicionante es la calidad del propio programa, algo en que los quants deben trabajar constantemente, consiguiendo que estos automatismos funcionen cada vez más rápido y de forma más eficiente. Como señala el quant británico, “las mejoras en la lógica del programa son las que permiten las mayores ganancias”.

Y no sólo se perfeccionan programas para conseguir mayor velocidad, sino que se inventan algoritmos para conseguir que los competidores vayan más lento o que se pierdan por caminos erróneos. Los algoritmos predator, señala Reizábal, son de esa clase. “Cuando avanzas una orden -me explica- los mercados tienen la obligación de ejecutarla al mejor precio existente en los mercados. Lo que hacen estos programas es engañar a la orden para que la ejecute al peor de los precios existentes”.

placeholder

En definitiva, el objetivo ya no es orientarnos en un océano de datos para tomar le mejor decisión, sino llegar antes que los demás a lugar seguro. Las fuerzas se han volcado en un terreno en el que la ventaja tecnológica es decisiva porque, si se tienen los instrumentos precisos, se invierte sin ningún riesgo. El que primero llega siempre gana, y eso hace que todo el mundo trate de correr más. Pero, para ello, se está pagando un enorme precio que el quant británico define involuntariamente cuando afirma que, al final, “es la caja negra la que decide cuándo y qué vender y comprar”. No sólo se trata de hasta qué punto, en un mundo dominando por la tecnología, los jugadores con armas más potentes pueden ser capaces de subvertir el mercado en su propio beneficio, sino de que, como advertía Harris, ellos mismos pueden quedar en manos de sus creaciones. Acelerar los procesos, ir más rápido, automatizarlo todo, es ponernos en manos de máquinas que pueden fallar, que ya lo han hecho y que volverán a hacerlo.

No, la crisis, y la confianza ciega en la ciencia que ayudó a provocarla, no nos ha enseñado ninguna lección. Puede que, como asegura Reizábal, estemos un contexto donde los límites los marca el puro negocio y en el que no se adivinan posibles salvaguardas (“No hay Gobierno que te vaya a prohibir utilizar un ordenador”), pero sería positivo que quienes han iniciado estos procesos sean conscientes de que están repitiendo los errores que nos llevaron a la catástrofe. Antes creíamos que podríamos utilizar fórmulas perfectas  para encontrar en un océano de datos aquello que estábamos buscando; hoy creemos que la ciencia y la técnica nos ayudarán, en este contexto inseguro, a triunfar en una carrera a toda velocidad. El problema es que nos hemos vuelto a poner en manos de un instrumentos que deberían estar a nuestro servicio. No somos nosotros quienes dirigimos nada: cuando se automatizan los procesos, cuando nos abandonamos a sus lógicas para ganar tiempo, estamos poniendo en marcha una máquina poderosísima que sólo podremos detener cuando sea demasaido tarde. 

(Esta es la continuación del reportaje El algoritmo del diablo, versión 2012, que se publicó ayer)