Es noticia
'Big data': ¿el nuevo poder absoluto que controlará nuestras vidas?
  1. Alma, Corazón, Vida
¿buen negocio o grave error de la ciencia?

'Big data': ¿el nuevo poder absoluto que controlará nuestras vidas?

Son el futuro, todas las empresas apuestan por ellos. Suponen un cambio de mentalidad radical, pero no sabemos si será a mejor. No lo parece

Foto: En el futuro los datos dominarán el mundo. (Tomas Rodriguez/Corbis)
En el futuro los datos dominarán el mundo. (Tomas Rodriguez/Corbis)

El futuro próximo de la medicina será el siguiente: el paciente acudirá a la consulta y describirá los síntomas al médico, quien los introducirá en su ordenador y se conectará a la red que contiene todos los datos del paciente (incluidos los genéticos) y en la que también se alojan las soluciones que miles de médicos ofrecen a esa dolencia. El doctor pulsará enter, esperará unos instantes, y en la pantalla aparecerán diagnóstico, solución y tratamiento.A medio plazo, es posible que el mismo paciente pueda conectarse en línea y realizar la misma operación sin necesidad de mediación de especialista alguno.

Situaciones similares se vivirán en muchos otros sectores profesionales. En procesos que no posean especial complejidad, el demandante explicará los datos relevantes del caso, y el abogado los introducirá en el ordenador, esperará unos instantes y aparecerá el formulario de demanda que el tratamiento de datos le habrá proporcionado. El agricultor instalará unos sensores en su tierra, que le ofrecerán todos los elementos de medición necesarios y que añadidos a los de las previsiones meteorológicas permitirán a compañías especializadas sabercuándo y cómo sembrar, regar o cosechar para obtener el mayor provecho.

Ese es el horizonte al que nos dirigen los big data, algo que muchos expertos celebran porque no sólo supone la posibilidad de medir con mucha mayor precisión lo que nos ocurre, y por tanto, de poder tomar mejores decisiones, sino que implica fundamentalmente la eliminación de lo peor que, en su perspectiva, tienen nuestros sistemas expertos, como son los errores humanos.

Así, en lugar de acudir a un especialista siempre falible, dadas las limitaciones humanas, podremos contar con enormes cantidades de datos acerca de nosotros mismos, de la enfermedad que nos aqueja y de las soluciones que miles de expertos en todo el mundo están aplicando. No dependeremos de las ocurrencias de un individuo, sino que tendremos a nuestra disposición un sistema complejo que mide datos y evidencias en lugar de ofrecer impresiones o conocimiento no informado. Gozaremos de la ciencia en estado puro.

Una revolución total de la mente

Según contaba Leo Celi, fundador y director de MIT Sana, en las jornadas EmTEch celebradas en Valencia, “las decisiones clínicas basadas en la evidencia de nuestros especialistas suponen únicamente entre un 10 % y un 20% de las totales”, por lo que la prescripción de un tratamiento en el futuro “no deberá estar basada en lo que sabe ese doctor sino en lo que hacen miles de doctores que están cuidando de pacientes y que están buscando el mejor resultado para cada caso”. Utilizar el manejo de datos para llegar a esta meta supondría además un enorme ahorro. “Gastamos al año miles de millones al año en servicios innecesarios, fraude, oportunidades de prevención perdidas, gastos administrativos excesivos o en servicios prestados ineficientemente”.

Pero los bigdata no son simplementeun instrumento nuevo y preciso para tomar decisiones, sino que suponen una revolución completa en nuestra forma de pensar. Como cuentan el profesor de Oxford Viktor Mayer-Schöngerger y el editor de datos de The Economist Kennet Cukier en Big data, la revolución de los datos masivos (Ed. Turner) estamos ante nuevo tipo de inteligencia que surge de tres cambios esenciales:

En un mundo en el que tanto los instrumentos de medición como la capacidad de analizar lo medido eran escasos, debíamos recurrir a los muestreos, esto es, al examen de entornos reducidos cuyos resultados creíamos aptos para extrapolar a escalas mayores. Esa era la dinámica de las encuestas, que preguntaban a un número escaso de personas y de sus respuestas se extraían conclusiones que creíamos válidas para grandes masas de población. Hoy existen posibilidades técnicas que nos permiten recoger muchísima más información (“si almacenáramos toda la disponible en un CD Rom rom, tocarían la luna formando cinco pilas separadas” afirman en su libro) y procesarla y analizarla a gran velocidad. En muchos casos, ese muestreo deja de ser necesario, por lo que no tenemos que buscar sólo lo representativo. Podemos emplear series de datos muchísimo más extensas.

Esa enorme ampliación de lo disponible también consigue,según aseguran Mayer-Schönberger y Cukier, que no necesitemos ser tan precisos. Ya que utilizamos muchos más datos, “podemos dejar de lado parte de la rígida exactitud” con la que nos regíamos: probablemente sea bastante “con una idea de la tendencia general en lugar de conocer un fenómeno hasta el último detalle”. No es que renunciemos a ser exactos, sólo abandonamos nuestra natural tendencia a buscar seguridad a través de la precisión.

Como tercer elemento y más importante, con los big data nos alejamos de la tradicional búsqueda de la causalidad. Como seres humanos hemos sido condicionados para entender el mundo a través de los porqués, y a tratar de gestionarlo desde ese conocimiento causal. En un mundo de datos masivos ya no nos es necesario, sino que podemos actuar a través de algo mucho más útil, como son las correlaciones. Se trata de medir las distintas variables relacionadas en un fenómeno y poner los datos en común. De ese modo, y a través de los mecanismos analíticos digitales, descubriremos qué es lo que pasa aunque no sepamos por qué. “Las correlaciones no nos dicen la causa de lo que ocurre, pero sí nos alertan de que algo pasa”, aseguran los autores de Big data.

placeholder ¿Tendrán este aspecto los médicos, los camareros o los tenderos del futuro? (Corbis)

El poder absoluto de los big data

Imaginemos que podemos medir los datos de los días previos de las ciudades que sufrieron un terremoto. Hasta la fecha, lo que tratábamos de hacer era entender qué ocurría, buscar una explicación a partir de la cual comprender el fenómeno y prevenir futuras desgracias. Ahora no: simplemente debemos cruzar los datos disponibles, pulsar enter, y esperar que la máquina nos ofrezca correlaciones. Si hay variables que se repiten en todos los casos, sabremos ya que algo está ocurriendo aunque no lo entendamos. Algunas de ellas pueden tener sentido, otras no, pero nos da igual. Si en todas las ciudades el gasto energético estaba en un pico alto o si era la misma hora del día o si sus alcantarillas estaban llenas, no entraremos a valorar por qué ocurre eso, sólo tendremos en cuenta que eso ocurrió cuando se produjo la catástrofe.

Schönberger y Cukier señalan que esto es esencialmente positivo, porque nos permite librarnos del velo de la ignorancia que colocábamos delante de nuestras decisiones. El lado de pensamiento rápido de nuestro cerebro está programado, señalan, para llegar precipitadamente a cualesquiera conclusiones causales que consiga elaborar, lo que nos suele llevar a decisiones equivocadas. Se trata de un atajo cognitivo que nos brinda una ilusión de percepción, pero que en realidad nos deja en la inopia respecto al mundo que nos rodea. Del mismo modo que el muestreo era un atajo que empleábamos porque no podíamos procesar todos los datos, la percepción de la causalidad es un truco que usa nuestro cerebro para evitar pensar despacio y a fondo.

Lo mejor que podemos hacer, por tanto, es dejar de resistirnos y abrazar un nuevo modelo que será mucho más científico que los precedentes. Quizá nos suene raro que la parte sustancial de la tarea sea meter los datos en la máquina y esperar lo que el ordenador nos ofrezca, pero todo será más sencillo y más barato, y además producirá mejores resultados.

El instrumento definitivo de control

Como cuenta en The Atlantic, Teri Morse,vicepresidenta de contratación de Xerox, y responsable de los centros de atención al cliente que la empresa tiene en EEUU y que dan trabajo a 45.000 trabajadores, hasta 2010 seguían un proceso de selección estándar a través de entrevistas y alguna prueba básica. A partir de entonces, Xerox cambió el sistema, pasando a una evaluación en línea que añadía pruebas de personalidad, habilidad yevaluación cognitiva, además de preguntas de opción múltiple acerca de cómo el solicitante realizaría su trabajo. Una vez realizados los test, un algoritmo se encargaba de analizar las respuestas junto con información objetiva obtenida de la solicitud del candidato, y emitía un veredicto que tenía en cuenta nuevos criterios de valoración(la experiencia no puntuaba ya positivamente, y sí lo hacía la distancia entre el hogar y el trabajo).

Con este método, explica Morse, los porcentajes de abandono temprano del puesto de trabajo se redujeron un 20% y el número de personas que eran promocionadas aumentaron, ya que los contratados se adecuaban mejor al empleo. Aunque Xerox sigue entrevistando a todos los candidatos, Morse señala que se está llegando al extremo de que “muchos de los directores de recursos humanos locales ya no quieren hacer entrevistas, limitándose a contratar a las personas que obtienen las puntuaciones más altas en los test evaluados por algoritmos”.

Y este si es el gran problema de los big data, un instrumento que cambia nuestra forma de pensar, que sustituye un sistema por otro más barato, y que no es tomado como una ayuda para la toma de decisiones sino como la herramienta definitiva. Sustituye la verdad por la probabilidad, la exactitud por la panorámica y el saber humano por operaciones algorítmicas basadas en datos previos, y dice que todo debe girar en torno a eso.

A la pregunta de si es fiable tomar decisiones basándonos en la simple correlación se suma otra acerca del mundo al que nos conduce. La preocupación habitual es la que señala que serán los ordenadores los que tomen las decisiones, lo cual nos aterra. ¿Confiaríamos en el sistema de salud si en lugar de un médico nos prescribiera las medicinas una máquina? Quienes apoyan el mundo de los big data señalan que eso son miedos atávicos, ya que si se puede llegar a mejores análisis a través de los big data haríamos mal en no tomarlos en consideración.

Pero el problema es doble, ya que está por demostrarse hasta qué punto los big data llevados al extremo son de verdad útiles, y por otra está el mundo que construirían, porque estaríamos dirigiéndonos hacia un sistema de control centralizado. Los doctores deberán comportarse como dicen las máquinas, los algoritmos fijarán a quién contratar, los agricultores deberán regar cuando el ordenador lo diga y los trenes arrancar y pararse cuando lo indique su sistema. ¿Suena bien? Eso también pueden ser los big data.

El futuro próximo de la medicina será el siguiente: el paciente acudirá a la consulta y describirá los síntomas al médico, quien los introducirá en su ordenador y se conectará a la red que contiene todos los datos del paciente (incluidos los genéticos) y en la que también se alojan las soluciones que miles de médicos ofrecen a esa dolencia. El doctor pulsará enter, esperará unos instantes, y en la pantalla aparecerán diagnóstico, solución y tratamiento.A medio plazo, es posible que el mismo paciente pueda conectarse en línea y realizar la misma operación sin necesidad de mediación de especialista alguno.