Luces y sombras del Big Data

Las predicciones forman parte de la condición humana y se llevan haciendo desde el principio de los tiempos. Lo de acertar ya es otra cosa. Las nuevas tecnologías aportan mayor fiabilidad a las prospecciones, pero con el consiguiente margen de error. El análisis de datos masivos, con la aparición del Big Data, ayuda a predecir el éxito, pero deja abiertos interrogantes a los que no será fácil encontrar solución.

Los éxitos, al menos en el mundo de la creatividad, no se consiguen sólo aplicando un algoritmo que selecciona los ingredientes necesarios para que la obra sea aplaudida por todo el mundo. Sin embargo, sí está demostrado que la combinación de unas serie de elementos, en las proporciones adecuadas, facilitará el éxito de una novela o de cualquier otro producto que quiera sacarse al mercado.

¿Es fácil fabricar un “best seller”? ¿Puede garantizarse que una determinada novela será “superventas” porque su argumento se desarrolla siguiendo las pautas marcadas por un algoritmo? Claro que puede lograrse, pero con un margen de error importante, que varía en función del talento y de la capacidad creativa de su autor. De lo contrario, los editores habrían desterrado de su vocabulario la palabra “fracaso” y dejarían de creer en la intuición que les hizo apostar con mayor o menor fortuna.

Dos investigadores de Stanford – Jodie Archer y Matthew L. Jockers – presentaron recientemente un algoritmo que permite garantizar, en el 80% de los casos, cuándo una novela será superventas. La predicción del éxito es relativa, aunque se basa en el estudio comparado de datos masivos – Big Data – convenientemente analizados y correctamente seleccionados para que sirvan de pauta al autor.

La historia de la literatura está salpicada de errores descomunales, que han puesto en evidencia el “olfato” y la “intuición” de algunos renombrados editores. Carlos Barral, por ejemplo, no se perdonó nunca el haber rechazado el manuscrito de la novela “Cien años de soledad”, de Gabriel García Márquez, el día que se la ofreció en Barcelona. Como tampoco se lo perdonarían los editores que no intuyeron el éxito de “Harry Potter y la piedra filosofal”, de J.K. Rowling, o “Carrie”, de Stephen King.

Es posible que sus gustos no fueran coincidentes con los de aquellos prometedores autores, a los que entonces nadie conocía. Tampoco pudieron contrastar esos gustos con los de millones de potenciales lectores, cosa que hoy ya sí es posible, a través las herramientas que nos ofrece Big Data. La información que hoy circula por el mercado, a través de los teléfonos móviles, las redes sociales y las diferentes aplicaciones de Internet, es tan extensa y abundante que el mayor problema radica en analizarla y resumirla con el mayor rigor y precisión posibles.

City-Big-Data

En el sector audiovisual, las predicciones son frecuentes, hasta el punto de invertir importantes sumas de dinero en analizarlas y desarrollarlas. Netflix, por ejemplo, invirtió un millón de dólares en el algoritmo que identificó los contenidos más atractivos para los potenciales espectadores de la serie “House of cards”. El éxito de esta producción televisiva ha justificado con creces la inversión. “Los contenidos de una serie ya no los deciden una decena de personas sentadas a una mesa, sino los hábitos y comportamientos de millones de espectadores”, explicaba en “El Confidencial” Joshua Lynn, presidente y cofundador de Piedmont Media Research, empresa que utiliza algoritmos para predecir el éxito de producciones antes de su rodaje.

Como señaló en la segunda edición de los Impact Innovation Talks, David del Val, director ejecutivo de Telefónica I+D, “las tecnologías ‘big data’ son la clave para desarrollar la inteligencia artificial”.

Los especialistas en Big Data o, si lo prefieren los “expertos en el tratamiento masivo de datos”, son la profesión del futuro. Lo que antes parecía una hipótesis de trabajo se ha convertido en una realidad tangible, aunque no logre la eficacia deseada en todos los ámbitos de la vida. Por ejemplo, en la política, como ha quedado demostrado en las pasadas elecciones americanas. La candidata demócrata, Hillary Clinton, apostó por una campaña diseñada con la ayuda de expertos en Big Data, mientras que el republicano Donald Trump se dejó llevar más por la percepción de sus asesores y por las impresiones recogidas en los actos electorales.

A la vista de los resultados de las elecciones, podría plantearse el eterno dilema de si la cantidad – un enorme volumen de datos – es mejor que la calidad – menos datos, pero bien seleccionados -, cuando se trata de convencer a los votantes indecisos. Cuando se trata de saber qué mensajes calán más en el electorado al que te diriges.

Las famosas tres “uves” que identifican a Big Data – volumen, velocidad y variedad – se podrían resumir en el siguiente lema: “empresas más efectivas y usuarios más satisfechos”. La información crece anualmente un 40%, pero no podemos olvidar otros factores, como el de la privacidad.

La reducción de costes, la rentabilidad, la eficiencia operativa y la oferta personalizada están en el ADN de Big Data, pero todavía queda mucho camino por recorrer.

Sobre el autor

RELACIONADOS