Pablo López Álvarez se ha convertido en el último ganador del Mejor Data Scientist en los Data Science Awards Spain 2018, concurso organizado por LUCA, el área de datos de Telefónica. Su proyecto sobre predicción de las fases previas del Alzheimer le ha alzado con este premio.
La tercera edición de los Data Science Awards Spain, los únicos premios a nivel nacional que conceden un reconocimiento social a los profesionales del mundo de los datos y Data Science, han vuelto a sorprendernos.
Entre los premiados destacaron el Mejor Trabajo Periodístico de Datos, otorgado a la Fundación Civio, por su investigación sobre el uso y acceso a los anticonceptivos a nivel mundial; la Mejor Iniciativa empresarial Big Data, otorgada a Repsol por apostar por la transformación digital, creando más de 400 iniciativas basadas en analítica y gestión de datos; y las menciones de honor concedidas a Europa Press, como mejor estrategia periodística con su plataforma EpData, para integrar las oportunidades que ofrece el Big Data para mejorar la calidad de la información y combatir, a través de la colaboración, las noticias falsas en Internet; y a Naturgy como la mejor estrategia empresarial de Big Data por su plan estratégico de incluir esta tecnología, además de Inteligencia Artificial, dentro de la compañía.
Pero la tercera edición de estos premios nos ha dejado también un nombre propio: Pablo López Álvarez.
Este joven ingeniero aeroespacial ha centrado su carrera profesional en las finanzas cuantitativas desde que cursase su máster sobre dicha materia en la Universidad Bocconi de Milán. Desde entonces, no ha parado de aplicar algoritmos de inteligencia artificial a los mercados de divisas en ETS Asset Management Factory, además de en campos como la medicina.
Una realidad que le ha convertido en el ganador del Mejor Data Scientist por el desarrollo de un modelo de aprendizaje automático, capaz de estimar si un paciente se encuentra o no en una fase temprana del Alzheimer.
Basándose en datos vertidos por una máquina MEG (de manetoencefalografía), y apoyándose en la actividad cerebral de pacientes a través de hasta 102 sensores colocados en la cabeza, Pablo ha llevado a cabo este estudio sobre el que, a continuación, conocemos más detalles.
¿Por qué decidiste participar en los DSA?
Los Data Science Awards son ahora mismo, y sin ninguna duda, la competición de referencia en España para el Data Science. No hay ninguna igual.
También tienen el atractivo de contar con dos partes bien diferenciadas: un cuestionario para medir tu conocimiento teórico, que también supone un reto al medirte contra tus colegas a nivel nacional; y una segunda parte donde puedes desarrollar un proyecto centrándote en tus fortalezas como Data Scientist, que además te ofrece temáticas de distinta índole, aportando mucha flexibilidad para desarrollar un proyecto que te llene y que sea un reto para ti.
¿Cómo la tecnología ha hecho posible predecir las fases previas del Alzheimer?
Dentro de la tecnología, el principal avance que ha permitido esto ha sido el desarrollo del aprendizaje en máquina: un conjunto de técnicas matemáticas que detectan patrones dentro de los datos. A partir de una serie de datos de conexiones neuronales de distintas zonas del cerebro, utilizando estas técnicas, he conseguido detectar estas diferencias en las conexiones neuronales que existen entre los pacientes que van a desarrollar Alzheimer y los que no.
¿En qué forma se ha utilizado el Big Data en este estudio?
Dentro del término Big Data, este es un problema un poco distinto. Generalmente, el Big Data se caracteriza porque existe un gran número de observaciones caracterizadas con una amplia cantidad de datos.
En este caso existía gran cantidad de información de cada paciente, muchas estadísticas de 102 sensores y de cómo se relacionan entre ellos, pero había muy pocos pacientes, menos de 150. Por ello, sí fue un reto que se salía del paradigma clásico de Big Data, donde se parte de una abundancia de datos, y aquí partes de una escasez de ellos.
El desafío consiste en conseguir encontrar esos patrones dentro de una cantidad tan limitada de casos de ejemplo.
¿Cuánto tiempo llevó el desarrollo de este estudio?
El proyecto se desarrolló dentro de un periodo de dos meses, y más de un mes y medio me llevó la parte de investigación y desarrollo científico que luego me permitiría aplicar esas técnicas de reconocimiento de una manera que tuviera sentido.
De este modo, he de decir que, sin todo el trabajo previo y puntero a nivel internacional desarrollado por el laboratorio de neurociencia cognitiva de la Universidad Politécnica de Madrid, no hubiese sido posible.
¿Podremos verlo en un entorno médico real este año 2019?
Parece demasiado pronto hasta dentro de las previsiones más optimistas, pero es cierto que el método en sí tiene cierta robustez para aplicarse ya dentro de un entorno médico.
Dentro de eso, la limitación va a ser la carencia de datos, porque dentro de los ambientes médicos el proceso de recopilación de los mismos es lento y caro, y tendríamos que esperar a recopilar una mayor cantidad para tener soluciones suficientemente fiables como para empezar a utilizarlas en pacientes reales.
En este sentido, existen nuevas técnicas que son más baratas, como, por ejemplo, intentar predecir el Alzheimer a partir de grabaciones de voz, que se están desarrollando en otras universidades españolas, y que podría acelerar ese proceso de recopilación de muestras.
¿Es la predicción un paso definitivo para la cura del Alzheimer?
Lo que pretendemos con este tipo de nuevas herramientas tecnológicas de detención de patrones y de aprendizaje en máquina, a través del uso del Big Data, es detectar en una fase lo suficientemente temprana el Alzheimer. De esta forma, si no conseguimos curarlo, dado que actualmente no existe cura; sí podemos conseguir retrasar significativamente su aparición y agravamiento y, de ese modo, mejorar la calidad de la vida de los pacientes que vayan a desarrollar Alzheimer.