El Data Transparency Lab anuncia la financiación de seis proyectos

La iniciativa Data Transparency Lab tiene ya los seis proyectos seleccionados de entre más de 60 presentados para esta primera convocatoria

Desde la puesta en marcha del primer taller del Data Transparency Lab en noviembre del pasado año, hemos recorrido un largo camino. Hoy estamos muy ilusionados por desvelar cuáles son los seis primeros proyectos que van a ser financiados por el DTL con una dotación total de 300.000 euros (50.000 euros cada uno).

Todos los proyectos seleccionados encarnan los propósitos y ambiciones centrales del DTL: apoyar la investigación de herramientas, datos y metodologías que contribuyan a arrojar luz sobre el uso que los servicios online hacen de los datos personales, para dar a las personas mayor control sobre sus datos. Estas becas pretenden servir de ayuda para financiar, total o parcialmente, el trabajo de un director de investigación (DI) y de, al menos, un estudiante de doctorado o postdoctorado durante un periodo aproximado de un año.

Cómo proteger la privacidad en internet

Para quienes todavía no lo sepan, el DTL es una iniciativa comunitaria, creada por Telefónica, Mozilla, MIT y el ODI, para mostrar el flujo y el uso de los datos personales en la red y explorar vías para que, en el futuro, el comercio de datos sea más transparente y respetuoso. Está formado por académicos, instituciones públicas, startups y grandes empresas con el objetivo de crear una comunidad investigadora independiente.

Tras la convocatoria de abril de este año, recibimos y examinamos más de 60 solicitudes. Creamos una comisión de investigadores especializados, presidida por Krishna Gummadi (Max Planck Institute for Software System) y Nikolaos Laoutaris (Telefónica) y formada por expertos en datos y privacidad procedentes de diversas instituciones académicas, como las universidades de Boston, Princeton y Cambridge, así como de organizaciones y empresas como AT&T o INRIA. Esta comisión de especialistas estaba encargada de evaluar cada propuesta y determinar su pertinencia en función de las siguientes áreas de investigación…

  • Ingeniería inversa del uso de datos personales en los servicios online (p. ej., publicidad, servicios de recomendación, precios o disponibilidad de productos e información)
  • Detección de la recolección de datos personales por parte de los servicios online
  • Preservación de la privacidad de analíticas de datos personales y herramientas de gestión
  • Sensibilización de los usuarios y de la sociedad sobre el uso de los datos

Algunas propuestas llegaron hasta el consejo del DTL, que tomó la decisión final de las seis propuestas seleccionadas que se han anunciado hoy (detalles más abajo). El consejo del DTL está compuesto por los cuatro fundadores del DTL (la profesora Sandy Pentland de MIT, Alina Hua de Mozilla, Pablo Rodríguez de Telefónica y Jenni Tennison del Open Data Institute). Los equipos de los proyectos ganadores recibirán la financiación para empezar a crear las herramientas y plataformas propuestas, e informarán sobre los progresos realizados en la TDLConference 2015 que se celebrará en noviembre.

En una época en la que el poder y la importancia de los datos son indiscutibles pero en la que, comprensiblemente, existen muchos temores relacionados con la privacidad y el uso de los datos, tenemos que buscar un equilibrio. Un equilibrio que reconozca el valor de los datos pero que dé a las personas el control sobre ellos, así como la transparencia que merecen. Creemos que el DTL (un proyecto colaborativo entre empresas, organizaciones e instituciones académicas) es un paso en la dirección correcta, y confiamos en que, con la financiación de este primer grupo de proyectos, la transparencia de los datos pueda empezar a hacerse realidad y podamos mantener la confianza en nuestra sociedad digital. De ello depende el futuro de la red.

Detalles de los proyectos del DTL 2015

Las seis propuestas ganadoras y que vamos a financiar son cinco herramientas y una plataforma. Cada una recibirá 50.000 euros y apoyo a lo largo de un año.

Sensibilizando sobre la privacidad basada en datos

Lorrie Faith Cranor (Carnegie Mellon University) y Blase Ur (Carnegie Mellon University)

Imagen de: hyku
Imagen de: hyku

Crear y probar una herramienta de privacidad basada en datos que permite a los usuarios explorar con precisión en qué páginas han sido rastreados por las diferentes empresas, así como lo que dichas empresas pueden haber averiguado sobre sus intereses. Además del proyecto de lanzar una herramienta de privacidad totalmente funcional y de código abierto, realizaremos una prueba de campo de 75 participantes y dos semanas para comparar las visualizaciones de los datos de rastreo personalizados”.

Mostrando y controlando las filtraciones en la privacidad móvil

David Choffnes (Northeastern University), Christo Wilson (Northeastern University) y Alan Mislove (Northeastern University)

Mejorar la privacidad en un contexto de conectividad generalizada y abundancia de sensores, requiere sistemas acreditados de terceros que permitan la auditoría y el control de las filtraciones de información personal (PII).

http://www.shutterstock.com/pic-154668629/stock-photo-m-m-machine-to-machine-communication.html?src=-_yISb-vCFxQnnmP9HKxUQ-1-67
Imagen: via Shutterstock

Vamos a investigar cómo utilizar el aprendizaje automático para identificar de manera fidedigna la PII a partir de los flujos de red, así como los algoritmos que incorporan el feedback del usuario para adaptarnos a los cambios continuos en las filtraciones de privacidad. En segundo lugar, vamos a construir herramientas para que los usuarios puedan controlar el modo en que su información se intercambia (o no) con otros. Estas herramientas se lanzarán en la forma de aplicaciones gratuitas y de código abierto que puedan funcionar en diversos escenarios de despliegue, como un dispositivo en la red doméstica del usuario o un entorno virtual basado en cloud”.

FDVT: una herramienta de valoración de los datos personales para usuarios de Facebook

Angel Cuevas (Universidad Carlos III de Madrid) y Raquel Aparicio (Universidad Carlos III de Madrid)

facebook-check-ins-04

“El objetivo de este proyecto es desarrollar una herramienta que informe a las personas (en tiempo real) del valor económico de la información personal asociada con su actividad de navegación. Debido a la complejidad de esta cuestión, el ámbito de la herramienta de este proyecto concreto estará restringido a Facebook para, entre otras cosas, informar a sus usuarios del valor que le están generando a Facebook. Lo llamaremos Facebook Data Valuation Tool (FDVT)”.

El aura digital: sensibilizando sobre el historial de navegación

Arkadiusz Stopczynski (Technical University of Denmark), Mieszko Piotr Manijak (Technical University of Denmark, Piotr Sapiezynski (Technical University of Denmark) y Sune Lehmann (Technical University of Denmark)

“Nuestro historial de navegación en Internet es altamente personal. Nuestros términos de búsqueda y las páginas que visitamos revelan nuestros miedos, intereses, aflicciones y ambiciones secretas.

navegar de manera anónima

Hace algunos años, el proyecto de inmersión creado en el MIT Media Lab tuvo un gran eco en la prensa internacional por visualizar la información social latente contenida en los datos de encabezamiento de nuestros e-mails. Queremos hacer algo similar para la navegación en Internet. Por medio de topic models, queremos diseñar un sencillo panel en el que las personas puedan visualizar el contenido de su navegación y observar cómo los temas van cambiando con el tiempo. Básicamente vamos a combinar esta visualización con la información de los rastreadores de datos (cuántos rastreadores, cuánta información se proporciona) para que los usuarios puedan observar las implicaciones que tiene para ellos el rastreo de datos”.

Trazando el balance entre privacidad y funcionalidad

Nick Feamster (Princeton University) y Sarthak Grover (Princeton University)

“En este proyecto, nos proponemos desarrollar mecanismos y herramientas para entender mejor estas dos preguntas:

  • ¿Cuántos datos revela un usuario en el transcurso de su actividad normal de navegación?
  • ¿Hasta qué punto los datos de un usuario que un servicio guarda sirven para personalizar dicho servicio?

Revocar permisos en redes sociales

A pesar de que la efectividad de la personalización depende, hasta cierto punto, de la capacidad de medir y dirigirse a al sector demográfico concreto de un usuario, creemos que la cantidad de datos que se recogen es desproporcionadamente mayor que las ventajas que el servicio resultante supone para los usuarios. Además, estos pueden tomar medidas explícitas para que los sitios web no obtengan sus datos, como instalar plugins para inhabilitar Javascript o programas específicos de rastreo. También pueden tomar medidas para evitar la divulgación accidental de información personalmente identificable (PII) a un sitio web o incluso el inicio de sesión en el sitio.

Llevaremos a cabo estudios controlados para estudiar hasta qué punto las decisiones que un usuario toma para proteger su privacidad pueden perjudicar la usabilidad de un servicio de Internet”.

Ingeniería inversa para los rastreos en Internet: de la investigación de nichos de mercado a una herramienta sencilla

Arvind Narayanan (Princeton University) y Steven Englehardt (Princeton University)

 “En Princeton hemos creado OpenWPM, una plataforma para la transparencia de los rastreos en Internet. La hemos utilizado en diversos estudios publicados para detectar y realizar ingeniería inversa de los rastreos en Internet. En el trabajo que proponemos, queremos democratizar los cálculos de privacidad de la web: pasar de un ámbito para investigar nichos de mercado a una herramienta para todo el mundo.

http://www.shutterstock.com/pic-287603597/stock-photo-open-book.html?src=6jWv3OyCON4HDv_8F7r1pQ-1-24
Imagen: via Shutterstock

Lo haremos en dos fases: usaremos OpenWPM para publicar un “censo de la privacidad web” (un cálculo mensual de la privacidad en Internet, que incluya un millón de sitios web). Este censo detectará y calculará la mayor parte de los tipos de vulneraciones de la privacidad de las que han informado los investigadores hasta el momento: evasión del bloqueo de cookies, filtraciones a terceros de la PII, canvas fingerprinting y otras. En segundo lugar, crearemos una plataforma de análisis para que cualquiera sin conocimientos avanzados pueda analizar los datos del censo. La plataforma permitirá empaquetar y distribuir los datos de estudio, los scripts y los resultados en un formato fácil de replicar y ampliar.”

RELACIONADOS