Falcon, un sistema para respetar la privacidad al entrenar algoritmos

Escrito por , 3 de mayo de 2020 a las 17:30
Falcon, un sistema para respetar la privacidad al entrenar algoritmos
Digital

Falcon, un sistema para respetar la privacidad al entrenar algoritmos

Escrito por , 3 de mayo de 2020 a las 17:30

Los investigadores han propuesto Falcon, un protocolo respetuoso con la privacidad para el entrenamiento de algoritmos de inteligencia artificial.

Un equipo de investigadores, procedentes de la Universidad de Princeton, de Microsoft, Alogrand Foundation y Technion, han propuesto Falcon. Se trata de un framework para que el entrenamiento de los algoritmos de inteligencia artificial se produzca con todas las garantías de privacidad y seguridad.

La proliferación de la inteligencia artificial ha llevado a que una parte del sector se preocupe por su futuro. Más que por el de la inteligencia artificial por el de los datos que maneja. En definitiva, por las personas, que son en muchas ocasiones de donde provienen los datos con los que se trabaja.

La inquietud ha llegado a tal punto que la propia Comisión Europea ha propuesto una serie de principios éticos que la IA debe guardar. Algunos de ellos resultan comprensibles y aprobados por todos, como los principios de privacidad y transparencia. Este tipo de factores limitantes no solo deberían entrar en juego en la aplicación de la IA. También en su entrenamiento.

Esto es lo que proponen los creadores de Falcon. El nuevo protocolo está orientado a proteger los datos con los que se trabaja. De la misma forma, su diseño hace que automáticamente aborte el entrenamiento si detecta la presencia de archivos maliciosos o atacantes. Es una fórmula para evitar que un ataque trastorne la efectividad de un algoritmo al haber influido en su entrenamiento.

granjas de IA

Dos clases de usuarios

El protocolo Falcon divide en dos los tipos de usuarios que participan en un escenario de uso de IA. Los primeros son los poseedores de los datos, aquellos que tienen los data sets para el entrenamiento. Los ‘query users’ son los segundos. Ellos serán quienes hagan preguntas al modelo de IA una vez este se haya entrenado.

Para que el entrenamiento sea seguro y privado, los poseedores de los datos tienen que compartir su información. Esta pasa a los servidores donde se entrenará el modelo. A partir de ahí los ‘query users’ podrán hacer preguntas al sistema. Y, entre medias Falcon permite que se respete la privacidad de los data sets, mientras que las consultas al algoritmo también permanecerán en secreto.

Falcon empela protocolos ‘semi-honestos’, donde las dos partes tienen que seguir unas reglas específicas. De esta forma se aseguran que no se modifican las aportaciones al entrenamiento ni los resultados del mismo. Además, el framework reduce la complejidad de la comunicación, con lo que será más fácil operar sobre tipos de datos más pequeños.

anterior artículo

Así crecen los servicios de entregas con robots autónomos

Así crecen los servicios de entregas con robots autónomos
siguiente artículo

Cómo este perro-robot se usa en hospitales ante la Covid-19

Cómo este perro-robot se usa en hospitales ante la Covid-19

Recomendados