ordenador

PhotoGuard: la apuesta del MIT para combatir la edición con IA

Actualmente, la inteligencia artificial (IA) generativa de uso generalizado nos ayuda a hacer muchas cosas en la vida cotidiana. Desde crear textos con tan solo una petición hasta concebir fotos y videos sin conocimientos especializados. Sin embargo, este poder viene con sus propios retos, especialmente en temas de seguridad. Por ello, el MIT ha desarrollado PhotoGuard: una tecnología para evitar que una foto pueda ser modificada con IA.

PhotoGuard: protección en tiempos de IA

La capacidad de la inteligencia artificial generativa acarrea desafíos. En el campo de la seguridad, es preciso contar con herramientas que protejan todo tipo de contenido de modificaciones hechas con fines maliciosos. Por ejemplo, autoridades han alertado sobre delincuentes que crean fotos falsas de desnudos para chantajear a las personas. También se han dado instancias en las que se usa material editado con fines fraudulentos.

Por ello, el reconocido Instituto Tecnológico de Massachusetts MIT ha desarrollado un escudo protector para fotografías. PhotoGuard altera fotos de forma imperceptible para el ojo humano para evitar que sean manipuladas. De esta manera, si se usa una aplicación de edición basada en inteligencia artificial generativa para cambiar la imagen, el resultado se verá poco realista. 

Herramientas como esta responden a una necesidad real de proteger a los usuarios de Internet. De hecho, reconocidas compañías que trabajan con IA se comprometieron voluntariamente con el gobierno de Estados Unidos a desarrollarlas para ayudar a prevenir engaños y fraudes.

Cómo funciona PhotoGuard

El desarrollo de MIT se enfocó en que no se pueda acceder al contenido de una imagen usando el modelo de generación de imágenes Stable Diffusion. Esta aplicación es un motor de IA que crea imágenes a partir de texto. El equipo del MIT utilizó dos técnicas para obstaculizar su utilización:

Ataque de codificador

En ella, la herramienta le agrega señales imperceptibles a la imagen para que la inteligencia artificial las malinterprete. Es decir, hace que la IA entienda mal la imagen. Por ejemplo, en vez de interpretar la figura de una persona como tal, la verá como un bloque de color. Así, una modificación se verá poco convincente.

Ataque de difusión

Esta segunda técnica interviene en la manera en la que la IA genera imágenes. Las codifica con señales secretas que alteran la forma en la que la inteligencia artificial las procesa. El resultado es que la imagen no se pueda editar de acuerdo con la solicitud dada a Stable Diffusion.

ia
Imagen de Unsplash.

Limitaciones del desarrollo de PhotoGuard

Sin embargo, el mecanismo de PhotoGuard no es infalible. Se podría hacer ingeniería inversa a una imagen protegida. Además, hay que considerar que se están desarrollando más y más modelos de IA generativa. Y a una velocidad vertiginosa, de modo que la protección de PhotoGuard podría ser menos efectiva en el futuro cercano.

Algunos expertos consideran que las mismas compañías que desarrollan IA deben ofrecer inmunización frente a las amenazas de seguridad que suponen sus creaciones. Esta es la posición de Hadi Salam, asistente de investigación en el MIT y actual investigador en OpenAI.

Otros añaden que lo más efectivo sería que las plataformas digitales ofrecieran protección para el contenido de sus usuarios en el momento de publicarlo. Esta es la opinión de Henry Adjer, quien es experto en inteligencia artificial generativa y deepfakes. Adjer, quien ha liderado investigaciones pioneras en el campo en organizaciones como el MIT, WITNESS y Sensity AI, señala que tanto plataformas como compañías de inteligencia artificial, “deben estar pensando en proteger a sus usuarios de la pornografía no consensual o de que sus rostros se clonen para crear contenido difamatorio”.

El consenso parece ser que es más viable proteger el contenido multimedia de manipulaciones en la fuente. Esto en comparación con simplemente detectar modificaciones una vez han sido hechas.

En conclusión, herramientas como PhotoGuard apuntan a afectar el interés en usar la inteligencia artificial de forma maliciosa. Así lo afirma Emily Wenger, una investigadora especializada de Meta. Para ella, “entre más alta esté la vara, menos personas querrán o podrán superarla”.

RELACIONADOS