¿Cómo protegernos de la manipulación de imágenes?

¿Cómo protegernos de la manipulación de imágenes?

El selfie que subiste este fin de semana en la playa puede ser menos inocente de lo que pensabas. Nada impide que cualquiera use esa imagen para manipularla. Hasta ahora eran manipulaciones manuales, un poco de Photoshop y, voilà, ya no estabas solo en el chiringuito. El problema viene cuando ya no necesitas ser un mago de la edición de imágenes porque la IA lo hace por ti.

Están creciendo las aplicaciones que prometen evitar este problema. Desde hace tiempo se sabe que hay algunos patrones que no son detectables por humanos pero confunden a los algoritmos de inteligencia artificial. Es lo que se llama ataques adversarios. (https://lnkd.in/dSTZFtbx) Lo que hasta ahora se consideraba una debilidad de las redes neuronales, ya que podía confundir a un algoritmo de clasificación, se está utilizando para proteger al usuario.

Un ejemplo es PhotoGuard, (https://lnkd.in/dnXpbqnr) una aplicación presentada por un investigador del MIT esta semana en la International Conference on Machine Learning.

PhotoGuard usa varias técnicas para protegerte de estos ataques.

La primera se denomina ataque codificador. La aplicación añade señales imperceptibles a la imagen para que el modelo de IA la interprete como otra cosa. Por ejemplo, estas señales podrían hacer que la IA categorizara tu imagen como un bloque gris. Como resultado, cualquier intento de utilizar un algoritmo de IA generativa para editar tu foto daría resultados poco convincentes.

La segunda técnica, más eficaz, se denomina Difussion Attack o ataque de difusión. Altera la forma en que los modelos de IA generan las imágenes básicamente codificándolas con señales invisibles para nosotros que alteran la forma en que son procesadas por el modelo. Añadiendo estas señales tu imagen, conseguirías manipular el modelo de difusión para que ignorara sus indicaciones y generara otra imagen diferente. Como resultado, cualquier imagen tuya editada por la IA se vería gris.