El reconocimiento facial ubicuo es una seria amenaza para la privacidad . La idea de que las fotos que compartimos están siendo recopiladas por empresas para entrenar algoritmos que se venden comercialmente es preocupante. Cualquiera puede comprar estas herramientas, tomar una foto de un extraño y descubrir quién es en segundos. Pero los investigadores han encontrado una forma inteligente de ayudar a combatir este problema.
La solución es una app llamada Fawkes, la cual fue creada por científicos del Sand Lab de la Universidad de Chicago. Fawkes (nombre retomado de las máscaras Guy Fawkes de "V de Vendetta") usa inteligencia artificial para alterar sutil y casi imperceptiblemente sus fotos para engañar a los sistemas de reconocimiento facial.
La forma en que funciona el software es un poco compleja. Pasar tus fotos a través de Fawkes no te hace invisible para el reconocimiento facial exactamente. En cambio, el software realiza cambios sutiles en sus fotos para que cualquier algoritmo que escanee esas imágenes en el futuro lo vea como una persona completamente diferente. Esencialmente, ejecutar Fawkes en tus fotos es como agregar una máscara invisible a tus selfies.
Leer también
: El Reino Unido rediseñará algoritmo de solicitud de visas
De acuerdo con el portal The verge, los científicos llaman a este proceso "encubrimiento" y está destinado a corromper el recurso que los sistemas de reconocimiento facial necesitan para funcionar: bases de datos de caras eliminadas de las redes sociales. La firma de reconocimiento facial Clearview AI, por ejemplo, afirma haber recogido unos tres mil millones de imágenes de rostros de sitios como Facebook , YouTube y Venmo, que utiliza para identificar a extraños.
Pero si las fotos que comparte en línea se han publicado a través de Fawkes , dicen los investigadores, entonces la cara que han archivado los algoritmos, no la reconocerán como suya.
Según el equipo de la Universidad de Chicago, Fawkes es 100 por ciento exitoso contra los servicios de reconocimiento facial de Microsoft (Azure Face), Amazon (Rekognition) y Face ++ del gigante tecnológico chino Megvii.
"Lo que estamos haciendo es usar la foto encubierta en esencia como un Caballo de Troya, para corromper a los modelos no autorizados para aprender algo incorrecto sobre lo que te hace parecer a ti y no a otra persona", Ben Zhao, profesor de informática en la Universidad. de Chicago que ayudó a crear el software Fawkes, le dijo a The Verge . "Una vez que ocurre la corrupción, estás continuamente protegido sin importar a dónde vayas o te vean".
Leer también
: YouTube ya no permitirá contribuir con subtítulos para otros videos
El grupo detrás del trabajo, Shawn Shan, Emily Wenger, Jiayun Zhang, Huiying Li, Haitao Zheng y Ben Y. Zhao, publicó un artículo sobre el algoritmo a principios de este año . Pero a fines del mes pasado también lanzaron Fawkes como software gratuito para Windows y Mac que cualquiera puede descargar y usar. Hasta la fecha dicen que ha sido descargado más de 100,000 veces.
En las pruebas realizadas por The Verge, señalaron que Fawkes es escaso en su diseño pero lo suficientemente fácil de aplicar. Se tarda un par de minutos en procesar cada imagen, y los cambios que realiza son en su mayoría imperceptibles. A principios de esta semana, The New York Times publicó una historia en Fawkes en la que señaló que el efecto de encubrimiento era bastante obvio, a menudo haciendo cambios de género en las imágenes, como dar bigotes a las mujeres. Pero el equipo de Fawkes dice que el algoritmo actualizado es mucho más sutil.