Si bien la tecnología de reconocimiento facial puede resultar útil para mantener la seguridad en las ciudades, su uso también supone un debate sobre los riesgos de perder la privacidad y precisamente por ello es que un grupo de padres en Estados Unidos logró que estos sistemas dejen de utilizarse en las escuelas , al menos de manera temporal.
A principios de este año un distrito escolar del norte del estado de Nueva York adoptó la tecnología de reconocimiento facial, esto llevó a un grupo de padres a interponer una demanda por medio de la Unión de Libertades Civiles de Nueva York. Gracias a ello el estado votó esta semana para pausar cualquier implementación de este tipo de sistemas.
La nueva regla aprobada por la Asamblea y el Senado de Nueva York prohibirá el uso de cualquier sistema escolar de reconocimiento facial en el estado hasta el 1 de julio de 2022.
La decisión fue vista como una gran victoria por los defensores de la privacidad digital quienes han externado sus preocupaciones sobre el uso de estos sistemas para la vigilancia de las personas afectando directamente las libertades civiles. Además han cuestionado la efectividad de esta tecnología que ha sido criticada repetidamente en estudios donde se demuestran altas tasas de falsos positivos y prejuicios raciales codificados en los propios sistemas.
Sobre el tema Stefanie Coyle, subdirectora del Centro de Política Educativa de NYCLU, dijo: "Hemos dicho durante años que el reconocimiento facial y otras tecnologías de vigilancia biométrica no tienen cabida en las escuelas, y este es un salto monumental para proteger a los estudiantes de este tipo de vigilancia invasiva . Las escuelas deben ser un entorno en el que los niños puedan aprender y crecer, y la presencia de un sistema defectuoso y con prejuicios raciales que supervisa constantemente a los estudiantes no lo hace imposible".
Por ahora la prohibición solo aplicará en Nueva York, sin embargo, podría ser un tema a debatir en más estados pues aunque podría ser una de las soluciones para el regreso a clases, no deja de preocupar que las escuelas almacenen y tengan acceso a información tan delicada.
Un ejemplo de quienes ven esta tecnología como una opción, de acuerdo con TechCrunch es un distrito escolar en Kansas que anunció que emplearía estos sistemas en un quiosco de control de temperatura para el personal como parte de su plan para reabrir las escuelas. El problema es que esta acción no es efectiva para detectar el virus en personas asintomática por lo que la propagación de Covid-19 podría seguir.
Al respecto de esta iniciativa, la directora de la campaña de Lucha por el Futuro, Caitlin Seeley George, expresó: "Las compañías de reconocimiento facial utilizarán cualquier ángulo que puedan para comercializar su producto en las escuelas, pero esto es absolutamente ridículo. El reconocimiento facial no detendrá la propagación de Covid-19 , y las escuelas no deberían comprar esta idea".
Lee también: ¿Con tecnología de reconocimiento facial se puede predecir quién es un delincuente?
En contra de la vigilancia masiva
La tecnología de reconocimiento facial ha generado tanto debate que incluso compañías que estaban impulsando su desarrollo decidieron detener sus investigaciones. Tal es el caso de IBM que, por considerar estos sistemas pueden ser utilizados para casos como vigilancia masiva anunciaron que ya no ofrecerán este tipo de software .
Hace un mes, en una carta enviada al Congreso de los Estados Unidos, el CEO de IBM , Arvind Krishna expresó: "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y principios de confianza y transparencia".
En la opinión de la compañía, si se quiere seguir desarrollando este tipo de software de análisis facial es necesario impulsar un diálogo para tratar las implicaciones éticas además del sesgo demostrado en áreas como la edad y la etnia que podría significar que las herramientas no sean fiables para la aplicación de la ley y la seguridad.