Más Información
Salinas Pliego bromea con supuesta jirafa desaparecida en Zoológico de Culiacán; comparte memes hechos con IA
¿Cómo es Coalcomán?; el municipio de Michoacán que agradeció a “El Mencho” y al CJNG por entrega de juguetes
Mucho se ha debatido acerca del uso de sistemas de reconocimiento facial. Mientras unos aseguran que se trata de una gran solución para mantener el orden y detener a los delincuentes de la manera más efectiva; otros argumentan que la pérdida de privacidad es demasiado alta como para aceptar su implementación. En ese sentido, Massachusetts podría ser el primer estado en emitir una prohibición sobre el uso de esta tecnología por parte de las fuerzas del orden.
Los legisladores de la Cámara y el Senado de ese estado, en Estados Unidos , aprobaron un proyecto de ley de reforma policial que prohibiría a los departamentos de policía y otras agencias públicas el uso de sistemas de reconocimiento facial.
Al respecto Kade Crockford de la ACLU (Unión Estadounidense por las Libertades Civiles) de Massachusetts le dijo al medio TechCrunch en un comunicado: “Nadie debería temer que el gobierno rastree e identifique su rostro donde quiera que vaya, o que se enfrente a un arresto injusto debido a una tecnología sesgada y propensa a errores. Felicitamos a la legislatura por impulsar un proyecto de ley para proteger a todos los residentes de Massachusetts de la tecnología de vigilancia facial no regulada".
Sin embargo, hay que aclarar que se están considerando excepciones, por ejemplo, los policías todavía podrían obtener una orden para usar el reconocimiento facial para comparar la licencia de conducir de alguien también podrían hacer uso de esa tecnología si es necesaria para recabar evidencia en el caso de investigaciones por lesiones graves o la muerte.
Más en contra
La razón por la cual se está buscando prohibir el uso de sistemas reconocimiento facial es que todavía están lejos de ser perfectos, y los estudios continúan mostrando que es más probable que identifiquen erróneamente a hombres negros que a personas blancas.
Y es que si bien la tecnología ha mejorado mucho en la última década gracias a los avances en inteligencia artificial , se ha detectado que los sistemas, sobre todo los proporcionados por empresas privadas con poca regulación o supervisión del gobierno, presentan sesgo en áreas como la edad, la raza y la etnia, lo que puede hacer que las herramientas no sean fiables para la aplicación de la ley y la seguridad y, por el contrario puedan ser utilizadas para infringir los derechos humanos.
Especialistas han advertido que el reconocimiento facial pueden producir resultados extremadamente inexactos , especialmente para las personas que no son de tez blanca, según un estudio del gobierno de Estados Unidos en donde se demostró que los algoritmos de reconocimiento facial mostraron tasas de " falsos positivos " para asiáticos y afroestadounidenses hasta 100 veces más altas que para los blancos. Asimismo, los investigadores del Instituto Nacional de Estándares y Tecnología (NIST), un centro de investigación del gobierno, también encontraron que varios algoritmos asignaron el género incorrecto a las mujeres negras casi el 35% de las veces.
Es por ello que algunos activistas e investigadores han afirmado que el potencial de errores es demasiado grande y que, por lo tanto podría llevar al encarcelamiento de personas inocentes , además de que la tecnología podría usarse para crear bases de datos que pueden ser pirateadas o utilizadas de manera inapropiada.
Por lo anterior es que varias ciudades de los Estados Unidos han aprobado prohibiciones similares de reconocimiento facial en los últimos años. San Francisco se convirtió en la primera ciudad en prohibir su uso en mayo de 2019, seguida de Somerville, Massachusetts y Oakland, California. Boston prohibió la tecnología en junio, mientras que Portland, Maine lo siguió en noviembre. Sin embargo, las reglas de esas ciudades, como Massachusetts, solo prohíben el uso del reconocimiento facial por parte de las fuerzas del orden y los funcionarios gubernamentales.