En los últimos años se ha acelerado el desarrollo de la Inteligencia Artificial (IA) . Ya se han realizado diversas pruebas y estudios que han comprobado su efectividad en diversas áreas. Hoy se aplica para cuidar el medio ambiente , hacer diagnósticos médicos y predecir escenarios. Sin embargo, la Unión Europea considera que representa altos riesgos por lo que está evaluando una legislación que prohibiría su uso en algunos escenarios.
El tema del uso de la IA ha generado debate en todo el mundo. Muchos gobiernos están debatiendo los alcances y buscando una regulación adecuada para esta tecnología . Pero la Unión Europea destaca porque está planeando una legislación única en su tipo que pondría límites estrictos a estos sistemas.
La Comisión Europea , la rama ejecutiva del organismo, dio a conocer que trabaja en un enfoque regulatorio de cuatro niveles que agrupa el software de IA en categorías de riesgo separadas y aplica un nivel diferente de regulación a cada una.
Riesgo inaceptable
En la parte superior estarían los sistemas que plantean un riesgo "inaceptable" para los derechos y la seguridad de las personas. La UE prohibiría rotundamente este tipo de algoritmos en virtud de la legislación propuesta por la Comisión. Un ejemplo de software que entraría en esta categoría es cualquier IA que permita a gobiernos y empresas implementar sistemas de puntuación social .
Riesgo alto
Debajo hay una categoría para las llamadas IA de alto riesgo. Esta sección es la más amplia en términos de variedad de software incluido y límites propuestos. La Comisión dice que estos sistemas estarán sujetos a una regulación estricta que abarcará todo, desde el conjunto de datos utilizado para capacitarlos hasta lo que constituye un nivel apropiado de supervisión humana y cómo transmiten información al usuario final, entre otras cosas.
En dicha categoría se incluyen las IA relacionadas con la aplicación de la ley y todas las formas de identificación biométrica remota . Señala por ejemplo que no se permitiría a la policía utilizar el reconocimiento facial en espacios públicos, aunque la UE establecería algunas excepciones por motivos de seguridad nacional y similares.
Riesgo limitado
Luego hay una categoría para IA de riesgo limitado como chatbots . La legislación requerirá que estos programas revelen a los usuarios cuando están hablando con una IA y no con un humano para que puedan tomar una decisión informada sobre si desea continuar usándolos o no.
Riesgo mínimo
Por último, hay una sección para programas que presentan un riesgo mínimo para las personas. La Comisión dice que la "gran" mayoría de los sistemas de inteligencia artificial se incluirán en esta categoría. Los sistemas que se mencionan en esta sección contemplan sistemas como filtros de correo no deseado. Y, en este caso, los legisladores no planea imponer regulaciones.
A la vanguardia
Al respecto de esta propuesta el comisionado de Mercado Interior, Thierry Breton, señaló en un comunicado: "La IA es un medio, no un fin. Las propuestas tienen como objetivo fortalecer la posición de Europa como un centro global de excelencia en IA desde el laboratorio hasta el mercado, garantizar que la tecnología respete nuestros valores y reglas, y aprovechar el potencial de la IA para uso industrial".
Si bien es probable que la UE tarde años en debatir e implementar la legislación, podría hacer que las empresas enfrenten multas de hasta el 6% de sus ventas globales por infringir las reglas. Habrá que esperar para ver si se aprueba y cómo, pero valea pena decir que la UE ya tiene algunas de las políticas de privacidad de datos más estrictas del mundo, la GDPR y está considerando medidas similares cuando se trata de moderación de contenido y leyes antimonopolio.