El pasado 1 de agosto en la ciudad de Washington, la prestigiosa agencia de Ciberdefensa de los Estados Unidos (CISA por sus siglas en inglés), nombró a Lisa Einstein como la primera Chief Artificial Intelligence Officer de CISA dentro de la NSA norteamericana.
El foco principal de Kennedy será ponderar los riesgos que los avances de la Inteligencia Artificial en manos de ciberdelincuentes pueden tener en manos de ciberdelincuentes con intención de afecta la infraestructura crítica de los Estados Unidos (rel eléctrica, acuífera, energética, y cada vez más, de información).
Pero porque ahora se vuelve fundamental para el FBI, CISA y la NSA atender con mucho mas foco estos riesgos?
En la más reciente edición de la respetada conferencia de ciberseguridad RSA 2024, los expertos en distintos campos evaluaron no sólo el avance de la Inteligencia Artificial sino en términos muy concretos discutir cómo el contenido sintético afecta el día de hoy ya nuestras vidas.
Como antecedente están relevantes declaraciones de líderes mundiales se han pronunciado al respecto, asegurando que hay una carrera global por las armas con Inteligencia Artificial (AI) en camino. Vladimir Putin, de Rusia asegura que quien lidere el camino de AI gobernara el mundo, mientras que China asegura que se convertirá en el centro de innovación de Inteligencia Artificial para 2030.
Hoy en día con la inteligencia artificial es muy sencillo recrear textos, imágenes, voces e incluso videos de momentos, personajes e historias que de verdad no existieron. La categoría ya tiene un nombre: contenido sintético o deepfakes en inglés y se está convirtiendo en una pesadilla por las implicaciones que tiene no solo en el mundo de ciberdefensa, sino también en el jurídico, o incluso su rol en la paz mundial.
Hace unos días tuvo lugar en San Francisco la renombrada conferencia de ciberseguridad RSA 2024, los expertos en distintos campos del avance de la Inteligencia Artificial se dieron cita para discutir en términos muy concretos como el contenido sintético afecta el día de hoy ya nuestras vidas.
Para entender mejor de lo que estamos hablando, te comparto aquí dos videos que muestran el poder que está hoy en las manos de quien contrate servicios de contenido sintético:
Estos deepfakes, más allá de crear contenidos ágiles y de creatividad ilimitada, si se usan para propósitos maliciosos, como emitir una “orden” para pedir a tus soldados que se retiren del campo de batalla en Ucrania pueden tener consecuencias desastrosas.
Los 4 expertos que RSA reunió, desde el FBI hasta abogados resúmen de la siguiente manera los riesgos que a ellos, les quitan el sueño:
- Evidencia en Juzgados: La gran mayoría de sistemas jurídicos globales, no están habilitados para identificar un contenido sintético de uno verídico, y, día tras día el riesgo de presentar fotos y videos creados con AI es real. California, por ejemplo, ya está pasando una ley para que existan peritajes de la veracidad de estos contenidos, sin embargo no es tarea fácil, ya que en sistemas jurídicos basados en jurados, las implicaciones de exponerse a contenido sintético en video son humanamente irreversibles.
- Robos de Identidad: Las herramientas hoy permiten a usuarios maliciosos recrear pasaportes, licencias, y todo tipo de identificaciones apócrifas en muchos países del mundo, así como identidades digitales, permitiendo robar tu identidad y recrearla en minutos y con unos cuantos dólares. Las implicaciones de robo de identidad abren posibilidades muy graves para actores maliciosos quienes pueden utilizarla para múltiples actos dañinos para el afectado; desde identificarse falsamente para cometer un delito grave, hasta obtener millonarios préstamos a tu nombre, las posibilidades para los atacantes son muchas.
- Intromisión en Elecciones, y Grupos Radicales. Desde 2016, con la presunta intervención de Rusia en las elecciones de los Estados Unidos, empezamos a ver una prueba de lo que la desinformación puede crear de confusión y polarización electoral. En 2024, 3 Billones de personas en el mundo elegirán un cambio de gobierno, y las herramientas de hoy permiten en todo momento crear y distribuir información sintética a favor o en contra de cualquier candidato basados en mentiras donde la imaginación es el límite. India 2024, con 1 billón de electores, y 800,000 de ellos con smartphone, todos los dias se distribuye contenido sintético recreando videos de celebridades de Bollywood avalando o atacando frontalmente a sus candidatos, distribuido por sistemas de mensajería (whatsapp, telegram, etc); el ciudadano simplemente no tiene manera de discriminar la veracidad de este contenido, que de la boca de su celebridad favorita es altamente creíble. En grupos radicales las implicaciones son aún peores, ya que las consecuencias de la distribución de contenido sintético delicado ya está costando vidas en varios países por el efecto de radicalización.
- Robots asesinos. Las armas autónomas, manejadas por un piloto que es Inteligencia artificial, es la peor pesadilla en cualquier escenario de confrontación bélica. No hay un “soldado” que cuidar, y el margen de potencial error es casi nulo. Según el General Brigadier y asesor de IA de los Estados Unidos Patrick Huston, no tenemos ninguna oportunidad frente a esas armas.
Queda mucho por escribir del desarrollo de IA y sus implicaciones, sin embargo, las medidas para evitar ser afectado por el uso malicioso de esta tecnología todavía no existen o son muy prematuras y la línea de lo que es real y lo que es sintético está cada vez más tenue, por lo que nos vienen años muy confusos. La precaución y un gran escepticismo serán herramientas útiles para navegar un futuro donde engañarnos es cada vez más fácil.
CEO y Socio fundador de NEKT, empresa especializada en servicios de ciberseguridad. www.nektcyber.com
manuel@nektgroup.com @mriveraraba