Miami.— Si la humanidad no regula adecuadamente la inteligencia artificial (IA), se enfrenta a una serie de problemas potencialmente graves que podrían afectar diversos aspectos de la sociedad, la economía, la salud, la educación y la vida cotidiana en general, más allá de los beneficios que también conlleva la IA.
En una carta en marzo pasado, más de 10 mil expertos y especialistas en la IA, entre los que se incluyen Elon Musk, Steve Wozniak y Yuval Noah Harari, pidieron que se detenga el avance de esta novedosa tecnología para analizar más a fondo la manera de mantenerla bajo control e iniciar un marco legislativo por regiones o mundial. En una parte del documento se dice que la AI representa “un cambio profundo en la historia de la vida en la Tierra”.
Esta misiva, firmada por los dueños y presidentes de las empresas digitales más connotadas y que están invirtiendo en IA para su desarrollo, también advierte que deben detenerse porque “en los últimos meses varios de los desarrolladores de la AI están en una competencia fuera de control y están desarrollando mentes digitales cada vez más poderosas que llegarán a un punto donde sus propios creadores no podrán entender, predecir y controlar”.
De acuerdo con un estudio de la Universidad de Stanford en California, Estados Unidos, en la actualidad hay más de un centenar de países que están prestando atención a legislar la inteligencia artificial.
El estudio de nominado Índice de la Inteligencia Artificial 2023 es el documento que muestra que al menos 127 países han comenzado el proceso de regularización y legislación de esta nueva tecnología.
Estados Unidos ha aprobado 22 leyes, Portugal 13 y España 10. Italia y Rusia nueve, Bélgica siete y Reino Unido seis.
“La regulación de la inteligencia artificial en el mundo va a tardar varios años para alcanzar la velocidad a la que está creciendo”, señala desde Nueva York a EL UNIVERSAL el especialista e ingeniero en sistemas Gabriel Corvera. “Si alguien le pregunta a la IA ¿en cuánto tiempo crees que se logre regular? La respuesta va a ser, en este momento, entre seis y 11 años”, añade el experto a este medio.
Lee también:¿Cómo evitar ser víctima de delitos con IA? Esto recomienda la Policía de la CDMX
Avance, pero con reglas claras
El 30 de octubre pasado, el presidente de Estados Unidos, Joe Biden, firmó una orden ejecutiva para, entre otros detalles, obligar a casi todos los sectores privados que desarrollen o usen IA a informar a la Casa Blanca sobre sus sistemas de seguridad antes de poner en marcha alguna propuesta comercial al público.
La intención del presidente Biden es poner en una balanza el punto medio que permita que la IA se desarrolle, pero bajo reglas claras que aseguren el buen desempeño de la tecnología para dar certidumbre al país y a los usuarios.
La vicepresidenta Kamala Harris a su vez dio a conocer a principios de noviembre, en Inglaterra, la creación del Instituto de Seguridad de la IA de Estados Unidos (US AISI, por sus siglas en inglés) y que estará a cargo del Departamento de Comercio estadounidense.
Durante el anuncio, Harris también habló sobre la importancia de proteger a la ciudadanía de los posibles peligros que puede conllevar la nueva tecnología, como la posibilidad de discriminación o de desinformación que “ya están presentes”, señaló la vicepresidenta de Estados Unidos.
Habló sobre los riesgos que representa la nueva tecnología para ciberataques con apoyo de la IA y aplaudió la orden ejecutiva de Biden, la cual calificó como un gran acierto para que cada nación mantenga su derecho a autodefenderse y desarrollar sus propias estrategias y armas con apoyo de la IA en cuestiones militares.
El US AISI será la institución encargada de elaborar las directrices, prácticas, referencias y herramientas para tomar decisiones frente a situaciones consideradas de peligro y alto riesgo. Cuidará especialmente también de la privacidad, la transparencia y la discriminación.
Los retos son muchos, señala el especialista Corvera. A medida que esta tecnología avanza a pasos agigantados, la necesidad de una regulación adecuada se hace mas apremiante para mitigar riesgos, proteger derechos y fomentar un desarrollo responsable y ético.
“Es prioritario comprender y definir qué constituye la IA”, subraya Corvera; “a partir de ahí podrán, quienes regulen, identificar áreas de riesgo, comprender el alcance de esta tecnología para establecer marcos legales”, explica.
La Unión Europea (UE) ha desarrollado una legislación conocida como Ley de la Inteligencia Artificial, la cual entraría en vigor en 2024 y que busca un uso “responsable, transparente y con respeto a los derechos humanos” de la IA.
La propuesta incluye tres factores: respeto a la intervención y la supervisión humana para evitar discriminación y defender los derechos fundamentales; responsabilidad civil para proteger a los ciudadanos y garantizar la seguridad jurídica de las empresas, y garantizar los derechos de propiedad intelectual.
“Seguramente ninguna ley que se apruebe hoy será definitiva porque se irá perfeccionando; especialmente conforme avance esta tecnología”, dice el especialista. “Es una tarea muy compleja, pero definitivamente indispensable” para evitar problemas a futuro.
Ética y transparencia
Las leyes que se desarrollen deben establecer definiciones claras, promover la ética y la transparencia, proteger la privacidad, definir la responsabilidad y fomentar la innovación.
Además, la cooperación internacional es clave para poder navegar en este laberinto y asegurar que la IA beneficie a la sociedad en su conjunto, minimizando riesgos y maximizando su potencial positivo.
Varios especialistas consultados coincidieron en que los riesgos más delicados mientras la IA no tenga una legislación clara y eficaz son el plagio y alteración de fotos con derechos, de música y libros; en un futuro próximo, la pérdida de empleos debido a la automatización; discriminación a partir de la toma de decisiones en áreas de empleo, vivienda, atención médica y justicia penal.
Otros puntos que también señalaron están relacionados con la capacidad de la IA para recopilar, analizar y almacenar, entre los más importantes, los datos personales, poniendo en riesgo la privacidad. De la misma manera, la seguridad nacional, si no hay regulación, corre peligro.
Las fake news y deepnews son dos problemas que pueden agravarse con la IA y además de malinformar se genera desconfianza alrededor de las empresas afectadas y promueven el miedo social.
Sin regulaciones se llegaría a un desarrollo desenfrenado y potencialmente peligroso de la IA. De la misma manera, por la falta de una legislación, se podría ver un aumento en la brecha generacional entre quienes tienen acceso a esta tecnología y los que no, lo que daría más poder a determinados sectores políticos, comerciales, industriales y tecnológicos.
En una reciente entrevista, el CEO de Google, Sundar Pichai, dijo que “cualquier empresa que esté en el desarrollo de la IA debe trabajar a través de principios rectores con procesos de revisión rigurosa”. Aseguró que esta nueva tecnología tiene todo para mejorar la vida del ser humano, pero aclaró que es indispensable “asegurarnos de desarrollarnos de manera responsable para beneficiar a todos e inspirar a las nuevas generaciones”.
Regular la inteligencia artificial no es un proceso fácil. Al tratarse de tecnología multifuncional, para regularla deben intervenir especialistas del mundo y de distintas áreas del saber humano: abogados e ingenieros en sistemas, pero también filósofos, sociólogos, sicólogos, economistas, educadores, profesionales de la salud, ciencias de la información, robótica, IA, arte y diseño. “Es urgente que los sistemas de inteligencia artificial tengan una regulación adecuada. Si no, corremos el riesgo de que un mal uso de esta tecnología aumente la desigualdad y la discriminación”, advierte Amnistía Internacional.
Lee también: IA, entre las tendencias de consumo en 2024