La historia nos permite constatar que, de todas las tecnologías se desprenden beneficios y, por supuesto, nuevos y grandes problemas. Todas las tecnologías transforman la ecología cultural de las sociedades.

La IA no es un territorio de excepción.

La Inteligencia Artificial (IA), efectivamente puede reportar enormes beneficios a las sociedades, pero también puede generar enormes daños.

Si no imponemos y efectivos controles a la IA, su desarrollo podría representar un riesgo extremo, incluso letal para la especie humana, como sostiene el Centro para la Seguridad de la Inteligencia Artificial (CAIS), una organización sin fines de lucro que tiene su sede en San Francisco, California y, que se dedica a la investigación y desarrollo de la IA.

El CAIS incluso ha comparado a la IA con los letales efectos que arrojan las pandemias y con la terrible eventualidad de una guerra nuclear.

Geoffey Hinton, quien es considerado como el “padrino” de la IA, tanto en algunos artículos que ha publicado en fechas recientes en las más autorizadas revistas científicas, como en entrevistas que ha concedido a importantes medios de comunicación, ha advertido sobre los graves riesgos que puede representar la IA descontrolada.

A Hinton, en primer lugar preocupa que el desarrollo de la IA sea tan acelerado, que dificulte el control de los riesgos potenciales.

Hinton identifica como principales problemas a la la militarización y el desempleo masivo.

En cuanto a la desinformación, advierte que los sistemas de IA generativa pueden ser utilizados para crear contenido falso que sea indistinguible del contenido real. La IA puede generar una realidad impostada para millones de personas.

Por lo que toca a la militarización, señala que la IA podría utilizarse para desarrollar armas autónomas que sean capaces de matar sin intervención humana. El coctel armas nucleares, químicas e IA representa una amenaza latente. Los efectos del bioterrorismo pueden ser devastadores.

Y en lo relativo al desempleo, podemos advertir como los sistemas de IA han automatizado muchas de las tareas que antes solo eran realizadas por humanos. En un futuro inmediato, millones de personas podrían perder su trabajo.

Hinton considera indispensable que la comunidad científica y la sociedad en general trabajen juntos para desarrollar la IA de forma responsable.

Los sistemas de inteligencia artificial han incrementado rápidamente sus capacidades, sorprendiendo, incluso, a los principales expertos en temas de IA. La comunidad científica quizá no había considerado la factibilidad de un desarrollo tan acelerado.

Los modelos de IA pueden generar textos, imágenes, sonidos y videos que resultan difíciles de distinguir del contenido que ha sido creado por seres humanos.

La suplantación de voz, por ejemplo, es una técnica que permite generar registros de audio prácticamente idénticos a los de cualquier persona real.

Si bien los sistemas y plataformas de suplantación de voz reportan relevantes ventajas en el desarrollo de los asistentes virtuales, también algunas de sus repercusiones resultan preocupantes debido al uso que admiten en el imaginario criminológico.

Las técnicas de suplantación de voz pueden ser utilizadas para cometer un gran número de delitos, desde la creación de audios falsos hasta fraudes telefónicos. Las aplicaciones delictivas además incluyen videos falsos -deepfakes-.

En el desarrollo de campañas políticas sustentadas en propaganda sucia, el deepfake es empleado como un efectivo recurso para afectar la imagen pública y la reputación de políticos e instituciones.

Sin embargo, los riesgos potenciales que se desprenden del acelerado desarrollo de la IA van más allá de los posibles usos que admite en un renovado imaginario delictivo.

Los medios informativos parecen preocuparse más por las posibles contribuciones de la IA en el imaginario delictivo. En cambio, la comunidad científica ha expresado su preocupación sobre las graves amenazas que pueden desprenderse de la IA. Ambas miradas, razonables, suponen diálogo y convergencia.

A mediados de septiembre, tres destacados investigadores en el CAIS -Dan Hendrycks, Mantas Mazeika y Thomas Woodside publicaron un agudo informe sobre el repertorio de grandes amenazas que pueden derivarse del desarrollo de la IA sin control -An Overview of Catastrophic AI Risks-.

Los científicos han advertido el peligro que puede representar que los agentes de IA puedan actuar de forma autónoma para causar daño. Cuando la IA se vuelva más avanzada -alertan- podría representar riesgos catastróficos o existenciales.

El referido estudio comprende 54 páginas que incluyen 143 fuentes citadas. Se trata de un documento sintético, directo, riguroso.

La conclusión es preocupante. La IA, sin control, puede convertirse en la peor pesadilla de la humanidad.

En el mes de junio, Hinton nos había advertido: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.

¿Estaremos a tiempo?



Google News

TEMAS RELACIONADOS

Comentarios