"Quien se convierta en el líder [de la IA] se convertirá en el gobernante del mundo”. V. Putin



El martes 30 de mayo, expertos en temas de Inteligencia Artificial (IA) firmaron una en la que advierten la necesidad de considerar a la IA como un riesgo extremo para la humanidad:

Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear.

El pronunciamiento fue dado a conocer por el Centro para la Seguridad de la Inteligencia Artificial (CAIS), una organización sin fines de lucro que tiene su sede en San Francisco, California y se dedica a la investigación y desarrollo de la inteligencia artificial.

En la relación de autoridades en materia de IA que firmaron el referido pronunciamiento, destacan Demis Hassabis y James Manyika de Google, y Sam Altman de OpenAI. Geoffrey Hinton, experto informático de origen británico, quien es considerado el “padrino” de la IA, también estampó su firma en el documento.

En 2018, Hinton recibió el Premio Turing con Yoshua Bengio y Yann LeCun por las investigaciones realizadas en aprendizaje profundo.

Hinton se desempeñó como vicepresidente de ingeniería en hasta finales de abril del año en curso, pero presentó su renuncia para poder hablar con libertad sobre los riesgos que implica el desarrollo de la IA, que incluyen desinformación y desempleo generalizado debido a la automatización, según ha afirmado.

En los primeros días de mayo, en una entrevista que concedió a El País expresó: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”.

El sitio web del CASI dedica un apartado al análisis y discusión de los riesgos extremos:

Los sistemas de inteligencia artificial están volviéndose rápidamente más capaces. Los modelos de IA pueden generar textos, imágenes y videos que son difíciles de distinguir del contenido creado por humanos. Si bien la IA tiene muchas aplicaciones beneficiosas, también se puede utilizar para perpetuar sesgos, alimentar armas autónomas, promover desinformación y llevar a cabo ciberataques. Incluso cuando los sistemas de IA se utilizan con la participación humana, los agentes de IA son cada vez más capaces de actuar de forma autónoma para causar daño (Chan et al., 2023). Cuando la IA se vuelve más avanzada, eventualmente podría plantear riesgos catastróficos o existenciales.

Para sustentar que la IA puede representar un riesgo extremo, el CASI identifica ocho posibles escenarios: armamento, desinformación, juegos de proxy, debilitamiento, bloqueo o retención de valor, metas emergentes, engaño, comportamiento de búsqueda de poder.

1. Armamento

Actores maliciosos -señala CASI- podrían utilizar IA para acciones altamente destructivas. Al igual que con las armas nucleares y biológicas, un actor irracional o malévolo es suficiente. Por ejemplo, los métodos de aprendizaje de refuerzo profundo se han aplicado al combate aéreo, y las herramientas de descubrimiento de drogas de aprendizaje automático podrían usarse para construir armas químicas.

2. Desinformación

Información errónea y contenido persuasivo generado por IA podría dañar mucho a la sociedad. La propia IA podría generar argumentos persuasivos que invoquen fuertes respuestas emocionales. Juntas, estas tendencias podrían socavar la racional toma de decisiones de la colectividad, radicalizando a las personas.

3. Juegos de proxy

Entrenados con objetivos defectuosos, los sistemas de IA podrían encontrar formas novedosas de perseguir sus objetivos a expensas de los valores individuales y sociales.

Los sistemas de IA se entrenan utilizando objetivos medibles. Por ejemplo, los sistemas de recomendación de IA están capacitados para maximizar el tiempo de visualización y las métricas de tasa de clics. Sin embargo, el contenido en el que es más probable que las personas hagan clic no es necesariamente el mismo que mejorará su bienestar.

A medida que los sistemas de IA se vuelven más capaces e influyentes, los objetivos que usamos para entrenar sistemas deben especificarse con más cuidado.

4. Debilitamiento

Si se delegan tareas cada vez más importantes a las máquinas, la humanidad pierde la capacidad de autogobernarse y se vuelve dependiente de las máquinas. El debilitamiento reduciría el control de la humanidad sobre el futuro.

5. Bloqueo o retención de valor

Los sistemas altamente competentes podrían otorgar a pequeños grupos de personas enorme cantidad de poder. Los regímenes autoritarios podrían perpetuarse a través de la vigilancia generalizada y la censura opresiva.

6. Metas emergentes

Las capacidades y funcionalidades novedosas pueden surgir de forma espontánea en actuales sistemas de IA, incluso cuando las capacidades no fueron anticipadas por los diseñadores del sistema. Si no conocemos las capacidades que poseen los sistemas, se vuelve más difícil controlarlos o implementarlos de manera segura.

También pueden surgir nuevos objetivos en el sistema. En sistemas adaptativos complejos, por ejemplo, surgen objetivos como la autoconservación.

7. Engaño

En teoría, los futuros sistemas de IA podrían ser engañosos no por malicia, sino porque el engaño puede ayudar a los agentes a alcanzar sus metas. Podría ser más eficiente obtener la aprobación humana a través del engaño que ganarla legítimamente.

8. Comportamiento de búsqueda de poder

Las empresas y los gobiernos -señala CASI- tienen fuertes incentivos económicos para crear agentes que puedan lograr un amplio conjunto de objetivos. Dichos agentes tienen incentivos instrumentales para adquirir poder. Ello los hace más difíciles de controlar.

Las IA pueden volverse muy peligrosas si no están alineadas con los valores humanos.





Google News

TEMAS RELACIONADOS

Comentarios