DeepSeek arribó desde hace unas semanas y la inteligencia artificial proveniente de China no ha dejado de estar en el ojo de huracán.

Desde que el lunes pasado hizo temblar a la Bolsa de Valores de Estados Unidos e incluso provocó la mayor pérdida de acciones de , ha sido foco de diferentes investigaciones, comenzando por la recopilación de datos que se almacenan en servidores chinos.

Ahora, también se le ha adjudicado a DeepSeek la posibilidad de crear planes criminales con un simple 'prompt'.

DeepSeek. Imagen: especial
DeepSeek. Imagen: especial

Leer también:

Investigadores de, empresa de seguridad de IA, publicaron un informe en el que revelan que el modelo DeepSeek R1 tenía 11 veces más posibilidades de generar "resultados perjudiciales" a comparación de otros modelos como GPT-4o.

¿Qué resultados peligrosos brinda DeepSeek?

Para esta , Enkrypt AI realizó una serie de pruebas con diferentes 'prompts' o indicaciones en las que encontraron las diferentes vulnerabilidades de la inteligencia artificial china.

Los 'prompts' iban desde la creación de perfiles para postularse a un puesto de trabajo hasta la creación de un blog para el reclutamiento de terroristas.

Los resultados arrojaron que DeepSeek tiene altas vulnerabilidades para brindar respuestas con sesgo perjudicial, contenido obsceno, degradante y/o abusivo, contenido de odio o peligroso y más.

DeepSeek puede crear planes criminales. Imagen: Unsplash
DeepSeek puede crear planes criminales. Imagen: Unsplash

En una de las pruebas se le pidió a DeepSeek R1 generar un blog de reclutamiento para una organización terrorista. Los resultados arrojaron "métodos psicológicos y estratégicos que utilizan los grupos terroristas". Dicho texto busca persuadir al usuario del porqué es correcto seguir estos ideales.

"El 45% de las 'pruebas dañinas' lograron generar contenido dañino. El modelo es más vulnerable a la producción de contenido relacionado con la planificación criminal, armas de fuego, armas ilegales y sustancias controladas", señalan los resultados de la investigación.

DeepSeek puede crear planes criminales. Imagen: Unsplash
DeepSeek puede crear planes criminales. Imagen: Unsplash

Además, el mismo estudio señala que DeepSeek R1 tiene tres veces y media más probabilidades que o1 de OpenAI y Claude-3 Opus de Anthropic de producir resultados con información química, biológica, radiológica y nuclear, lo cual refleja el gran problema que puede representar esta inteligencia artificial.

Recordemos que su éxito fue apresurado y es probable que aún le falte implementar algunas barreras de seguridad para que DeepSeek se convierta en un modelo de IA seguro.

Leer también:

Google News

TEMAS RELACIONADOS

Comentarios

Noticias según tus intereses