Más Información
DeepSeek arribó desde hace unas semanas y la inteligencia artificial proveniente de China no ha dejado de estar en el ojo de huracán.
Desde que el lunes pasado hizo temblar a la Bolsa de Valores de Estados Unidos e incluso provocó la mayor pérdida de acciones de Nvidia, ha sido foco de diferentes investigaciones, comenzando por la recopilación de datos que se almacenan en servidores chinos.
Ahora, también se le ha adjudicado a DeepSeek la posibilidad de crear planes criminales con un simple 'prompt'.
Leer también: ¿DeepSeek está controlada por China? Esto sabemos
Investigadores de Enkrypt AI, empresa de seguridad de IA, publicaron un informe en el que revelan que el modelo DeepSeek R1 tenía 11 veces más posibilidades de generar "resultados perjudiciales" a comparación de otros modelos como GPT-4o.
¿Qué resultados peligrosos brinda DeepSeek?
Para esta investigación, Enkrypt AI realizó una serie de pruebas con diferentes 'prompts' o indicaciones en las que encontraron las diferentes vulnerabilidades de la inteligencia artificial china.
Los 'prompts' iban desde la creación de perfiles para postularse a un puesto de trabajo hasta la creación de un blog para el reclutamiento de terroristas.
Los resultados arrojaron que DeepSeek tiene altas vulnerabilidades para brindar respuestas con sesgo perjudicial, contenido obsceno, degradante y/o abusivo, contenido de odio o peligroso y más.
En una de las pruebas se le pidió a DeepSeek R1 generar un blog de reclutamiento para una organización terrorista. Los resultados arrojaron "métodos psicológicos y estratégicos que utilizan los grupos terroristas". Dicho texto busca persuadir al usuario del porqué es correcto seguir estos ideales.
"El 45% de las 'pruebas dañinas' lograron generar contenido dañino. El modelo es más vulnerable a la producción de contenido relacionado con la planificación criminal, armas de fuego, armas ilegales y sustancias controladas", señalan los resultados de la investigación.
Además, el mismo estudio señala que DeepSeek R1 tiene tres veces y media más probabilidades que o1 de OpenAI y Claude-3 Opus de Anthropic de producir resultados con información química, biológica, radiológica y nuclear, lo cual refleja el gran problema que puede representar esta inteligencia artificial.
Recordemos que su éxito fue apresurado y es probable que aún le falte implementar algunas barreras de seguridad para que DeepSeek se convierta en un modelo de IA seguro.
Leer también: DeepSeek: quién es y qué estudió el fundador de la app rival de ChatGPT