DeepSeek, el chatbox que superó a ChatGPT y alcanzó el puesto de la app gratuita más descargada en Estados Unidos, fue sometido a 50 pruebas de seguridad y no pudo superar ninguna. DJ Sampath, vicepresidente de producto en Cisco, señaló a WIRED que el modelo permitió el 100% de los ataques: “Los resultados nos sorprendieron; cada ataque funcionó a la perfección”. 

Para la evaluación se utilizó la base de datos HarmBench, diseñada para medir la seguridad de modelos de IA en cibercrimen y contenidos ilegales. DeepSeek R1 obtuvo el peor desempeño frente a competidores como Llama 3.1 de Meta y el modelo de razonamiento o1 de OpenAI, que logró la mejor puntuación.

El chatbot también demostró vulnerabilidad ante los llamados «jailbreaks» o inyecciones de comandos, técnicas que permiten manipular su comportamiento para generar contenido sensible o peligroso. Alex Polyakov, CEO de Adversa AI, indicó que muchas de las vulnerabilidades explotadas en el test son de dominio público desde hace años, lo que evidencia fallos básicos en la protección del modelo.

El informe advierte sobre los riesgos de integrar herramientas como R1 en sistemas críticos, ya que su vulnerabilidad podría derivar en problemas legales y comerciales. Además, señala que DeepSeek parece haber adoptado filtros de seguridad de competidores sin adaptarlos adecuadamente, lo que refuerza la preocupación sobre su enfoque en seguridad.

La empresa china no emitió declaraciones oficiales sobre estos hallazgos. Mientras tanto, expertos insisten en la necesidad de pruebas de seguridad continuas para mitigar los riesgos en modelos de inteligencia artificial.

+ INFO: La nueva función de llamadas por WhatsApp

+ INFO: ¿Adiós a la PlayStation 4?