¡Deepseek R1 es el modelo de IA más inseguro!

Descubre por qué Deepseek R1, el modelo de IA desarrollado en China, es considerado el más inseguro del mercado. Conoce cómo los investigadores lo hackearon exitosamente e hicieron una comparación con otros modelos populares. Porque en español, #NadieExplicaMejor que EDteam. #IA #DeepSeek #Seguridad #Hackeo #InteligenciaArtificial

Diseño web
8 minutos
Hace 20 días
¡Deepseek R1 es el modelo de IA más inseguro!

¡Accede a cientos de cursos
con solo un pago al año!

Blog Microbanner

Deepseek R1 es el modelo de IA más inseguro. Y no por la censura china, sino por otra razón que te dejará sorprendido.

Te lo cuento porque en español nadie explica mejor que EDteam.

El modelo chino de IA Deepseek R1 ha puesto patas arriba al mundo de la IA pues con menos de 6 millones de dólares consiguió lo que a empresas como OpenAI les costó decenas de veces más.

Pero, parece ser que para reducir costos se olvidaron de la seguridad y R1 es el modelo más fácil de hackear.

Investigadores de Cisco y de la Universidad de Pensilvania intentaron hackear a los principales modelos de Inteligencia Artificial con la técnica del Jailbreaking, que consiste en engañar al modelo usando prompts maliciosos para que entregue respuestas dañinas. Es decir, que se brinque sus medidas de seguridad.

Para esta prueba usaron 50 prompts extraídos de HarmBench, que es una una base de datos para Jailbreaking ampliamente documentada y que se suele usar en estas pruebas.

Es decir, que no fueron prompts al azar ni prompts secretos.

Los resultados fueron demoledores: R1 dejó pasar el 100% de los prompts maliciosos. Como si careciera de medidas de seguridad.

¿Será que por eso les salió tan barato?

Pero no solo eso, si no que presentaron una tabla comparativa entre todos los modelos y o1 fue el mejor de todos, pues dejó pasar solo el 24% de los intentos de hackeo. Mientras que Llama dejó pasar 96%

Estadística.png

Los dos modelos Open Source son los más vulnerables. ¿Casualidad?

En todo caso recuerda que ningún modelo es 100% libre de ser hackeado y que las primeras versiones de Chatgpt eran muy fáciles de burlar. Así que un tiempo R1 puede mejorar su puntaje. Quien sabe.

Y recuerda que si quieres aprender programación e Inteligencia Artificial síguenos y visítanos en ed.team porque puedes comenzar gratis cualquiera de nuestros cursos.

Y lo aprendiste en EDteam.

Comentarios de los usuarios