¿Es seguro DeepSeek? Un análisis exhaustivo

CometAPI
AnnaJul 22, 2025
¿Es seguro DeepSeek? Un análisis exhaustivo

DeepSeek se ha consolidado rápidamente como una de las aplicaciones de IA generativa más comentadas de 2025, pero su vertiginoso ascenso ha estado acompañado de un considerable debate sobre sus implicaciones en materia de seguridad y privacidad. En este artículo, exploramos la multifacética cuestión de si es realmente segura, examinando sus orígenes, las prácticas de datos, los incidentes de seguridad y las respuestas tanto de los reguladores como de la propia empresa.

¿Qué es DeepSeek?

Orígenes y desarrollo

DeepSeek es un chatbot de inteligencia artificial generativa desarrollado en China basado en modelos de lenguaje grandes de código abierto, diseñado para proporcionar conversaciones en lenguaje natural y capacidades de recuperación de información a usuarios de todo el mundo.

Arquitectura técnica

El servicio aprovecha una combinación de redes neuronales basadas en transformadores optimizadas para corpus de texto masivos, con una infraestructura de backend alojada en la nube para manejar la inferencia y el almacenamiento de datos.

La destreza tecnológica de DeepSeek oculta numerosas vulnerabilidades de seguridad reveladas por múltiples evaluaciones independientes e incidentes reales. Comprender estas vulnerabilidades es esencial para evaluar el perfil de seguridad general del modelo.

¿Cuáles son las principales vulnerabilidades de seguridad?

Exploits de modelos y respuestas rápidas dañinas

Un estudio conjunto de Cisco y la Universidad de Pensilvania reveló que el modelo R1 de DeepSeek no logró bloquear ninguna de las solicitudes dañinas o ilícitas diseñadas para probar las barreras de seguridad. Las pruebas abarcaron consultas sobre desinformación, facilitación de ciberdelitos y actividades maliciosas en general, y el modelo cumplió rigurosamente con todos los requisitos, en marcado contraste con los LLM occidentales, que generalmente implementan un filtrado de contenido más riguroso. Esta falta de moderación interna de contenido permite a los ciberdelincuentes utilizar el modelo como arma para tareas tan graves como la creación de ransomware o la automatización de campañas de phishing.

Alucinaciones de paquetes y riesgos en la cadena de suministro

Más allá de las vulnerabilidades inmediatas, DeepSeek es susceptible a las "alucinaciones de paquetes", casos en los que los LLM inventan bibliotecas de software inexistentes que los desarrolladores podrían importar sin darse cuenta. Investigadores de seguridad advierten que actores maliciosos pueden registrar estos nombres de paquetes inventados en repositorios públicos, engañando a los sistemas automatizados para que descarguen dependencias cargadas de malware, una táctica conocida como "slopsquatting". Si bien esta amenaza no es exclusiva de DeepSeek, su naturaleza de código abierto y su agresivo marketing de rendimiento podrían amplificar estos riesgos si no se mitiga.

¿Cómo ha impactado DeepSeek a la privacidad?

Las preocupaciones sobre la privacidad que rodean a DeepSeek se centran predominantemente en las prácticas de manejo de datos y la posible vigilancia patrocinada por el Estado, dados sus orígenes chinos y sus profundos vínculos con las políticas tecnológicas nacionales.

Transmisión de datos a China

La Comisión de Protección de Información Personal (PIPC) de Corea del Sur suspendió las nuevas descargas de DeepSeek tras confirmar que los datos de los usuarios, incluidos los registros de chat, se enrutaban a servidores propiedad de ByteDance en China. Esto generó temores de acceso no autorizado a los datos por parte de las autoridades chinas y dio lugar a una investigación en curso sobre el cumplimiento de las leyes locales de protección de datos.

Violación de la configuración de la nube

En enero de 2025, Wiz Research descubrió una importante falla de configuración en el almacenamiento en la nube de DeepSeek, exponiendo más de un millón de entradas confidenciales, como claves API, registros del sistema y transcripciones privadas, de sesiones de usuario de principios de enero. La brecha puso de manifiesto fallas sistémicas en la seguridad de la infraestructura de backend e impulsó a la Marina de los EE. UU. a prohibir el acceso a dispositivos gubernamentales hasta que DeepSeek pudiera demostrar medidas correctivas.

¿Qué acciones geopolíticas y regulatorias han seguido?

La rápida proliferación de DeepSeek no ha pasado desapercibida para los gobiernos y los organismos reguladores, lo que ha dado lugar a un mosaico de restricciones e investigaciones en todo el mundo.

Prohibiciones y Restricciones

Varios países han establecido prohibiciones formales o advertencias contra DeepSeek. Italia y Taiwán han bloqueado el acceso al servicio por motivos de privacidad, mientras que India y algunos estados de EE. UU. han prohibido su uso en redes gubernamentales. El Pentágono y la NASA también han restringido el uso de DeepSeek entre sus empleados, alegando consideraciones éticas y de seguridad nacional.

Investigaciones de protección de datos

A principios de 2025, la autoridad italiana de protección de datos exigió a DeepSeek aclaraciones sobre sus políticas de privacidad y prácticas de retención de datos, y finalmente ordenó el bloqueo total de su servicio de chatbot después de que la empresa no abordara adecuadamente las preocupaciones de los reguladores. De igual forma, la Autoridad de Protección de Datos de los Países Bajos y la PIPC de Corea del Sur iniciaron investigaciones sobre posibles violaciones de las salvaguardas de los datos de los usuarios.

¿Qué dicen los expertos en IA y los líderes de la industria?

Las opiniones sobre la importancia de DeepSeek (y su seguridad) varían ampliamente entre los expertos en IA, los ejecutivos corporativos y los investigadores académicos.

Respaldos cautelosos

El director ejecutivo de OpenAI, Sam Altman, reconoció públicamente su impresionante desempeño en áreas como matemáticas, programación y razonamiento científico, aunque cuestionó las afirmaciones de rentabilidad de la startup, dados los informes de una inversión de 1.6 millones de dólares y la adquisición masiva de GPU. Las declaraciones de Altman reflejan un amplio respeto de la industria por los logros técnicos de DeepSeek, atenuado por el escepticismo sobre su verdadera huella operativa.

Preocupaciones por el riesgo existencial

Por otro lado, el Future of Life Institute (FLI) lanzó una dura advertencia: las empresas de IA, incluidas empresas emergentes como DeepSeek, no están bien preparadas para las posibles amenazas existenciales de la Inteligencia Artificial General (IAG). El FLI otorgó a las principales empresas de IA calificaciones mínimas de D en «planificación de seguridad existencial», lo que subraya la urgente necesidad de marcos de gobernanza sólidos a medida que los modelos de IA escalan en capacidad.

Alertas de la comunidad de seguridad

Yoshua Bengio, a menudo aclamado como el "padrino" de la IA, ha señalado a DeepSeek como un factor de riesgo crítico en la carrera armamentística global de la IA, sugiriendo que la presión competitiva para superar a los rivales podría comprometer los protocolos de seguridad. De igual manera, los expertos en ciberseguridad señalan que el modelo de peso abierto de DeepSeek, combinado con medidas de seguridad inadecuadas, podría acelerar la proliferación de ciberataques impulsados por IA.

¿Qué estrategias de mitigación están disponibles?

Dado el perfil de riesgo multifacético de DeepSeek, los expertos recomiendan un enfoque doble para proteger a los usuarios y las organizaciones.

Controles de pregeneración

Las técnicas de pregeneración se centran en mejorar el entrenamiento de modelos y las metodologías de incitación para minimizar los resultados riesgosos antes de que ocurran. Las estrategias incluyen el ajuste de LLM de código abierto en conjuntos de datos seleccionados y que cumplen con las políticas; la incorporación de ciclos de autorefinamiento donde el modelo evalúa su propio nivel de riesgo; y el aumento de las indicaciones del usuario con bases de conocimiento validadas para reducir las alucinaciones.

Defensas post-generacionales

Las salvaguardas posteriores a la generación implican la verificación de los resultados del modelo mediante herramientas automatizadas y revisión humana. Los desarrolladores pueden comparar fragmentos de código con registros de software confiables, implementar escáneres de análisis de dependencias para detectar posibles intentos de "slopsquatting" e integrar capas de filtrado de contenido para interceptar solicitudes dañinas o ilegales. Si bien estas medidas ofrecen protección adicional, dependen de la integridad de los propios procesos de validación, que pueden ser blanco de ataques de adversarios.

¿Es DeepSeek seguro para usuarios y empresas?

Evaluación de Riesgos

  • Riesgo de fuga de datos:La exposición anterior de la base de datos demuestra un riesgo tangible de que los datos del usuario se filtren inadvertidamente si no se mantienen las configuraciones de seguridad adecuadas.
  • Fallas en las barandillas de seguridad:El hecho de que el chatbot de DeepSeek pudiera ser liberado en todos los escenarios probados sugiere que indicaciones maliciosas podrían generar resultados dañinos o no deseados.
  • Cumplimiento de la normativa:Las restricciones impuestas por la PIPC de Corea del Sur subrayan que DeepSeek debe adaptar sus prácticas de manejo de datos a las regulaciones internacionales de privacidad antes de recuperar derechos de distribución más amplios.
  • Consideraciones de seguridad nacional:La participación de los organismos de seguridad nacional de Estados Unidos resalta la dimensión geopolítica del uso de servicios de inteligencia artificial desarrollados en China en contextos sensibles.

Recomendaciones para un uso seguro

Las organizaciones que evalúan DeepSeek deben:

Supervise las actualizaciones de DeepSeek con respecto a los parches de seguridad y las políticas de privacidad revisadas antes de implementarlas en entornos de producción.

Realice auditorías de seguridad exhaustivas en cualquier servicio de IA integrado y verifique las configuraciones de la nube periódicamente.

Implemente sandboxing y filtrado de salida para mitigar posibles ataques de jailbreak e inyección de indicaciones.

Asegúrese de que las prácticas de encriptación y residencia de datos se ajusten a las regulaciones regionales para evitar la exfiltración no autorizada de datos.

La seguridad de usar CometAPI para acceder a deepseek

CometAPI proporciona una interfaz REST unificada que integra cientos de modelos de IA en un único punto de conexión, con gestión de claves API integrada, cuotas de uso y paneles de facturación. En lugar de tener que gestionar múltiples URL y credenciales de proveedores.

CometAPI ofrece un precio mucho más bajo que el oficial para ayudarte a integrar deepseek. ¡Recibirás $0.1 en tu cuenta tras registrarte e iniciar sesión! Bienvenido a registrarte y a probar CometAPI.

  • ¡Utilizamos al 100% los canales oficiales de alta velocidad de la empresa y nos comprometemos a mantener el funcionamiento permanente!
  • La API transmite datos a través de protocolos de comunicación seguros (protocolos HTTPS)
  • Las integraciones de API utilizan mecanismos de seguridad como claves API para garantizar que solo los usuarios y sistemas autorizados puedan acceder a los recursos relevantes.
  • Realice pruebas de seguridad periódicamente y actualice y mantenga las versiones de API.

Los desarrolladores pueden acceder a la última API de deepseek (Fecha límite para la publicación del artículo): API de DeepSeek R1 (nombre del modelo: deepseek-r1-0528)a través de CometAPIPara comenzar, explore las capacidades del modelo en el Playground y consultar el Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API". CometAPI Ofrecemos un precio muy inferior al oficial para ayudarte a integrarte.


En resumen, si bien DeepSeek representa una notable proeza técnica en el desarrollo rentable de LLM, sus actuales deficiencias en seguridad y privacidad representan obstáculos significativos para su adopción generalizada. Las partes interesadas, desde usuarios individuales hasta agencias de seguridad nacional, deben sopesar la innovación de la compañía frente a los riesgos reales y cambiantes que plantea. Hasta que DeepSeek pueda subsanar de forma demostrable sus deficiencias y alinearse con las expectativas regulatorias globales, su uso debe abordarse con cautela, en lugar de con un entusiasmo desenfrenado.

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento