Preocupaciones por la privacidad y el acceso estatal a los datos
DeepSeek, el modelo de lenguaje desarrollado en China, ha sido blanco de prohibiciones en varios países debido a serias vulnerabilidades de seguridad. Los riesgos más destacados incluyen la exposición de información personal, el posible acceso del Estado a los datos y la alineación ideológica con el Partido Comunista Chino. Estas preocupaciones han aumentado las alarmas sobre la protección de datos y la soberanía tecnológica en todo el mundo.
Política de privacidad y almacenamiento de datos en China
Una de las principales preocupaciones internacionales es la política de privacidad de DeepSeek. El modelo obliga a almacenar todos los datos personales de los usuarios en servidores ubicados en China. Esto incluye datos de registro, historiales de uso, direcciones IP y más. Además, la empresa se reserva el derecho de usar las entradas y salidas de las interacciones para entrenar y mejorar su tecnología. Esto implica que cualquier información confidencial proporcionada por los usuarios puede ser explotada sin su conocimiento.
La Ley de Seguridad Nacional de China otorga al gobierno amplias facultades para acceder a estos datos, bajo el pretexto de proteger la seguridad nacional. El Ministerio de Seguridad del Estado de China ha advertido sobre los riesgos que representa la IA. Los sistemas generativos, como DeepSeek, pueden recolectar y divulgar información sensible, lo que podría ser aprovechado tanto por el gobierno como por actores externos.
Reacciones regulatorias globales
Las vulnerabilidades de DeepSeek han generado reacciones de las autoridades regulatorias internacionales. En enero de 2025, la autoridad de protección de datos de Italia prohibió su uso, citando la falta de transparencia sobre el manejo de datos personales. Irlanda también advirtió que las garantías de protección de datos de la UE no se aplican si la información se almacena en China. Por su parte, Corea del Sur suspendió las nuevas descargas de la aplicación en febrero de 2025, por incumplir normativas locales. Taiwán prohibió el uso del modelo en organismos gubernamentales, citando riesgos de seguridad nacional y geopolítica.
Fallos de seguridad y exposición de datos
DeepSeek también ha enfrentado serias vulnerabilidades técnicas. En enero de 2025, investigadores descubrieron que una base de datos ClickHouse de la empresa estaba expuesta públicamente sin ninguna autenticación. Esto permitió el acceso a más de un millón de registros internos, incluyendo historiales de chat de usuarios, claves API y secretos criptográficos.
Este fallo de seguridad demuestra que la empresa priorizó la rapidez de desarrollo sobre la seguridad, lo que ha aumentado la percepción de que DeepSeek no cumple con los estándares necesarios para proteger datos sensibles.
Ataques y manipulación del modelo
DeepSeek ha demostrado ser vulnerable a ataques de jailbreaking y manipulación. Investigadores han logrado eludir las defensas del modelo mediante inyecciones de prompt y ataques multi-turno. Como resultado, DeepSeek ha generado código malicioso, herramientas de ciberataque y plantillas para ataques de spear-phishing. La versión open-source de DeepSeek también permite la ejecución de código Python arbitrario, lo que abre la puerta a manipulaciones maliciosas por parte de terceros.
Censura política y alineación con intereses estatales
Además de sus vulnerabilidades técnicas, DeepSeek presenta una alineación ideológica con el Partido Comunista Chino. Más del 85% de las respuestas del modelo sobre temas políticamente sensibles, como la democracia o los derechos humanos, son manipuladas o suprimidas. Esto responde a la obligación legal de reflejar los «valores socialistas fundamentales» y la «dirección política correcta» del gobierno chino.
Riesgos legales y de propiedad intelectual
El uso de DeepSeek también conlleva riesgos legales y estratégicos. El modelo recibe financiamiento y supervisión de entidades estatales y militares, lo que refuerza la idea de que no actúa como una empresa neutral. Además, expertos han identificado similitudes entre DeepSeek y otros modelos occidentales, como Gemini y ChatGPT, lo que genera sospechas sobre posibles violaciones de propiedad intelectual. Los términos de uso de DeepSeek trasladan la responsabilidad por posibles infracciones a los usuarios, exponiéndolos a litigios si se demuestra el uso de tecnología copiada.
Desafíos técnicos en sectores clave
A pesar de su adopción creciente en China, DeepSeek presenta deficiencias en comparación con otros modelos occidentales en áreas como rendimiento, coste y seguridad. En el sector sanitario, ha sido adoptado rápidamente en varios hospitales, pero algunos investigadores han advertido que esta implementación es «prematura». El modelo tiende a generar respuestas plausibles pero incorrectas, un fenómeno conocido como «alucinación». En el ámbito médico, esto puede provocar diagnósticos erróneos y tratamientos inadecuados.
Recomendaciones para empresas y gobiernos
El análisis de riesgos concluye que DeepSeek es inviable para entidades que manejen datos personales o información confidencial, especialmente en países con regulaciones estrictas como el GDPR europeo. Las empresas y organismos públicos que procesen datos sensibles podrían enfrentarse a incumplimientos legales, espionaje y litigios por propiedad intelectual. Por ello, se recomienda a los gobiernos mantener y ampliar las prohibiciones de uso de DeepSeek y tecnologías similares de origen chino para el tratamiento de datos sensibles.
Conclusión
La combinación de vulnerabilidades de seguridad, riesgos legales y la alineación ideológica con el gobierno chino convierte a DeepSeek en un modelo de alto riesgo. Las organizaciones deben evaluar cuidadosamente sus implicaciones para la privacidad, la seguridad y la integridad de los datos antes de considerar su adopción.






