Las empresas de ciberseguridad ponen la lupa sobre DeepSeek

  • Actualidad
Inteligencia_IA_tecnologia

La irrupción de la inteligencia artificial generativa china ha supuesto un terremoto para el sector tecnológica por su eficiencia y bajo consumo energético. El sector de la ciberseguridad la ha analizado parece que por el momento no es recomendable su uso en el entorno corporativo.

Una inteligencia artificial generativa capaz de trabajar con muchos menos recursos es una buena noticia. También lo es que surja una competencia a los modelos existentes. Como vimos la semana pasada, la china DeepSeek ha sufrido ya un ataque malicioso a gran escala, por lo que los atacantes se fijaran en ella en cuanto se dio a conocer al gran público. Ahora le ha tocado el turno a las empresas de ciberseguridad, que han analizado los peligros que puede conllevar.

Los laboratorios contra amenazas de Netskope (Netskope Threat Labs) detectaron que, en apenas 48 horas, aumentói en un 1052 % el número de usuarios de DeepSeek en su base de clientes. Unit42, el equipo de investigación de amenazas de Palo Alto Networks, ha publicado una investigación según la cual “DeepSeek es preocupantemente vulnerable al jailbreaking y puede producir contenido nefasto con poco o ningún conocimiento o experiencia especializada”. La compañía ha puesto a prueba el modelo con diferentes métodos de jailbreaking.

Sam Rubin, vicepresidente senior de Consultoría e Inteligencia de Amenazas de Unit 42, considera que su investigación “muestra que no siempre podemos confiar en que los LLM funcionarán como se espera: pueden ser manipulados. Es importante que las empresas consideren estas vulnerabilidades al incorporar LLM de código abierto en los procesos empresariales. Debemos asumir que las barreras de seguridad de los LLM pueden ser quebrantadas y que se necesitan salvaguardas a nivel organizacional”.

Por otro lado, Sam Curry, vicepresidente global y CISO residente de Zscaler, explica que “DeepSeek probablemente tendrá un efecto democratizador en la IA, evidenciando que el grupo cerrado de empresas de Silicon Valley ya no es el único capaz de moldear el futuro de esta tecnología. Sin embargo, el hecho de que DeepSeek sea una plataforma de código abierto debe analizarse con cuidado puesto que las fuentes de datos utilizadas para su entrenamiento siguen siendo opacas en gran medida, lo que dificulta la identificación de posibles sesgos o riesgos de seguridad”.

Check Point Software ha analizado las políticas de privacidad de DeepSeek y cree que presenta riesgos significativos: “la plataforma almacena y procesa todas las interacciones de los usuarios, incluyendo mensajes, archivos, historiales de chat, entradas de voz, imágenes e incluso patrones de pulsaciones de teclas. Además, DeepSeek se reserva el derecho de revisar y utilizar estos datos para el entrenamiento de modelos de IA”.