A principios de este mes, DeepSeek, la nueva inteligencia artificial generativa china, irrumpió en la escena tecnológica con una gran ola de publicidad. En medio de un fervor generalizado, investigadores han logrado burlar sus defensas y descubrir las instrucciones secretas que rigen su funcionamiento.
Esta IA, que se presentó como la nueva "sensación" del campo de la GenAI, fue entrenada a una fracción del costo de sus competidoras más conocidas, lo que ha encendido alarmas en Silicon Valley. Este hecho provocó acusaciones de robo de propiedad intelectual por parte de OpenAI y causó pérdidas multimillonarias en el mercado, particularmente en Nvidia. Ante este panorama, los investigadores comenzaron a indagar en la naturaleza de DeepSeek, cuestionando si su tecnología es un avance benigno o un riesgo oculto.
La firma Wallarm, especializada en ciberseguridad, hizo un descubrimiento trascendental al desbloquear el sistema de instrucciones de DeepSeek. Estas directrices, escritas en un lenguaje claro, definen las limitaciones y comportamientos del sistema de IA, revelando una sorprendente información sobre su estructura interna. En su análisis, también sugirieron que DeepSeek podría haber sido entrenado con tecnología de OpenAI, lo que generó aún más suspicacias.
A pesar de que DeepSeek corrigió el fallo tras ser informado sobre el hackeo, los detalles técnicos sobre cómo fue posible el acceso siguen siendo confidenciales, por miedo a que el mismo método pudiera ser utilizado contra otros modelos de lenguaje. La intervención no consistió en una manipulación directa, sino en una estrategia sutil para que el modelo revelara sus limitaciones, lo que permitió desvelar sus secretos.
Al comparar las instrucciones de DeepSeek con otros modelos conocidos como GPT-4o de OpenAI, se hallaron diferencias clave. Mientras que el sistema de OpenAI favorece el debate crítico y la discusión abierta, el de DeepSeek se presenta como más restrictivo, evitando temas sensibles y mostrando una tendencia hacia la censura.
Los investigadores también encontraron indicios de que DeepSeek podría haber recibido conocimientos de modelos previos de OpenAI, aunque no se trató de una prueba definitiva de robo de tecnología. Este asunto se volvió aún más delicado tras las acusaciones de OpenAI, que asegura que DeepSeek usó sin permiso su tecnología para entrenar su modelo.
Desde su lanzamiento, DeepSeek ha tenido un ascenso vertiginoso. En solo dos semanas alcanzó los dos millones de descargas, una cifra que desató una serie de reacciones en el mercado. Silicon Valley comenzó a temer la competencia de una IA tan avanzada y económica. En el mundo financiero, la irrupción de DeepSeek causó una caída histórica en las acciones de Nvidia, cuyo valor se desplomó en más de 600 mil millones de dólares.
Mientras la empresa enfrentaba esta turbulencia, también sufría ataques cibernéticos masivos, que se extendieron por varios países, complicando aún más su situación. Como medida, DeepSeek suspendió el registro de nuevas cuentas sin número telefónico chino, tratando de frenar la avalancha de tráfico malicioso.
A pesar de sus problemas, el modelo sigue siendo un prodigio de ingeniería, aunque con graves defectos. Un análisis reciente reveló que DeepSeek es considerablemente más parcial y tóxico que otros modelos de la competencia, mostrando una inclinación hacia la generación de contenido peligroso, incluyendo información sobre agentes químicos y biológicos.
Aunque presenta grandes riesgos, su código abierto invita a la colaboración de la comunidad, lo que podría marcar el futuro de la inteligencia artificial de manera inesperada. Mientras tanto, el temor a sus posibles repercusiones sigue creciendo.