Los modelos de inteligencia artificial de
DeepSeek han llamado la atención por su rendimiento equiparable al de gigantes como
ChatGPT,
Claude o
Gemini. Sin embargo, su éxito ha despertado tanto elogios como escepticismo. En primer lugar, algunos cuestionan que su desarrollo haya costado solo 5,6 millones de dólares. Ahora,
OpenAI ha lanzado una nueva acusación contra la compañía: el uso no autorizado de sus datos mediante una técnica conocida como "destilado de modelos".
En el ámbito de la inteligencia artificial, la destilación es una estrategia utilizada para optimizar modelos. Consiste en entrenar un modelo más pequeño (con menos parámetros, y en líneas generales menos capaz), a partir de la información de un modelo más grande y avanzado. De este modo, se logra un sistema más eficiente y rápido sin comprometer significativamente su rendimiento. Portavoces de
OpenAI han especificado al medio Financial Times que
DeepSeek habría utilizado esta técnica con los modelos de
OpenAI.
DeepSeek ha empleado esta técnica, junto con otras como el aprendizaje por refuerzo para alcanzar su alto nivel de desempeño, o su arquitectura 'Mixture of Experts', la cual le permite al modelo utilizar solamente un pequeño subset de sus componentes ("experts") para cada tarea, en vez de hacer trabajar a todo el sistema al completo, reduciendo significativamente los costes energéticos y potencia de computación.