OpenAI acusa a DeepSeek de usar su modelo para entrenar a IA propia: denuncian violación de propiedad intelectual
OpenAI ha denunciado a DeepSeek, una startup china, por supuesta infracción de sus términos de servicio al utilizar técnicas de destilación para desarrollar su modelo DeepSeek R1.
OpenAI, la empresa detrás de ChatGPT, ha señalado a la startup china DeepSeek por presuntamente utilizar su tecnología para desarrollar su modelo de código abierto, DeepSeek R1. La denuncia, reportada por el Financial Times, se centra en el uso de la técnica de destilación en inteligencia artificial, lo que, según OpenAI, constituiría una infracción de sus términos de servicio.
El caso ha generado preocupación en Silicon Valley, en especial después de que DeepSeek R1 lograra un rendimiento comparable a los modelos más avanzados con una inversión significativamente menor. Además, el lanzamiento del modelo provocó una caída del 17% en las acciones de Nvidia, equivalente a una pérdida de 589.000 millones de dólares en su valor de mercado, debido a temores sobre la disminución de la demanda de hardware de alto costo para entrenar IA.
La acusación de OpenAI: DeepSeek y el presunto robo de datos
OpenAI y su principal socio, Microsoft, investigaron durante meses cuentas vinculadas a DeepSeek que accedían a la API de OpenAI, la interfaz que permite a otras empresas utilizar sus modelos de inteligencia artificial. Según fuentes cercanas a la investigación, OpenAI bloqueó estas cuentas tras detectar actividad sospechosa relacionada con la destilación, una técnica que permite a modelos más pequeños aprender de modelos avanzados, lo cual reduce costos computacionales.
"El problema no es la destilación en sí, sino cuando se hace con el propósito de desarrollar un modelo competidor sin autorización", afirmó una fuente anónima citada por Financial Times. A pesar de la seriedad de la acusación, OpenAI no ha proporcionado pruebas concretas, lo que ha generado escepticismo entre algunos expertos del sector.
David Sacks, asesor del gobierno de EE. UU. en inteligencia artificial, afirmó que hay "pruebas sustanciales" de que DeepSeek utilizó los resultados de modelos de OpenAI para entrenar su IA, aunque tampoco aportó evidencia directa. La Casa Blanca ha señalado que monitorea el caso por posibles implicaciones en seguridad nacional.
Destilación en inteligencia artificial: una técnica común bajo escrutinio
La destilación en inteligencia artificial es una práctica ampliamente utilizada en la industria. Consiste en entrenar un modelo más pequeño (modelo estudiante) con los resultados de un modelo más grande y avanzado (modelo profesor), lo que permite mejorar la eficiencia y reducir costos de entrenamiento. Empresas como Google, Anthropic y la propia OpenAI han empleado esta técnica en sus desarrollos internos.
Sin embargo, cuando un tercero aplica destilación a modelos protegidos por derechos de propiedad intelectual, surgen conflictos legales. OpenAI prohíbe explícitamente en sus términos de servicio el uso de su tecnología para desarrollar modelos rivales. "Adoptamos contramedidas para proteger nuestra propiedad intelectual", declaró un portavoz de la compañía.
DeepSeek, por su parte, no ha emitido una respuesta oficial ante la denuncia. La startup china asegura haber entrenado DeepSeek R1 con 2.048 tarjetas gráficas Nvidia H800 y un presupuesto de 5,6 millones de dólares, cifras muy inferiores a las inversiones de OpenAI y Google en modelos similares. Algunos analistas sostienen que los resultados obtenidos por DeepSeek sugieren que su modelo pudo haber sido entrenado con datos provenientes de GPT-4, lo que reforzaría las sospechas de OpenAI.