Por un lado, OpenAI, empresa titular de ChatGPT, acusado a DeepSeek, startup china emergente y disruptora del ecosistema de IA, de utilizar un método prohibido para entrenar sus modelos vulnerando su propiedad intelectual. Por otro lado, las actividades de DeepSeek están bajo escrutinio regulatorio en varios países por distintas razones, desde cumplimiento regulatorio en materia de protección de datos, hasta razones de seguridad nacional. Vayamos por partes.

Las acusaciones de OpenAI de infringir su propiedad intelectual

En un episodio todavía inédito, un gigante de la IA acusa a otro gigante de robar su propiedad intelectual y secretos empresariales. Por ello, la previsible futura disputa judicial entre OpenAI y DeepSeek podría redefinir o cuanto menos impactar las reglas del desarrollo de la inteligencia artificial. OpenAI, creador de ChatGPT, ha acusado a DeepSeek de utilizar un método prohibido para entrenar sus modelos (destilación), lo que supondría una posible violación de los términos de uso de OpenAI. Esta acusación ha iniciado un debate más amplio sobre propiedad intelectual, protección de datos y el futuro de la regulación de la IA. Además, el futuro de la gobernanza de la IA estaría también impactado por los resultados de estas turbulencias.

En el centro de esta disputa legal se encuentra una técnica de aprendizaje automático conocida como destilación de conocimiento (knowledge distillation). Según sus Términos de Uso, OpenAI prohíbe el entrenamiento de nuevos modelos de IA utilizando otros modelos más grandes y preentrenados, una práctica que se conoce como destilación de conocimiento. De hecho, las políticas de OpenAI prohíben expresamente: la ingeniería inversa, descompilación o cualquier intento de descubrir los componentes internos de sus modelos; el uso de las respuestas generadas por OpenAI para desarrollar modelos de IA competidores y la extracción automática de datos de sus servicios.

Si OpenAI lograra acreditar que DeepSeek ha entrenado su IA utilizando destilación de conocimiento basada en sus modelos, ello supondría una violación de sus términos, lo que abriría la puerta a una posible demanda ante los tribunales de justicia. La destilación de conocimiento permite a los desarrolladores de IA tomar un modelo avanzado, extraer su conocimiento y utilizarlo para entrenar una versión más eficiente.

Por razones obvias, esta práctica reduce costes computacionales y mantiene un alto rendimiento para el nuevo sistema. El problema radica en que es difícil de probar. A diferencia de las infracciones de propiedad intelectual (como el plagio de texto o código), el uso de un modelo de IA no deja huella claramente trazable y acreditable. DeepSeek podría argumentar que su IA se entrenó con datos de fuentes públicas o que desarrolló sus métodos de forma independiente. Aunque no ha trascendido aún si OpenAI ya presentado una demanda, sí que sus portavoces han hecho declaraciones contundentes sobre la posible infracción de su tecnología. Este conflicto va mucho más allá de una simple disputa entre dos gigantes tecnológicos. Si OpenAI presenta demanda, el resultado del pleito podría sentar un precedente histórico en  los derechos de propiedad intelectual.

Investigación de la Autoridad Italiana de Protección de Datos ( ILGarante)

La Autoridad Italiana de Protección de Datos ha iniciado una investigación sobre DeepSeek, expresando serias preocupaciones sobre las prácticas de la empresa en el manejo de datos y su cumplimiento con la regulación de la Unión Europea. El Garante envió un requerimiento detallado a las sociedades responsables del servicio de chatbot DeepSeek. En concreto, la autoridad ha solicitado información sobre qué datos personales recopila DeepSeek; de dónde provienen esos datos; con qué finalidad se recaban, cual es la base de legitimación de esa recopilación de datos, y si se almacenan los datos de los usuarios y los conjuntos de entrenamiento de IA en servidores ubicados en China.

DeepSeek debía responder en 20 días al requerimiento y, en caso de incumplimiento, la empresa podría enfrentarse a fuertes sanciones o incluso la prohibición de sus servicios en Italia. Por de pronto, su aplicación móvil ya no está disponible en las tiendas de aplicaciones de Google y Apple en Italia. El regulador italiano ya había prohibido temporalmente ChatGPT en 2023 por presuntas violaciones de privacidad. En diciembre de 2024, multaron a OpenAI con 15 millones de euros por infracciones en materia de protección de datos.

Otras autoridades inician investigaciones

Las autoridades belga e irlandesa de protección de datos también han iniciado investigaciones sobre el tratamiento de los datos que recopila. Este enfoque restrictivo refleja por otro lado la creciente preocupación por la recogida y el tratamiento masivos de datos para el entrenamiento de modelos de IA.

Prohibición de DeepSeek en Australia

El gobierno de Australia ha prohibido DeepSeek directamente, prohibición que afecta a todos los dispositivos y sistemas gubernamentales alegando consideraciones de seguridad nacional. La prohibición afecta tanto a la plataforma web como a la aplicación móvil e impone restricciones estrictas a su uso en el sector público. El gobierno australiano aclaró que la decisión no está basada en el origen chino de DeepSeek, sino en el "riesgo inaceptable" que a su modo de ver representa para la seguridad nacional. La prohibición de DeepSeek en Australia recuerda las restricciones previas impuestas a TikTok y Huawei, empresas que también fueron objeto de escrutinio por sus vínculos con China.

Esta prohibición sigue una tendencia global de gobiernos que restringen el uso de tecnología extranjera en áreas sensibles, especialmente cuando involucra tratamiento de datos de sus ciudadanos e inteligencia artificial. Seguiremos atentamente el desarrollo de estos casos