D'una banda, OpenAI, empresa titular de ChatGPT, acusat a DeepSeek, empresa xinesa emergent i disruptiva de l'ecosistema d'IA, d'utilitzar un mètode prohibit per entrenar els seus models vulnerant la seva propietat intel·lectual. D'altra banda, les activitats de DeepSeek són sota escrutini regulador a diversos països per diferents raons, des de compliment regulador en matèria de protecció de dades, fins a raons de seguretat nacional. Anem per parts.

Les acusacions d'OpenAI d'infringir la seva propietat intel·lectual

En un episodi encara inèdit, un gegant de la IA acusa un altre gegant de robar la seva propietat intel·lectual i secrets empresarials. Per això, la previsible futura disputa judicial entre OpenAI i DeepSeek podria redefinir o com menys impactar les regles del desenvolupament de la intel·ligència artificial. OpenAI, creador de ChatGPT, ha acusat DeepSeek d'utilitzar un mètode prohibit per entrenar els seus models (destil·lació), la qual cosa suposaria una possible violació dels termes d'ús d'OpenAI. Aquesta acusació ha iniciat un debat més ampli sobre propietat intel·lectual, protecció de dades i el futur de la regulació de la IA. A més, el futur de la governança de la IA estaria també impactat pels resultats d'aquestes turbulències.

En el centre d'aquesta disputa legal es troba una tècnica d'aprenentatge automàtic coneguda com a destil·lació de coneixement (knowledge distillation). Segons els seus Termes d'Ús, OpenAI prohibeix l'entrenament de nous models d'IA utilitzant altres models més grans i preentrenats, una pràctica que es coneix com a destil·lació de coneixement. De fet, les polítiques d'OpenAI prohibeixen expressament: l'enginyeria inversa, descompilació o qualsevol intent de descobrir els components interns dels seus models; l'ús de les respostes generades per OpenAI per desenvolupar models d'IA competidors i l'extracció automàtica de dades dels seus serveis.

Si OpenAI aconseguís acreditar que DeepSeek ha entrenat la seva IA utilitzant destil·lació de coneixement basada en els seus models, això suposaria una violació dels seus termes, la qual cosa obriria la porta a una possible demanda davant dels tribunals de justícia. La destil·lació de coneixement permet als desenvolupadors d'IA prendre un model avançat, extreure el seu coneixement i utilitzar-lo per entrenar una versió més eficient.

Per raons òbvies, aquesta pràctica redueix costos computacionals i manté un alt rendiment per al nou sistema. El problema rau que és difícil de provar. A diferència de les infraccions de propietat intel·lectual (com el plagi de text o codi), l'ús d'un model d'IA no deixa empremta clarament traçable i acreditable. DeepSeek podria argumentar que la seva IA es va entrenar amb dades de fonts públiques o que va desenvolupar els seus mètodes de forma independent. Per bé que no ha transcendit encara si OpenAI ja presentat una demanda, sí que els seus portaveus han fet declaracions contundents sobre la possible infracció de la seva tecnologia. Aquest conflicte va molt més enllà d'una simple disputa entre dos gegants tecnològics. Si OpenAI presenta demanda, el resultat del plet podria establir un precedent històric en els drets de propietat intel·lectual.

Investigació de l'Autoritat Italiana de Protecció de Dades (ILGarante)

L'Autoritat Italiana de Protecció de Dades ha iniciat una investigació sobre DeepSeek, expressant serioses preocupacions sobre les pràctiques de l'empresa en el maneig de dades i el seu compliment amb la regulació de la Unió Europea. El Garant va enviar un requeriment detallat a les societats responsables del servei de xatbot DeepSeek. En concret, l'autoritat ha sol·licitat informació sobre quines dades personals recopila DeepSeek; d'on provenen aquestes dades; amb quina finalitat es recullen, quina és la base de legitimació d'aquesta recopilació de dades, i si s'emmagatzemen les dades dels usuaris i els conjunts d'entrenament d'IA en servidors ubicats a la Xina.

DeepSeek havia de respondre en 20 dies al requisit i, en cas d'incompliment, l'empresa podria enfrontar-se a fortes sancions o fins i tot la prohibició dels seus serveis a Itàlia. De sobte, la seva aplicació mòbil ja no està disponible a les botigues d'aplicacions de Google i Apple a Itàlia. El regulador italià ja havia prohibit temporalment ChatGPT el 2023 per presumptes violacions de privacitat. El desembre de 2024, van multar OpenAI amb 15 milions d'euros per infraccions en matèria de protecció de dades.

Altres autoritats inicien investigacions

Les autoritats belga i irlandesa de protecció de dades també han iniciat investigacions sobre el tractament de les dades que recopila. Aquest enfocament restrictiu reflecteix, d'altra banda, la creixent preocupació per la recollida i el tractament massius de dades per a l'entrenament de models d'IA.

Prohibició de DeepSeek a Austràlia

El govern d'Austràlia ha prohibit DeepSeek directament, prohibició que afecta tots els dispositius i sistemes governamentals al·legant consideracions de seguretat nacional. La prohibició afecta tant la plataforma web com l'aplicació mòbil i imposa restriccions estrictes al seu ús al sector públic. El govern australià va aclarir que la decisió no està basada en l'origen xinès de DeepSeek, sinó en el "risc inacceptable" que a la seva manera de veure representa per a la seguretat nacional. La prohibició de DeepSeek a Austràlia recorda les restriccions prèvies imposades a TikTok i Huawei, empreses que també van ser objecte d'escrutini pels seus vincles amb la Xina.

Aquesta prohibició segueix una tendència global de governs que restringeixen l'ús de tecnologia estrangera en àrees sensibles, especialment quan involucra tractament de dades dels seus ciutadans i intel·ligència artificial. Seguirem atentament el desenvolupament d'aquests casos