OpenAI, reconeguda pel seu desenvolupament de models avançats d'intel·ligència artificial, ha expressat recentment la seva preocupació respecte a DeepSeek, una IA emergent d'origen xinès que ha guanyat ràpidament popularitat al mercat global. En una comunicació dirigida a l'Oficina de Política Científica i Tecnològica (OSTP) dels Estats Units, OpenAI ha instat el govern a implementar restriccions que frenin el desplegament de DeepSeek, argumentant que representa una amenaça potencial per a la seguretat nacional i la privacitat dels usuaris.
Preocupacions de seguretat i privacitat
Les inquietuds d'OpenAI se centren en diversos aspectes crítics relacionats amb DeepSeek:
-Fugues de dades: Investigacions recents han revelat que DeepSeek va permetre l'accés sense restriccions a dades confidencials, la qual cosa podria haver portat al control total de la seva base de dades sense necessitat d'autenticació.
-Rendiment en proves de seguretat: Avaluacions independents han mostrat que DeepSeek R1 manca de bloquejos efectius contra la generació d'informació perillosa, com dades sobre armes biològiques, el que planteja riscos significatius si és utilitzat de manera indeguda.
-Possible plagi de models d'entrenament: OpenAI, en col·laboració amb Microsoft, ha acusat DeepSeek de plagiar els seus models d'entrenament, suggerint que la IA xinesa podria haver utilitzat dades robades per desenvolupar les seves capacitats, la qual cosa planteja seriosos dubtes sobre l'ètica i la seguretat de les seves operacions.
Reaccions en la indústria tecnològica
La ràpida adopció de DeepSeek ha generat respostes diverses al sector tecnològic:
-Amazon: Empleats d'Amazon han advertit als clients sobre les preocupacions de privacitat associades amb DeepSeek, promovent al seu lloc els models d'IA propis de la companyia com a alternatives més segures.
-Departament de Comerç dels EUA: S'ha instruït el personal per evitar l'ús de DeepSeek en dispositius governamentals, destacant la necessitat de mantenir la seguretat dels sistemes del departament.
-Investigacions acadèmiques: Estudis recents han identificat vulnerabilitats en models de raonament com DeepSeek-R1, que poden ser explotades per eludir mecanismes de seguretat i generar contingut perjudicial.
Crida a l'acció i mesures proposades
OpenAI ha sol·licitat al govern dels Estats Units que prengui mesures proactives per mantenir el lideratge en l'àmbit de la intel·ligència artificial i mitigar els riscos associats amb l'avenç de DeepSeek. Entre les recomanacions s'inclouen la implementació de polítiques més estrictes per a les IA desenvolupades a la Xina i la restricció del seu desplegament en territori nord-americà.
A més, OpenAI ha emfatitzat la importància d'establir regulacions que assegurin el desenvolupament ètic i segur de les tecnologies d'intel·ligència artificial, protegint tant la privacitat dels usuaris com la seguretat nacional. La companyia insta a una col·laboració estreta entre el sector privat i les autoritats governamentals per abordar de manera efectiva les amenaces emergents en el panorama de la IA.
En conclusió, l'aparició de DeepSeek ha encès les alarmes en la comunitat d'intel·ligència artificial, destacant la necessitat d'una vigilància constant i la implementació de mesures que garanteixin un desenvolupament tecnològic segur i ètic.