Manus AI és una plataforma emergent d'intel·ligència artificial desenvolupada per l'empresa emergent xinesa Butterfly Effect PTE. LTD, que ha captat l'atenció global en presentar-se com el primer "agent general d'IA capaç de transformar pensaments en accions". A diferència dels models tradicionals d'IA, Manus AI integra múltiples models lingüístics avançats, com Claude de Anthropic i Qwen de Alibaba, per executar tasques complexes de manera autònoma, incloent la redacció d'informes, anàlisi de dades i planificació d'itineraris de viatge, etc.
Més enllà de l'entusiasme inicial, experts adverteixen sobre inconsistències i riscos legals rellevants associats amb Manus AI. La falta de transparència en el seu funcionament i l'opacitat entorn de la seva estructura organitzativa generen inquietuds sobre la seva confiabilitat i les implicacions ètiques del seu ús.
Riscos de privacitat i governança de dades
Un dels aspectes més criticats de Manus AI és el seu enfocament de privacitat i gestió de dades. Encara que l'empresa afirma estar registrada en Singapur i la seva política de privacitat es regeix per les lleis d'aquest país, certs investigadors han assenyalat que tant l'equip de desenvolupament com les operacions principals estan situades a la Xina. Aquesta discrepància (o confusió intencionada, segons s'ha dit) planteja dubtes sobre la jurisdicció real que regularia el maneig de les dades dels usuaris. A més, s'ha assenyalat que aquesta política de privacitat sembla redactada amb IA, és molt confusa i manca de precisió jurídica, la qual cosa no reflecteix un compromís genuí amb la protecció de dades.
A més, la Llei d'Intel·ligència Nacional de la Xina obliga a les empreses tecnològiques a "basar|recolzar, ajudar i cooperar" amb les agències d'intel·ligència estatals si se'ls sol·licita. Això implica que qualsevol dada compartida amb Manus AI podria ser accessible per al govern xinès, la qual cosa representa un risc significatiu per a la privacitat dels usuaris, especialment aquells situats fora de la Xina. La falta de claredat sobre la ubicació dels servidors –que no s'indica i no podem saber quins són els fluxos de dades- i la possible transferència internacional de dades a la Xina agreuja aquestes preocupacions. Com és sabut, segons el RGPD, qualsevol transferència de dades personals fora de l'Espai Econòmic Europeu (EEE) ha de complir certes garanties, estar legitimada mitjançant les oportunes decisions d'adequació (per a països amb nivell de protecció adequat); o mitjançant clàusules contractuals tipus i altres mecanismes reconeguts. Addicionalment, hauran de realitzar-se avaluacions d'impacte en protecció de dades (DPIA) - ja que es tracta de tractament a gran escala-.
La Xina no és un país amb decisió d'adequació per part de la Comissió Europea, per tant, qualsevol transferència requeriria garanties addicionals. Atès el probable flux de dades cap a servidors ubicats a la Xina o controlats per entitats xineses, això constituiria una potencial infracció del RGPD. D'altra banda, i des d'un enfocament més geopolític, s'ha comentat fins i tot la possibilitat que Manus AI sigui utilitzada com una eina de recopilació d'informació a gran escala.
Aquests tractaments de dades impliquen "decisions automatitzades" que poden tenir efectes jurídics rellevants sobre les persones afectades o de similars (per exemple, selecció de candidats per a ús) i els drets d'aquestes en relació amb tals decisions automatitzades no semblen salvaguardar-se. A més, la falta de transparència i explicació oportuna en la política de privacitat vulneraria altres principis fonamentals del RGPD, com la limitació de la finalitat, la minimització de dades i la responsabilitat proactiva.
Implicacions ètiques i necessitat de regulació
El cas de Manus AI exemplifica els desafiaments ètics i legals que sorgeixen amb el desenvolupament d'agents d'IA autònoms. La capacitat d'aquestes plataformes per executar tasques complexes sense intervenció humana directa planteja preguntes sobre la responsabilitat, la transparència i el control sobre les decisions automatitzades.
Alguns experts han assenyalat la necessitat urgent d'establir marcs reguladors que abordin aquestes qüestions en relació amb els agents. És fonamental que les polítiques de privacitat siguin clares i compleixin el que estableix el RGPD, que es garanteixi la sobirania de les dades dels usuaris i que s'implementin mecanismes de supervisió per prevenir possibles abusos.
El cas de Manus AI representa un risc significatiu per a la privacitat, especialment sota el marc normatiu del RGPD. Entre els principals riscos destaquen: "disfressar" una empresa xinesa com a singapurès per evitar l'escrutini públic; la falta de transparència sobre transferències internacionals de dades; la possible obligació de col·laborar amb el govern xinès; una política de privacitat deficient i enganyosa i en definitiva un potencial incompliment del RGPD i altres normatives internacionals
L'ús d'agents autònoms com Manus, que processen CVs, redacten documents i accedeixen a arxius, pot implicar el tractament automatitzat de dades personals de categories especials (en altres paraules, sensibles) com a opinions, historial professional o preferències. Les autoritats de protecció de dades de la UE ja investiguen casos similars, com el de DeepSeek, un altre model IA xinès. El paral·lelisme amb Manus AI augura més investigacions d'aquest tipus. Mentre Manus AI representa un avenç tecnològic espectacular, també s'ha de destacar la importància d'abordar proactivament els riscos associats amb la privacitat i la governança de dades.