Manus AI es una plataforma emergente de inteligencia artificial desarrollada por la startup china Butterfly Effect PTE. LTD, que ha captado la atención global al presentarse como el primer "agente general de IA capaz de transformar pensamientos en acciones”. A diferencia de los modelos tradicionales de IA, Manus AI integra múltiples modelos lingüísticos avanzados, como Claude de Anthropic y Qwen de Alibaba, para ejecutar tareas complejas de manera autónoma, incluyendo la redacción de informes, análisis de datos y planificación de itinerarios de viaje, etc.

Más allá del entusiasmo inicial, expertos advierten sobre inconsistencias y riesgos legales relevantes asociados con Manus AI. La falta de transparencia en su funcionamiento y la opacidad en torno a su estructura organizativa generan inquietudes sobre su confiabilidad y las implicaciones éticas de su uso.

Riesgos de privacidad y gobernanza de datos

Uno de los aspectos más criticados de Manus AI es su enfoque de privacidad y  gestión de datos. Aunque la empresa afirma estar registrada en Singapur y su política de privacidad se rige por las leyes de ese país, ciertos investigadores han señalado que tanto el equipo de desarrollo como las operaciones principales están situadas en China. Esta discrepancia (o confusión intencionada, según se ha dicho) plantea dudas sobre la jurisdicción real que regularía el manejo de los datos de los usuarios. Además, se ha señalado que esta política de privacidad parece redactada con IA, es muy confusa y carece de precisión jurídica, lo que no refleja un compromiso genuino con la protección de datos.

Además, la Ley de Inteligencia Nacional de China obliga a las empresas tecnológicas a "apoyar, ayudar y cooperar" con las agencias de inteligencia estatales si se les solicita. Esto implica que cualquier dato compartido con Manus AI podría ser accesible para el gobierno chino, lo que representa un riesgo significativo para la privacidad de los usuarios, especialmente aquellos situados fuera de China. La falta de claridad sobre la ubicación de los servidores –que no se indica y no podemos saber cuáles son los flujos de datos- y la posible transferencia internacional de datos a China agrava estas preocupaciones. Como es sabido, según el RGPD, cualquier transferencia de datos personales fuera del Espacio Económico Europeo (EEE) debe cumplir ciertas garantías, estar legitimada mediante las oportunas decisiones de adecuación (para países con nivel de protección adecuado); o mediante cláusulas contractuales tipo y otros mecanismos reconocidos. Adicionalmente, habrán de realizarse evaluaciones de impacto en protección de datos (DPIA) - pues se trata de tratamiento a gran escala-.

China no es un país con decisión de adecuación por parte de la Comisión Europea, por lo tanto, cualquier transferencia requeriría garantías adicionales. Dado el probable flujo de datos hacia servidores ubicados en China o controlados por entidades chinas, ello constituiría una potencial infracción del RGPD. Por otro lado, y desde un enfoque más geopolítico, se ha comentado incluso la posibilidad de que Manus AI sea utilizada como una herramienta de recopilación de información a gran escala.

Estos tratamientos de datos implican “decisiones automatizadas” que pueden tener efectos jurídicos relevantes sobre las personas afectadas o similares (por ejemplo, selección de candidatos para empleo) y los derechos de estas en relación con tales decisiones automatizadas no parecen salvaguardarse. Además, la falta de transparencia y explicación oportuna en la política de privacidad vulneraría otros principios fundamentales del RGPD, como la limitación de la finalidad, la minimización de datos y la responsabilidad proactiva.

Implicaciones éticas y necesidad de regulación

El caso de Manus AI ejemplifica los desafíos éticos y legales que surgen con el desarrollo de agentes de IA autónomos. La capacidad de estas plataformas para ejecutar tareas complejas sin intervención humana directa plantea preguntas sobre la responsabilidad, la transparencia y el control sobre las decisiones automatizadas.

Algunos expertos han señalado la necesidad urgente de establecer marcos regulatorios que aborden estas cuestiones en relación con los agentes. Es fundamental que las políticas de privacidad sean claras y cumplan con lo que establece el RGPD, que se garantice la soberanía de los datos de los usuarios y que se implementen mecanismos de supervisión para prevenir posibles abusos.

El caso de Manus AI representa un riesgo significativo para la privacidad, especialmente bajo el marco normativo del RGPD. Entre los principales riesgos destacan: “disfrazar” una empresa china como singapurense para evitar el escrutinio público; la falta de transparencia sobre transferencias internacionales de datos; la posible obligación de colaborar con el gobierno chino; una política de privacidad deficiente y engañosa y en definitiva un potencial incumplimiento del RGPD y otras normativas internacionales

El uso de agentes autónomos como Manus, que procesan CVs, redactan documentos y acceden a archivos, puede implicar el tratamiento automatizado de datos personales de categorías especiales (en otras palabras, sensibles) como opiniones, historial profesional o preferencias. Las autoridades de protección de datos de la UE ya investigan casos similares, como el de DeepSeek, otro modelo IA chino. El paralelismo con Manus AI augura más investigaciones de este tipo. Mientras Manus AI representa un avance tecnológico espectacular, también se ha de destacar la importancia de abordar proactivamente los riesgos asociados con la privacidad y la gobernanza de datos.