La conversación sobre la alineación de la IA es más crítica que nunca. Con DeepSeek revolucionando el mundo tecnológico, la cuestión de alinear los modelos de IA según los valores y las preferencias humanos toma el protagonismo. Los avances recientes de DeepSeek desafían los supuestos de larga fecha en el desarrollo de IA. Cada modelo de IA está alineado con los valores de alguien. Los últimos avances de DeepSeek demuestran que la alineación de la IA no es solo técnica, sino que es geopolítica. Si utilizáis LLM creados por otros, estáis adoptando sus prioridades, prejuicios y agenda. Para empresas y gobiernos, el mensaje claro está: coge el control de la IA con alguien que sepa.

Eficiencia sobre el cálculo

Hasta ahora, se creía que la consecución de una IA de última generación requería recursos computacionales masivos, que conducían a un alto consumo de energía y agua. DeepSeek V3 ha roto esta noción ofreciendo una calidad de primer nivel utilizando solo el 5% de los requisitos de GPU por tren GPT-4.

Datos mínimos con etiqueta humana

tradicionalmente, los datos etiquetados con humanos tienen una consideración esencial para la calidad del modelo. DeepSeek R1 ligeros en un modelo intermediada (R1-Zero) para generar la necesidad de cold-start fecha, minimizando la necesidad de extensión humana de anotación. Mediante el aprendizaje de refuerzo a gran escala y orientado al razonamiento, el modelo consigue una precisión y eficiencia notables.

De código abierto y transparente

A diferencia de muchos modelos de vanguardia, DeepSeek es de código abierto con licencia MIT permisiva, ofrece una transparencia completa en los pasos de razonamiento. (Papel DeepSeek R1). Solo estos avances marcan un cambio más en el paisaje de la IA. Sin embargo, también plantean un tema urgente: la alineación.

Disclaimer

Se trata de algunas cuestiones sobre los datos y los parámetros de formación utilizados, y es posible que existen LLMs que utilizan el bootstrap sus capacidades. Desde una perspectiva occidental, DeepSeek V3 y R1 parece estar censurado. Desde el punto de vista técnico, sin embargo, simplemente se alinearon con los valores chinos y el sistema de creencias del gobierno chino.

Todos los LLM están alineados con los valores de alguien

Cada gran modelo de idioma (LLM) está modelado de manera inherente por los valores culturales y las normas sociales de su país de origen, las políticas gubernamentales y las prioridades corporativas -a menudo denominada afinación de preferencias- determina como|cómo responde un sistema de IA, qué es lo que hace. Prioriza y lo que filtra. DeepSeek da preferencias codificadas a datos sintéticos que se genera y utiliza el finetune el modelo R1. Este es lo que el AY development no es justamente la competición tecnológica—es la carrera geopolítica. Los modelos, nuestras empresas, gobiernos y sociedades no son neutrales; llevan la huella de las instituciones que las desarrollan.

Independientemente de los modelos de LLM o ML que alimentan vuestras aplicaciones, hoy o en el futuro, tenéis que aseguraros que estén alineados con vuestros valores, vuestros marcos de gobierno y vuestros objetivos. En caso contrario, recorre el riesgo de desplegar sistemas de IA influidos por prioridades externas, ya sea de otra empresa, país u organismo regulador. Alinia AI, estamos especializados en la alineación de IA, ayudando a las organizaciones a garantizar que sus aplicaciones Gen AY se adhieran a sus necesidades éticas, normativas y operativas específicas. Si estáis creando aplicaciones basadas en IA y queréis aseguraros de que la alineación está bajo vuestro control, no de otra persona, poneos en contacto con nosotros.