La conversa sobre l'alineació de la IA és més crítica que mai. Amb DeepSeek revolucionant el món tecnològic, la qüestió d'alinear els models d'IA segons els valors i les preferències humans pren el protagonisme. Els avenços recents de DeepSeek desafien els supòsits de llarga data en el desenvolupament d'IA. Cada model d'IA està alineat amb els valors d'algú. Els últims avenços de DeepSeek demostren que l'alineació de la IA no és només tècnica, sinó que és geopolítica.  Si utilitzeu LLM creats per altres, esteu adoptant les seves prioritats, prejudicis i agenda. Per a empreses i governs, el missatge és clar: agafa el control de la IA amb algú que en sàpiga.

Eficiència sobre el càlcul

Fins ara, es creia que l'assoliment d'una IA d'última generació requeria recursos computacionals massius, que conduïen a un alt consum d'energia i aigua. DeepSeek V3 ha trencat aquesta noció oferint una qualitat de primer nivell utilitzant només el 5% dels requisits de GPU per tren GPT-4.

Dades mínimes amb etiqueta humana

Tradicionalment, les dades etiquetades amb humans tenen una consideració essencial per a la qualitat del model. DeepSeek R1 lleugers en un model intermediat (R1-Zero) per generar la necessitat de cold-start data, minimitzant la necessitat d'extensió humana d'anotació. Mitjançant l'aprenentatge de reforç a gran escala i orientat al raonament, el model aconsegueix una precisió i eficiència notables.

De codi obert i transparent

A diferència de molts models d'avantguarda, DeepSeek és de codi obert amb llicència MIT permissiva, ofereix una transparència completa en els passos de raonament. (Paper DeepSeek R1). Només aquests avenços marquen un canvi més en el paisatge de la IA. Tanmateix, també plantegen un tema urgent: l'alineació.

Disclaimer

Es tracta d'algunes qüestions sobre les dades i els paràmetres de formació utilitzats, i és possible que existeixen LLMs que utilitzen el bootstrap les seves capacitats. Des d'una perspectiva occidental, DeepSeek V3 i R1 sembla estar censurat. Des del punt de vista tècnic, però, simplement es van alinear amb els valors xinesos i el sistema de creences del govern xinès.

Tots els LLM estan alineats amb els valors d'algú

Cada gran model d'idioma (LLM) està modelat de manera inherent pels valors culturals i les normes socials del seu país d'origen, les polítiques governamentals i les prioritats corporatives -sovint anomenada afinació de preferències- determina com respon un sistema d'IA, què és el que fa. Prioritza i el que filtra. DeepSeek dona preferències codificades a dades sintètiques que es genera i utilitza el finetune el model R1. Aquest és el que l'AI development no és justament la competició tecnològica—és la carrera geopolítica.  Els models, les nostres empreses, governs i societats no són neutrals; porten l'empremta de les institucions que les desenvolupen.

Independentment dels models de LLM o ML que alimenten les vostres aplicacions, avui o en el futur, heu d'assegurar-vos que estiguin alineats amb els vostres valors, els vostres marcs de govern i els vostres objectius.  En cas contrari, corre el risc de desplegar sistemes d'IA influïts per prioritats externes, ja sigui d'una altra empresa, país o organisme regulador. Alinia AI, estem especialitzats en l'alineació d'IA, ajudant les organitzacions a garantir que les seves aplicacions Gen AI s'adhereixin a les seves necessitats ètiques, normatives i operatives específiques. Si esteu creant aplicacions basades en IA i voleu assegurar-vos que l'alineació està sota el vostre control, no d'una altra persona, poseu-vos en contacte amb nosaltres.