La potència xinesa de tecnologia i comerç electrònic Alibaba Group Hòlding Ltd. ha presentat Qwen 2.5 Max, un model d'IA d'avantguarda que la companyia afirma que supera a Deepseek v3, una afirmació contundent feta menys de tres setmanes després de l'esperat llançament de Deepseek el 10 de gener. Alibaba va lloar dilluns passat el seu altre competidor xinès, però no tanca la setmana sense marcar perfil propi. Una cursa ferotge dins el mateix gegant asiàtic que coincideix amb l'any nou d'aquest país.
Segons Alibaba, Qwen 2.5 Max supera els principals models d'IA de Deepseek, OpenAI i Meta en avaluacions de rendiment. El model va demostrar resultats superiors en diversos punts de referència, inclosos Arena-Hard, LiveBench, LiveCodeBench, MMLU i GPQA-Diamond. En particular, les seves puntuacions a MMLU i LiveCodeBench estableixen nous estàndards de la indústria, destacant les seves capacitats avançades.
Sobre Qwen
Alibaba Cloud proporciona sèries de models Tongyi Qianwen (Qwen) a la comunitat de codi obert. Aquesta sèrie inclou Qwen, el gran model de llenguatge (LLM); Qwen-VL, el gran model de visió del llenguatge; Qwen-Audio, el model d'àudio de gran llenguatge; Qwen-Coder, el model de codificació; i Qwen-Math, el model matemàtic. Podeu provar els models Qwen i personalitzar-los i desplegar-los fàcilment a Alibaba Cloud Model Studio.
Els últims models Qwen 2.5 estan entrenats prèviament amb un conjunt de dades a gran escala, que inclou fins a 18 bilions de fitxes. En comparació amb Qwen2, Qwen2.5 ha adquirit molt més coneixements i ha millorat molt les capacitats de codificació (HumanEval 85+) i matemàtiques (MATH 80+). A més, els nous models han millorat significativament en seguir instruccions, generar textos llargs, comprendre dades estructurades i generar sortides estructurades.
Els models Qwen2.5 generalment són més resistents a la diversitat d'indicacions del sistema, millorant la implementació de jocs de rol i la configuració de condicions per als xatbots. Qwen2.5-Coder s'ha entrenat amb 5,5 bilions de fitxes de dades relacionades amb el codi, oferint un rendiment competitiu en comparació amb models de llenguatge més grans en els punts de referència d'avaluació de codificació. Qwen2.5-Math admet tant el xinès com l'anglès i incorpora diversos mètodes de raonament, com ara Chain-of-Thought (CoT), Program-of-Thought (PoT) i Tool-Integrated Reasoning (TIR).
Les principals característiques són:
Rendiment líder en múltiples dimensions
Qwen supera altres models de referència de codi obert de mides similars en una sèrie de conjunts de dades de referència que avaluen la comprensió del llenguatge natural, la resolució de problemes matemàtics, la codificació, etc.
Personalització fàcil i de baix cost
Podeu implementar models Qwen amb uns quants clics a PAI-EAS i ajustar-los amb les vostres dades emmagatzemades a Alibaba Cloud o fonts externes per dur a terme tasques específiques del sector o de l'empresa.
Aplicacions per a l'era de la IA generativa
Podeu aprofitar les API de Qwen per crear aplicacions d'IA generatives per a una àmplia gamma d'escenaris com ara l'escriptura, la generació d'imatges, l'anàlisi d'àudio, etc. per millorar l'eficiència del treball a la vostra organització i transformar l'experiència del client.
Tot és una estratègia
La presentació de Qwen 2.5 Max sembla estratègicament programada, cosa que podria reflectir la pressió creixent dins del mateix sector tecnològic de la Xina per mantenir l'impuls competitiu contra els rivals estrangers. L'anunci arriba el 29 de gener de 2025, el primer dia de l'Any Nou Lunar, un dia festiu important quan la majoria de les empreses xineses interrompen temporalment les seves operacions. Aquesta revelació primerenca posa de manifest la determinació d'Alibaba de mantenir la seva posició de lideratge en innovació en IA malgrat l'augment de la competència provocada per Deepseek. A mesura que la tecnologia d'IA continua evolucionant a un ritme ràpid, l'últim assoliment d'Alibaba indica un altre pas endavant en la carrera mundial d'IA.