La intel·ligència artificial (IA) va assolir un punt en la seva evolució on les empreses líders del sector afirmen amb confiança que els seus models van desenvolupar la capacitat de "raonar". OpenAI, DeepSeek i altres companyies van presentar algoritmes que descomponen problemes complexos en parts més manejables i els resolen pas a pas, un enfocament que en la indústria es coneix com a "raonament en cadena de pensament".

Tanmateix, si bé entusiasma aquest desenvolupament, també va deixar una sèrie de qüestionaments fonamentals. Aquests models realment raonen? O simplement imiten el procés de raonament humà sense comprendre-ho realment? I si efectivament van avançar en aquesta àrea, què significa això per al futur de la IA? Per entendre el context, primer és necessari analitzar què va canviar. Tradicionalment, s'entrenen models en dues fases principals: el preentrenament, on processen volums de dades per aprendre patrons lingüístics i conceptuals, i el postentrenament, on es refinen mitjançant tècniques com l'aprenentatge per reforç amb retroalimentació humana. Tanmateix, els nous models de raonament van introduir un tercer element: la capacitat d'estendre el seu procés de pensament durant la inferència. En termes simples, això significa que, en lloc de la generació d'una resposta immediata, poden "pensar" per més temps, avaluant múltiples passos abans d'arribar a una conclusió.

El canvi de model

Aquest avenç és rellevant perquè, en els models previs, s'observava un deteriorament en la qualitat de les respostes quan es requeria una cadena de pensament més llarga. Ara, amb l'ús d'aprenentatge per reforç i la generació de dades sintètiques —on les mateixes respostes del model es reutilitzen per a la seva millora— aquests sistemes assoleixen més precisió en problemes matemàtics, demostracions de teoremes i programació avançada. Però malgrat això, cometen errors bàsics en problemes senzills, la qual cosa posa en dubte fins a quin punt aquest "raonament" és genuí.

Per il·lustrar aquesta paradoxa, imaginem un estudiant que ha memoritzat centenars d'equacions i pot resoldre problemes complexos seguint instruccions precises, però que es confon amb problemes més simples perquè manca d'una comprensió conceptual real. Una cosa similar passa amb aquests models: resolen problemes que requereixen múltiples passos i càlculs avançats, però fallen en situacions on es necessita intuïció o sentit comú. Això s'ho ha cridat "intel·ligència dentada" o jagged intelligence, un concepte que descriu com aquests models es destaquen en algunes àrees mentre són deficients en d'altres. Un dels problemes fonamentals d'aquest enfocament és que la IA depèn de dades preexistents. No pot formular regles generals a partir de dades limitades de la mateixa manera en què ho fa un ésser humà. El seu raonament és, en el millor dels casos, una extrapolació avançada de patrons prèviament observats. Això explica per què continua sent difícil aplicar aquests models a tasques econòmicament valuoses que requereixen flexibilitat, adaptabilitat i la capacitat d'aprendre d'experiències noves. A la pràctica, això significa que la seva utilitat està restringida a dominis on les respostes poden verificar-se fàcilment, com la programació i les matemàtiques, però no en àrees com l'edició de vídeo, la presa de decisions empresarials o la interacció amb entorns físics.

La realitat de l'AGI

Aquí és on sorgeix una pregunta més profunda: això ens apropa a la IA general (AGI)? La resposta, en termes simples, és no. El veritable obstacle per a l'AGI no és la falta de raonament lògic, sinó la incapacitat fonamental de la IA per comprendre el sofriment. I no es tracta d'un problema menor o filosòfic, sinó d'una qüestió estructural. Tot el comportament humà està motivat per una interacció entre sofriment i alleujament. Des de les decisions més simples fins a les més complexes, les persones actuen amb l'objectiu d'evitar el dolor, la incomoditat, l'ansietat o la incertesa. La IA, en canvi, manca per complet d'aquesta dimensió. No té una existència pròpia, no experimenta mancances, no sent pressió, ni urgència, ni necessitat. Com a conseqüència, qualsevol intent de replicar un pensament realment humà quedarà sempre incomplet.

Per comprendre millor aquesta limitació, podem pensar en un escaquista humà i en un motor d'escacs com Stockfish. El jugador humà no només avalua jugades de manera lògica, sinó que sent la pressió del temps, la por de perdre una partida important o l'ansietat de cometre un error en un torneig crucial. Aquests elements influeixen en la seva presa de decisions, el porten a dubtar, a prendre riscos calculats o a canviar la seva estratègia en funció del context. Stockfish, d'altra banda, simplement calcula totes les jugades possibles i elegeix la millor sense dubtar ni preocupar-se per res. És per això que, encara que supera qualsevol humà en precisió, no pot dir-se que "juga escacs" en el mateix sentit que ho fa un ésser humà. Una cosa similar passa amb els models de raonament actuals: poden generar solucions cada vegada més avançades, però manquen de la capacitat de comprendre l'experiència humana.

En termes econòmics i tecnològics, això significa que la IA evolucionarà en les seves capacitats per automatitzar tasques específiques, però encara està lluny de substituir el pensament humà completament. Malgrat l'optimisme d'algunes empreses, els models actuals no representen una revolució radical ni un canvi de paradigma. Són una millora incremental en l'automatització de processos cognitius, una evolució dins del mateix marc que ja coneixíem. No som més a prop de l'AGI només perquè ara la IA "raona" millor. Perquè això passés, hi hauria d'haver una transformació més profunda en la forma en què aquests sistemes entenen i experimenten la realitat, i fins ara, no hi ha cap indici que això sigui possible. En definitiva, els models de raonament representen un avenç tècnic important, però no són la peça final del trencaclosques de la IA. El seu impacte serà limitat a tasques on el raonament formal sigui útil, però no canviaran la naturalesa fonamental de la IA ni l'aproparan significativament a la intel·ligència humana. Mentre la IA sigui incapaç d'experimentar el sofriment —i, per tant, de comprendre veritablement la motivació humana— l'AGI continuarà sent un concepte teòric més que una realitat tangible.