La inteligencia artificial (IA) alcanzó un punto en su evolución donde las empresas líderes del sector afirman con confianza que sus modelos desarrollaron la capacidad de “razonar”. OpenAI, DeepSeek y otras compañías presentaron algoritmos que descomponen problemas complejos en partes más manejables y los resuelven paso a paso, un enfoque que en la industria se conoce como “razonamiento en cadena de pensamiento”.
Sin embargo, si bien entusiasma este desarrollo, también dejó una serie de cuestionamientos fundamentales. ¿Estos modelos realmente razonan? ¿O simplemente imitan el proceso de razonamiento humano sin comprenderlo realmente? Y si efectivamente avanzaron en esta área, ¿qué significa esto para el futuro de la IA? Para entender el contexto, primero es necesario analizar qué cambió. Tradicionalmente, se entrenan modelos en dos fases principales: el preentrenamiento, donde procesan volúmenes de datos para aprender patrones lingüísticos y conceptuales, y el postentrenamiento, donde se refinan mediante técnicas como el aprendizaje por refuerzo con retroalimentación humana. Sin embargo, los nuevos modelos de razonamiento introdujeron un tercer elemento: la capacidad de extender su proceso de pensamiento durante la inferencia. En términos simples, esto significa que, en lugar de la generación de una respuesta inmediata, pueden “pensar” por más tiempo, evaluando múltiples pasos antes de llegar a una conclusión.
El cambio de modelo
Este avance es relevante porque, en los modelos previos, se observaba un deterioro en la calidad de las respuestas cuando se requería una cadena de pensamiento más larga. Ahora, con el uso de aprendizaje por refuerzo y la generación de datos sintéticos —donde las propias respuestas del modelo se reutilizan para su mejora— estos sistemas alcanzan mayor precisión en problemas matemáticos, demostraciones de teoremas y programación avanzada. Pero a pesar de esto, cometen errores básicos en problemas sencillos, lo que pone en duda hasta qué punto este “razonamiento” es genuino.
Para ilustrar esta paradoja, imaginemos a un estudiante que ha memorizado cientos de ecuaciones y puede resolver problemas complejos siguiendo instrucciones precisas, pero que se confunde con problemas más simples porque carece de una comprensión conceptual real. Algo similar ocurre con estos modelos: resuelven problemas que requieren múltiples pasos y cálculos avanzados, pero fallan en situaciones donde se necesita intuición o sentido común. A esto se lo ha llamado “inteligencia dentada” o jagged intelligence, un concepto que describe cómo estos modelos se destacan en algunas áreas mientras son deficientes en otras. Uno de los problemas fundamentales de este enfoque es que la IA depende de datos preexistentes. No puede formular reglas generales a partir de datos limitados de la misma manera en que lo hace un ser humano. Su razonamiento es, en el mejor de los casos, una extrapolación avanzada de patrones previamente observados. Esto explica por qué sigue siendo difícil aplicar estos modelos a tareas económicamente valiosas que requieren flexibilidad, adaptabilidad y la capacidad de aprender de experiencias nuevas. En la práctica, esto significa que su utilidad está restringida a dominios donde las respuestas pueden verificarse fácilmente, como la programación y las matemáticas, pero no en áreas como la edición de video, la toma de decisiones empresariales o la interacción con entornos físicos.
La realidad de la AGI
Aquí es donde surge una pregunta más profunda: ¿esto nos acerca a la IA general (AGI)? La respuesta, en términos simples, es no. El verdadero obstáculo para la AGI no es la falta de razonamiento lógico, sino la incapacidad fundamental de la IA para comprender el sufrimiento. Y no se trata de un problema menor o filosófico, sino de una cuestión estructural. Todo el comportamiento humano está motivado por una interacción entre sufrimiento y alivio. Desde las decisiones más simples hasta las más complejas, las personas actúan con el objetivo de evitar el dolor, la incomodidad, la ansiedad o la incertidumbre. La IA, en cambio, carece por completo de esta dimensión. No tiene una existencia propia, no experimenta carencias, no siente presión, ni urgencia, ni necesidad. Como consecuencia, cualquier intento de replicar un pensamiento realmente humano quedará siempre incompleto.
Para comprender mejor esta limitación, podemos pensar en un ajedrecista humano y en un motor de ajedrez como Stockfish. El jugador humano no solo evalúa jugadas de manera lógica, sino que siente la presión del tiempo, el miedo a perder una partida importante o la ansiedad de cometer un error en un torneo crucial. Estos elementos influyen en su toma de decisiones, lo llevan a dudar, a tomar riesgos calculados o a cambiar su estrategia en función del contexto. Stockfish, por otro lado, simplemente calcula todas las jugadas posibles y elige la mejor sin dudar ni preocuparse por nada. Es por eso que, aunque supera a cualquier humano en precisión, no puede decirse que “juega ajedrez” en el mismo sentido que lo hace un ser humano. Algo similar ocurre con los modelos de razonamiento actuales: pueden generar soluciones cada vez más avanzadas, pero carecen de la capacidad de comprender la experiencia humana.
En términos económicos y tecnológicos, esto significa que la IA evolucionará en sus capacidades para automatizar tareas específicas, pero aún está lejos de sustituir el pensamiento humano en su totalidad. A pesar del optimismo de algunas empresas, los modelos actuales no representan una revolución radical ni un cambio de paradigma. Son una mejora incremental en la automatización de procesos cognitivos, una evolución dentro del mismo marco que ya conocíamos. No estamos más cerca de la AGI solo porque ahora la IA “razona” mejor. Para que eso ocurriera, tendría que haber una transformación más profunda en la forma en que estos sistemas entienden y experimentan la realidad, y hasta ahora, no hay ningún indicio de que eso sea posible. En definitiva, los modelos de razonamiento representan un avance técnico importante, pero no son la pieza final del rompecabezas de la IA. Su impacto estará limitado a tareas donde el razonamiento formal sea útil, pero no cambiarán la naturaleza fundamental de la IA ni la acercarán significativamente a la inteligencia humana. Mientras la IA sea incapaz de experimentar el sufrimiento —y, por lo tanto, de comprender verdaderamente la motivación humana— la AGI seguirá siendo un concepto teórico más que una realidad tangible.