La semana pasada, entre el auge de DeepSeek, los gigantes consolidados empezaron a lanzar y avanzar nuevas propuestas. Una que ya empieza a rodar es la de Microsoft con su nuevo modelo de razonamiento de OpenAI o1 a sus usuarios Copiloto. Pero la carrera no se detiene. Esta semana, es OpenAI quien ha lanzado un nuevo modelo de razonamiento, o3-mini, para las personas que utilizan la versión gratuita de ChatGPT. Esta será la primera vez que la gran mayoría de las personas tendrán acceso a uno de los modelos de razonamiento de OpenAI, que antes estaban restringidos a sus paquetes de pago Pro y Plus.
¿Por qué tienes que conocer el nuevo modelo de OpenAI?
La mayor parte del progreso del LLM hasta ahora ha sido impulsado por el idioma. Este nuevo modelo entra en el ámbito del razonamiento complejo, con implicaciones para la física, la codificación y mucho más. Los modelos de razonamiento utilizan una técnica de "cadena de pensamiento" para generar respuestas, básicamente trabajando a través de un problema presentado en el modelo paso a paso. Mediante este método, el modelo puede encontrar errores en su proceso y corregirlos antes de dar una respuesta. Eso normalmente da como resultado respuestas más exhaustivas y precisas, pero también hace que los modelos se detienen antes de responder, a veces provocando tiempo de espera larga. OpenAI afirma que o3-mini responde un 24% más rápido que o1-mini.
Este tipo de modelos son más eficaces para resolver problemas complejos, de manera que si tenéis problemas de matemáticas de nivel de doctorado que estéis resolviendo, podéis probarlos. Alternativamente, si habéis tenido problemas para conseguir que los modelos anteriores respondan correctamente a vuestras indicaciones más avanzadas, quizás querréis probar este nuevo modelo de razonamiento. Para probar el o3-mini, solo hace falta que seleccionéis "Motivo" cuando iniciáis un mensaje nuevo en ChatGPT. Aunque los modelos de razonamiento tienen nuevas capacidades, tienen un coste. El o1-mini de OpenAI es 20 veces más caro de ejecutar que su modelo equivalente sin razonamiento, GPT-4o mini. La empresa dice que su nuevo modelo, o3-mini, cuesta un 63% menos que o1-mini por testimonio de entrada. No obstante, a 1,10 dólares por millón de fichas de entrada, todavía es aproximadamente siete veces más caro de ejecutar que GPT-4o mini. Desde de OpenAI marcan las diferencias: "Aunque OpenAI o1 sigue siendo nuestro modelo de razonamiento de conocimiento general más amplio, OpenAI o3-mini ofrece una alternativa especializada para dominios técnicos que requieren precisión y velocidad. En ChatGPT, el o3-mini utiliza un esfuerzo de razonamiento medio por ofrecer un equilibrio equilibrado entre velocidad y precisión. Todos los usuarios de pago también tendrán la opción de seleccionar o3-mini-highal selector de modelos, una versión de más inteligencia que tarde un poco más en generar respuestas".
Los usuarios de ChatGPT Pluses, Team y Pro pueden acceder en OpenAI o3-mini a partir de hoy, con el acceso Enterprise a febrero. o3-mini sustituirá OpenAI o1-mini en el selector de modelos, ofreciendo límites de velocidad más altos y una latencia más baja, cosa que lo convierte en una opción convincente para tareas de codificación, STEM y resolución de problemas lógicos. Como aparte de esta actualización, estamos triplicando el límite de tarifa para los usuarios Plus y Team de 50 mensajes al día con o1-mini a 150 mensajes al día con o3-mini. Además, ahora o3-mini funciona con la búsqueda para encontrar respuestas actualizadas con enlaces a fuentes web relevantes. Este es un prototipo temprano, ya que trabajamos para integrar la búsqueda en nuestros modelos de razonamiento.
Este nuevo modelo llega justo después del lanzamiento de DeepSeek que sacudió el mundo de la IA hace menos de dos semanas. El nuevo modelo de DeepSeek funciona igual que los mejores modelos de OpenAI, pero la compañía china afirma que costó aproximadamente 6 millones de dólares para entrenar, a diferencia del coste estimado de más de 100 millones de dólares para entrenar el GPT-4 de OpenAI. (Vale la pena señalar que mucha gente está interrogando esta afirmación.) Además, el modelo de razonamiento de DeepSeek cuesta 0,55 dólares por millón de fichas de entrada, la mitad del precio de o3-mini, de manera que OpenAI todavía tiene un camino por recorrer para reducir sus costes. Se estima que los modelos de razonamiento también tienen costes energéticos mucho más elevados que otros tipos, dado el número mayor de cálculos que requieren para producir una respuesta.