Introducción a los Nuevos Modelos de OpenAI
Esta semana, OpenAI ha lanzado nuevos modelos de inteligencia artificial, incluyendo O3 y O4 Mini, que prometen mejorar significativamente las capacidades de razonamiento y programación. En este análisis, exploraremos las diferencias entre estos modelos y sus aplicaciones.
Diferencias entre Modelos
- Modelos Razonadores vs. No Razonadores: Los modelos O3 y O4 Mini pertenecen a la categoría de modelos que razonan, a diferencia de versiones anteriores como GPT-4.1 de OpenAI: Comparativa y Análisis.
- Nomenclatura: La nomenclatura ha evolucionado, con modelos como O3 y O4 Mini, donde un número más alto indica mayor potencia.
- Versiones: O3 y O4 Mini tienen versiones estándar y mini, siendo las versiones mini más ligeras y rápidas, pero con menos conocimiento general.
Comparativa de Rendimiento
- Benchmarks: Los nuevos modelos han mostrado mejoras notables en benchmarks de matemáticas y programación, con O4 Mini superando a O3 en ciertas tareas. Para entender mejor el contexto de estos modelos, puedes consultar la Introducción a los Modelos de Lenguaje Grande: ¿Qué son y cómo funcionan?.
- Resultados: O3 Mini y O4 Mini han demostrado ser los modelos más potentes en competiciones de programación, con un salto significativo en sus capacidades.
Capacidades Agénticas y Uso de Herramientas
- Acceso a Herramientas: A diferencia de modelos anteriores, O3 y O4 tienen acceso a herramientas como búsqueda en internet y ejecución de código, lo que mejora su capacidad de razonamiento. Esto se alinea con las tendencias observadas en Exploring GPT-4.5: A Comprehensive Review of Its Strengths and Weaknesses.
- Razonamiento Visual: Los nuevos modelos pueden analizar imágenes y aplicar filtros, lo que les permite resolver problemas complejos de manera más efectiva.
Ejemplos Prácticos
- Resolución de Laberintos: O4 Mini High ha demostrado ser capaz de resolver laberintos complejos utilizando razonamiento y herramientas de programación.
- Análisis de Imágenes: Se han realizado pruebas donde los modelos analizan imágenes para extraer información, mostrando mejoras en su razonamiento visual.
Conclusiones
Los nuevos modelos de OpenAI, O3 y O4 Mini, representan un avance significativo en la inteligencia artificial, ofreciendo capacidades de razonamiento mejoradas y un rendimiento superior en tareas complejas. A medida que se desarrollan estos modelos, se espera que continúen liderando el campo de la IA.
esta semana no descansamos con Open AI y es que si ayer os estaba hablando del modelo GPT4.1 que había salido y hemos
estado testeando su enorme ventana de contexto su mejora de capacidades para programación al mismo tiempo que
publicaba aquel vídeo y que vais a ir a ver cuando acabéis de ver este pues Openi nos estaba avisando de que iba a
sacar nuevos modelos razonadores los modelos de inteligencia artificial más potentes hasta la fecha estamos hablando
de la salida del modelo O3 el nuevo modelo razonador que ya vimos anunciado el pasado mes de diciembre con unos
resultados impresionantes y no solo eso sino que también se suma a la familia de modelos la siguiente iteración el modelo
O4 en su faceta mini modelos que ya os adelanto son muy interesantes y que quiero analizar y comparar junto a
vosotros así que vamos a ello empezando primero por entender qué diferencia a cada modelo y qué modelo tengo que
utilizar en este cacao que Open AI nos presenta el día de hoy y es que sí fijaos si nos venimos al selector de
modelos pues ya se ha cumplido mi mayor pesadilla hemos llegado a ese escenario donde en Chat GPT podemos seleccionar
modelos como GPT4O que es algo completamente diferente a un modelo como O4 Mini o O4
Mini High ya estamos en este punto donde la nomenclatura de Open AI pues está llegando al máximo de su absurdo donde
tenemos pues estos nuevos modelos si os dais cuenta lo que ha pasado es que han descatalogado a la iteración anterior de
los modelos razonadores pues ya no tenemos al modelo O1 O1 High e incluso el modelo O1 Promote pues lo tenemos
aquí escondido como un modelo que va a desaparecer en las próximas semanas y ahora lo que tenemos son tres nuevos
modelos tenemos el modelo O3 tenemos el modelo O4 mini y tenemos el modelo O4 Mini High ¿qué es cada uno de estos
modelos ¿qué nos ofrecen vamos a entenderlo mejor y es que ya sabéis que el ecosistema de modelos actualmente se
divide en dos paradigmas diferentes los modelos que no razonan pues ahí tendríamos a GPT4O GPT4.1 GPT4.5 5
modelos que bueno tú le das un prompt le das a enter e inmediatamente responden okay y luego tenemos desde septiembre
del año pasado el paradigma de los modelos que razonan que canjean tiempo de computación por darte mejores
respuestas en este paradigma hemos visto modelos como o un preview o uno o uno high o uno promote o 3 mini o tres mini
high y ahora se suma pues el modelo O3 o4 mini y O4 mini high lo que tenemos que entender aquí es que entre más alto
es el numerito que acompaña la O pues más potente es el modelo es una iteración más avanzada así comparando
pues evidentemente el modelo O3 pues va a ser superior al modelo O1 y el modelo O3 mini high pues va a ser superior al
modelo O1 mini high y luego dentro de cada versión pues por ejemplo O3 pues encontramos la versión mini y la versión
normal la versión mini es pues justamente eso un modelo más pequeño es un modelo razonador pero que en su
tamaño va a ser más pequeño y que por tanto va a permitir que sea mucho más ágil ligero rápido y barato haciendo que
el modelo pues tenga posiblemente menos tamaño para almacenar conocimiento general pues detalles como cuál es la
capital de tal país pero que sea más ligero y efectivo para razonar en tareas como programación como matemáticas tarea
donde haga falta hacer uso de este razonamiento con lo cual entre O3 Mini y O3 pues O3 va a ser un modelo más
potente ¿qué pasa que luego viene la siguiente iteración viene O4 y O4 nos han presentado ahora su versión mini la
versión pequeña y como vamos a ver ahora en comparaciones pues son modelos que casi casi están a la par sobre todo en
aquellas tareas como hemos comentado de programación y de matemáticas con lo cual con esto pues ya entendemos la
diferencia entre estos dos modelos y luego aparece la versión O4 mini high que tenemos que entender que es
básicamente este mismo modelo de aquí pero configurado para pensar más tiempo para dedicar más tiempo de computación a
llegar a mejores respuestas con lo cual si lo que queréis es testear cuál es el modelo más potente para programación
pues mi recomendación es que seleccionéis O4 mini high y para cualquier otra tarea donde se requiera
pues un razonamiento avanzado con mucho conocimiento general trabajéis con el nuevo modelo O3 vaya cacao nos tiene
montado Open AI pero bueno han prometido que para verano esto va a cambiar seguramente haciéndolo coincidir con la
salida por fin de GPT5 pero antes de ponernos a mirar al futuro vamos a ver qué nos ofrecen de novedad estos nuevos
modelos y para eso vamos a saltar a este apartado de aquí donde podemos ver pues para benchmarks por todos conocidos como
son el AIME 2024 competiciones de matemáticas la versión de este año 2025 o competiciones de programación aquí
podemos ver la comparación de los modelos que teníamos hace solo una semana con los nuevos modelos con O3 y
O4 Mini y fijaos que el salto en capacidades pues es bastante notable ¿vale en este caso pues respecto a O1
que es un modelo que lo tienen acceso a principios de este año hace cosa de 3 meses pues el salto que tenemos es casi
de 20 puntos porcentuales donde O4 mini pues podemos ver que es un poquito mejor que el modelo O3 también en la
competición de matemáticas con el examen de este año pues podemos ver una diferencia parecida y el salto más
drástico pues lo vemos a nivel de programación donde ojo O3 Mini comparado con O4 Mini pues da un salto de 700
puntos de ELO en Code Force convirtiéndolo a día de hoy al menos en competiciones de programación en el
modelo más potente jamás entrenado vale esto es una barbaridad de eh resultados que habrá que comprobar si se traslada
luego al uso diario que podemos hacer de estos modelos para programar pero es evidente que estamos ante modelos que
son potentísimos ya lo sabíamos por alguno de los resultados que nos mostraron en diciembre recordemos que O3
es el modelo que pulverizó los resultados de Arc AGI del benchmark que hasta ese momento pues había estado
invicto y que de repente pues aparece Open AI y lo pulveriza y en las evaluaciones que nos presentan ahora
pues seguimos viendo resultados que son bastante potentes por ejemplo en el GPA Diamond que mide pues preguntas
científicas a nivel de doctorado donde vemos que los nuevos modelos casi casi empiezan a saturar este benchmark y
vemos también por ejemplo en el Humanity Last Exam que es un benchmark muy complicado de unas preguntas de una gran
variedad de diferentes dominios pues vemos que de repente O3 facilitado por diferentes herramientas y esto es algo
muy importante que vamos a comentar ahora llega ya a conseguir un 25% en este benchmark algo que se queda
pues muy delante de por ejemplo el modelo O4 Mini que seguramente tenga que ver con esto que comentábamos antes de
que los modelos Mini pues tienen menos conocimiento general y que por tanto no se van a ver favorecidos en este tipo de
benchmark pero aún así que O3 consiga este resultado pues nos pone a pensar evidentemente en cómo será la siguiente
iteración en el modelo O4 que no sea la versión reducida sino la versión final resultados muy impresionantes que se van
replicando en todos los benchmarks este por ejemplo también es muy importante en programación pues lo hemos comentado
muchas veces SW bench verified pues un benchmark que mide las capacidades agénticas de los modelos fijaos en el
salto de capacidades desde el modelo O3 Mini o O1 que bueno estaban en un 50% de tasa de acierto fijaos que ahora saltan
a casi casi un 70% en este benchmark unas cifras que hay que comentar son un poquito más bajas que los resultados que
reportaron de lo que podía conseguir O3 en diciembre del año pasado en aquel momento si no recuerdo mal hablaban de
un 71% en el SW bench Verified y ahora ha bajado a este 69% esto es porque el modelo en estos 3
meses ha cambiado lo han optimizado lo han reentrenado con diferentes set de datos y por tanto las evaluaciones
cambian y esto va a ser importante porque el Ark Agi que fue ese benchmark que tanto nos sorprendió a todos va a
tener que ser reevaluado y podríamos ver como O3 pues podría puntuar más o seguramente menos a un precio
posiblemente más alto o más bajo y esto podría generar algún tipo de revuelo si las diferencias son muy acusadas con lo
cual vamos a estar atentos a esta diferencia de resultados que podríamos ver en algunos de estos benchmarks pero
la historia evidente que nos cuentan estas gráficas es que efectivamente estamos ante un modelo más inteligente
de hecho este benchmark es una pasada el SW Lancer similar al SW Bench Verified que mide las capacidades agénticas de
los modelos en tareas de programación e ingeniería de software pero en este caso medido por el volumen de salario de de
dinero que pueden ganar estos modelos haciendo este tipo de tareas fijaos que el modelo anterior O3 Mini High pues
conseguía resolver un volumen de tarea equivalente a $17,000 y ahora estos nuevos modelos pues son capaces de
triplicar o cuatriplicar esta cifra llegando a 65,000 y a $56,000 cifras que van subiendo con el paso de
los meses según seguimos en este paradigma del test time compute y se ve claro en este tipo de comparaciones en
este tipo de gráficas donde podemos ver que si comparamos el paradigma de hace 3 cu meses con el nuevo modelo O3 pues a
día de hoy podemos conseguir en la configuración más alta con O3 High resultados que son 15 puntos
porcentuales por encima de lo que se conseguía hace 3 meses a un coste de inferencia que es más reducido que lo
que conseguíamos con el modelo O1 en su configuración low es decir estamos consiguiendo en cada cuatrimestre pues
inteligencias artificiales más capaces a un precio más barato y eso es el gran titular con el que nos tenemos que
quedar hoy y esta mejora de inteligencia y es lo que me ha sorprendido de esta nueva release de modelos no solo viene
por el hecho de que los modelos sean más inteligentes por el hecho de que se estén entrenando más con reinforcement
learning y que por tanto estén llegando a mejores cotas y a mejores capacidades sino que también Open AI muy
inteligentemente le ha dado mejores capacidades agénticas a estos modelos significando esto que desde la salida el
modelo O3 y el modelo O4 a diferencia de los modelos anteriores van a contar con acceso a todas las herramientas
disponibles en Chat GPT búsqueda en internet ejecución de código de Python memoria todo y por primera vez estos
modelos razonadores van a poder hacer uso de todas estas herramientas durante el proceso de razonamiento ¿vale el
usuario me ha pedido que resuelva este problema y para eso creo que lo mejor es tener este cálculo voy a intentar hacer
un programa de Python que lo compute y ahora cuando tenga el resultado pues vamos a ver cómo podemos continuar
quizás haciendo una búsqueda en internet pues pueda encontrar una solución ¿qué tal tal tal esto es de lo que estamos
hablando el uso de herramientas durante el proceso de razonamiento algo que nos acerca cada vez más a este futuro de
agentes autónomos fijaos quiero que lo veáis con ejemplos que ya he probado y que son bastante chulos y que además son
ejemplos muy difíciles porque he sacado del vídeo en el que testeé por primera vez hace 4 meses el modelo O1 Pro mode
la versión más avanzada de lo que era el modelo O1 esto eran prompts donde el modelo fallaba donde yo le metía por
ejemplo este laberinto he sacado la captura entera hasta con el mismo prompt le pasaba la foto de este laberinto y le
pedía que lo resolviera devolviéndome pues la secuencia de instrucciones de derecha arriba izquierda abajo que
necesitaba seguir para resolver este laberinto y Promote no lo consiguió resolver en su momento y además también
ayer pues fui a probarlo con el otro gran modelo que tenemos actualmente que es Gemini 2.5 Pro y tampoco supo
resolver bien esta tarea sin embargo en este caso O4 Mini Hype pues pensando 6 minutos 34 segundos fijaos que nos
devuelve una secuencia de instrucciones que cuando empiezo a comprobarla pues efectivamente abajo izquierda abajo
izquierda arriba izquierda abajo derecha arriba derecha tal tal tal tal y lo consigue resolver y lo interesante como
digo es ver un poco estas cadenas de razonamiento donde ahora el uso de herramientas entra en juego donde
podemos ver que el modelo efectivamente pues empieza a razonar analizando las imágenes empieza a generar código para
manipular estas imágenes que esta es una de las grandes novedades del modelo donde puede recortar puede hacer zoom
puede focalizarse en diferentes zonas según lo que esté razonando que debería de estar prestando atención donde puede
hacer detección de bordes y donde empieza a implementar diferentes funcionalidades diferentes scripts para
ir recorriendo end el laberinto de una forma programática sin tener que estar confiando tanto en sus habilidades
visuales al final del día una forma de resolver el problema que le hemos planteado haciendo uso de aquellas
herramientas con las que el modelo cuenta y llegando al final a una solución que como digo es correcta y de
hecho luego intenté a ver si me podía dibujar la solución sobre la imagen y casi casi lo consigue excepto porque no
supo alinear bien el camino sobre el mapa pero efectivamente es el trazo de la solución correcta como digo un
problema que O1 Pro Mode no conseguía resolver que Yemini 2.5 Pro a día de hoy no puede resolver y que este nuevo
modelo en este caso O4 mini High sí lo resuelve y de hecho aquí hemos tocado otro aspecto otro punto de mejora que
Open AI ayer introdujo por primera vez en su sistema de Chat GPT y es el razonamiento visual dentro de las
imágenes donde como hemos visto los modelos ahora no solamente van a consumir una imagen y la van a observar
en su totalidad sino que van a poder razonar sobre qué regiones pues quieran hacer zoom o si deben de aplicar algún
tipo de filtro para poder observarla mejor van a poder razonar visualmente sobre las imágenes haciendo sus
capacidades de visión mucho más potentes y de hecho esto me alegra muchísimo porque si recordáis en el canal
principal en enero de 2024 hace un año y medio cuando los modelos razonadores ni siquiera existían yo os hablé de un
trabajo que era V estrella que era justamente esta idea el dejar que los modelos de visión pudieran hacer
búsqueda durante su inferencia para conseguir mejores resultados a la hora de observar una imagen lo que era un
preludio y ya os lo adelanté en aquel vídeo de lo que serían los modelos razonadores a futuro y que ahora por fin
un año y medio más tarde se ha hecho realidad en los sistemas de inteligencia artificial actuales me cuelgo la
medallita por haber adelantado hace un año y medio que esto iba a llegar de hecho vamos a probar esto último con una
demo vamos a seleccionar el modelo en este caso O4 mini high porque aparte de ser un excelente modelo en programación
por lo que he leído también es un mejor modelo a la hora de hacer razonamiento visual justamente lo que estamos
comentando parece ser que su modelo de visión es mejor incluso que el de O3 así que vamos a probar con O4 y vamos a
trabajar con esta imagen de la estantería que tengo aquí detrás donde por ejemplo pues tengo una caja que está
boca abajo y le preguntamos qué pone el texto de la caja amarilla si os dais cuenta para poder hacer bien esta tarea
el modelo tendrá que hacer zoom en esta región de la imagen y voltear la imagen 180º para poder pues comprobar que aquí
pone electric air pump ¿vale una bomba de aire para inflar típico colchón y vale parece que me ha costado más a mí
que al modelo no no ha razonado ni siquiera eh directamente ha dicho "Oye se puede leer perfectamente Electric Air
Pump." Vamos a ponérselo un poco más complicado vamos a preguntarle de qué evento es el batch que está en la imagen
y no le voy a decir ni siquiera dónde se encuentra y de nuevo no le está costando nada ha pensado durante 7 segundos y
fijaos qué interesante también esto en las cadenas de razonamiento ahora el modelo empieza a referirse al usuario
por su nombre es superinquietante ver que de repente dice "Carlos preguntas sobre el evento relacionado con el batch
en la imagen." Y bueno al final concluye que efectivamente el evento es GitHub Universe con lo cual ha acertado y como
realmente quiero que veáis estas cadenas de razonamiento donde el modelo va trabajando con la imagen pues voy a
operar con el modelo O3 en este caso vamos a cargar la misma imagen y vamos a hacerle la misma pregunta ¿de dónde es
el batch del evento y fijaos que aquí el modelo O3 sí dedica un poquito más de tiempo a trabajar aunque es cierto que
en el primer eh razonamiento pues sí ha conseguido entender que pone GitHub con lo cual ya podría darnos la respuesta
parece que se quiere cciurar más y entonces empieza a ser el análisis mucho más detallado fijaos que aquí ya el
modelo si está haciendo zoom a diferentes regiones se está intentando acercar un poquito más y poco a poco
vamos a ver que esto le va a permitir pues acercarse a la respuesta que le hemos pedido mucho más lento que GPT4
mini high pero bueno pues en este caso mucho más interesante al menos el poder analizar sus eh trazas de razonamiento
ahora que ya puedo ver el batch creo que sería útil hacer un zoom aún mayor para asegurarme de que todo sea visible de
manera más clara el modelo quiere acercarse como si esto fuera un capítulo de CSI está aplicando filtros se quiere
sersiorar y con esto pues espero que nos lleve efectivamente la respuesta correcta donde incluso ha conseguido
leer que ahí está mi nombre Carlos Santana Vega y el nombre del evento GitHub Universe bastante bastante
impresionante bueno y aquí quizás podemos ver uno de los comportamientos más problemáticos de este modelo y es
que en muchas ocasiones se queda atascado sobrepensando más el problema fijaos que ya había llegado a la
solución en las primeras iteraciones había conseguido hacer zoom perfectamente pero luego ha continuado
haciendo giros añadiendo filtros haciendo eh procesamientos a la imagen y ha conseguido extraer más información ha
sacado eh mi nombre completo ha sacado cierta información ha sabido buscar el evento en internet se ha puesto a hacer
búsquedas en el navegador y ahora sigue buscando información sobre mí y no termina de concretar una respuesta aquí
el truco que voy a hacer es pararlo directamente después de que haya pensado pues 10 15 minutos y le voy a decir que
no puedo esperar más que me resuma sus conclusiones que coja todo ese razonamiento que tiene en su ventana de
contexto y que me dé una respuesta y así ahora sí podemos sacar la información de que bueno dice "Las cintas azul lleva el
logotipo de GitHub el diseño de la tarjeta pues este patrón coincide con las credenciales que GitHub entregan sus
conferencias propias y que hay ausencia de otros logotipos así que no parece que ninguna marca compita y que el evento
por tanto sea posiblemente del GitHub Universe que es efectivamente la respuesta a la pregunta que he hecho muy
bien analizado sobreanalizado quizás pero muy impresionante ver una inteligencia artificial logrando este
tipo de resultados y no solo este resultado sino muchos problemas que tanto O1 como O1 Promote pues no
consiguieron desatascar en este caso este descifra el siguiente código o1 Promote sí lo consiguió resolver pero O1
no y en este caso pues podemos ver de nuevo que el modelo razonando pues haciendo diferentes estrategias pensadas
razonadas y ejecutadas en su propio razonamiento pues acaba llevándole al final a descifrar el código que le he
pedido con lo cual bastante sorprendente y además en tiempos que son inferiores a lo que uno pro Mode conseguí hacer hace
4 meses otro ejemplo que también probé con O1 Promote y que no fue capaz de resolver una posición de ajedrez como
esta que tenemos aquí donde le preguntamos al modelo cuál es el mejor movimiento para las blancas recuerdo que
en aquel momento el modelo pues alucinaba posiciones de peones que no estaban donde tocaban y no sabía
realmente extraer cuál era la mejor jugada que en este caso sería mover la torre fijaos si movemos para acá y
hacemos captura del caballo parece que estamos perdiendo una torre pero realmente si el rey nos acaba comiendo
la torre pues tenemos la posibilidad de avanzar con este peón y coronar convertirlo en una dama y por tanto
tendríamos una ventaja una posición ganada y si el rey decide no comer la torre para evitar el coronamiento pues
nos hemos comido una pieza que también está muy bien fijaos esta es la posición la mejor posición de blancas y en este
caso el modelo pues Chat GPT O3 tras estar pensando 3 minutos 40 segundos nos dice que la jugada decisiva
efectivamente es mover torre a F5 justamente la posición que estábamos comentando y no solo cierta la posición
sino que hace efectivamente un análisis muy riguroso muy correcto de por qué tenemos que hacer ese movimiento y nos
explica exactamente lo que acabo de explicar las dos opciones si el rey captura si no captura en ambos casos
¿por qué tendríamos una posición ganada y además analiza las otras posiciones lo cual pues nos hace ver que este nuevo
modelo O3 efectivamente es más capaz que el modelo 1 promote que teníamos hace 3 meses y en las cadenas de razonamiento
encontramos pues cositas superinesantes por ejemplo en esta otra posición del tablero de ajedrez pues encontramos como
el modelo de nuevo se puede analizar diferentes regiones del tablero para razonar con ello y fijaos que en un
punto el modelo intenta importar a través de código un módulo de ajedrez para responder a la pregunta que le
hemos hecho claro si tú le estás pidiendo cuál es la mejor posición de un tablero de ajedrez pues inteligentemente
si tú tienes acceso a código ¿por qué no vas a utilizar un módulo no sería un poco tramposo en esta medición de
capacidades que estamos haciendo pero al mismo tiempo me parece brillante ¿no el intentar hacer este movimiento de hacer
uso de todas las herramientas que tiene disponibles y que demuestra mucho esta personalidad agéntica que tienen estos
nuevos modelos O3 y O4 Mini modelos que como estoy insistiendo son más inteligentes quiero que vosotros lo
testeéis pero yo ya he estado haciendo pruebas con diferentes eh prompts que ya se están quedando caducos ya los modelos
actuales donde hace cco o se meses pues teníamos modelos que fallaban estos prompts que considerábamos difíciles
fijaos que con el avance de los nuevos modelos pues cada vez llegamos a situaciones donde ya estas preguntas son
resueltos por todos los modelos tanto por O3 como Yemini Pro 2.5 y si os estáis preguntando si O3 y O4 mini high
es mejor o peor que Yemyight 2.5 Pro pues por las evaluaciones que han salido sí podemos observar que los modelos de
Open AI se ponen a la cabeza es decir de nuevo estamos teniendo modelos que están a la frontera a la vanguardia en lo que
las capacidades de la inteligencia artificial puede demostrar a un coste eso sí más caro por parte de Open AI
modelos más capaces pero más caros que los de la competencia que los de Google pero si lo analizamos a nivel de
capacidades de frontera pues ahora mismo Open AI estaría a la cabeza algo que además en las próximas semanas se
debería de potenciar con la salida del modelo O3 Pro mode que sería este modelo O3 tan capaz que estamos viendo hoy
configurado para hacer pues más procesamiento en paralelo gastar más computación y dar por tanto mejores
resultados o1 promote está muy a la altura de lo que O3 mini High e incluso O3 hoy ofrece así que el modelo O3
promote pues puede ser una bestia parda que estaremos muy atentos cuando salga para analizar pero las conclusiones de
este vídeo es que estamos ante una nueva familia de modelos que es muy impresionante y un paradigma del
razonamiento del test time compute que no deja de darnos cada vez más y a un ritmo muy rápido mejores resultados
modelos mucho más potentes que lo que teníamos hace 4 o 5 meses y que nos hace pensar hacia dónde nos movemos qué vamos
a tener de aquí a finales de verano cuando ya no veamos a O4 sino que el modelo que posiblemente tengamos entre
manos sea el famoso GPT5 con todos estos avances y toda esta tecnología unificada en un único modelo novedades que cuando
salgan chicos y chicas os contaré por aquí en este canal donde la actualidad de la inteligencia artificial siempre
está al día chicos chicas muchas gracias por verme tenéis más vídeos en el otro canal en el canal principal un montón de
vídeos muy interesantes tenéis el vídeo de GPT4.1 que publicamos ayer también aquí y nos vemos con más actualidad aquí
en DSV app
Heads up!
This summary and transcript were automatically generated using AI with the Free YouTube Transcript Summary Tool by LunaNotes.
Generate a summary for freeRelated Summaries

Nuevos Modelos GPT-4.1 de OpenAI: Comparativa y Análisis
OpenAI ha lanzado tres nuevos modelos de la serie GPT, incluyendo el GPT-4.1, GPT-4.1 Mini y GPT-4.1 Nano, diseñados para mejorar la programación y competir con otros modelos populares. En este video, se analizan sus características, rendimiento y se comparan con modelos como Cloud Sonet 3.7 y Gemini 2.5 Pro.

Comparativa de Capacidades de Visión AI: Jetson Nano Super vs Raspberry Pi 5
Descubre las capacidades de visión AI de Jetson Nano Super y Raspberry Pi 5 en este tutorial comparativo y práctico.

Introducción a los Modelos de Lenguaje Grande: ¿Qué son y cómo funcionan?
Descubre cómo funcionan los modelos de lenguaje como ChatGPT y su impacto en la inteligencia artificial.

Comparativa entre Orange Pi 5B y Raspberry Pi 5: Rendimiento en LLMs
Descubre cómo se comparan el Orange Pi 5B y el Raspberry Pi 5 al ejecutar modelos de lenguaje. ¡Resultados sorprendentes!

Alternativas al Raspberry Pi 4: Explorando los Mejores SBCs
Descubre las mejores alternativas al Raspberry Pi 4, desde el Banana Pi hasta el Orange Pi 5, y encuentra la opción perfecta para tus proyectos.
Most Viewed Summaries

Mastering Inpainting with Stable Diffusion: Fix Mistakes and Enhance Your Images
Learn to fix mistakes and enhance images with Stable Diffusion's inpainting features effectively.

A Comprehensive Guide to Using Stable Diffusion Forge UI
Explore the Stable Diffusion Forge UI, customizable settings, models, and more to enhance your image generation experience.

How to Use ChatGPT to Summarize YouTube Videos Efficiently
Learn how to summarize YouTube videos with ChatGPT in just a few simple steps.

Pamaraan at Patakarang Kolonyal ng mga Espanyol sa Pilipinas
Tuklasin ang mga pamamaraan at patakarang kolonyal ng mga Espanyol sa Pilipinas at ang mga epekto nito sa mga Pilipino.

Pamamaraan at Patakarang Kolonyal ng mga Espanyol sa Pilipinas
Tuklasin ang mga pamamaraan at patakaran ng mga Espanyol sa Pilipinas, at ang epekto nito sa mga Pilipino.