Comparación Completa de LLM: Claude Opus 4.5 vs. ChatGPT 5.1 vs. Google Gemini 3 Pro

Autor: Boxu Li

Introducción

A finales de 2025, tres gigantes de la IA – Anthropic, OpenAI y Google DeepMind – lanzaron modelos de lenguaje de gran escala de nueva generación. Claude Opus 4.5 de Anthropic, ChatGPT 5.1 de OpenAI (basado en la serie GPT‑5.1), y Gemini 3 Pro de Google representan lo más avanzado en IA. Los tres prometen avances significativos en capacidades, desde manejar contextos masivos hasta resolver tareas complejas de codificación y razonamiento. Este análisis detallado ofrece una comparación técnica de estos modelos en dimensiones clave: referencias de rendimiento, capacidades de razonamiento, generación de código, latencia de API, costo, ventana de contexto de tokens, ajuste fino y personalización, para entender cómo se comparan entre sí.

Perfiles de Modelos: Claude Opus 4.5 es el último modelo insignia de Anthropic (un sucesor de Claude 2 y la serie Claude 4), afirmando ser "el mejor modelo del mundo para codificación, agentes y uso de computadoras"[1]. ChatGPT 5.1 de OpenAI es una actualización de la serie GPT‑5, ofrecido en dos modos (Instantáneo y Pensamiento) para equilibrar velocidad y profundidad de razonamiento[2]. Gemini 3 Pro de Google es la instancia de más alto nivel de la familia Gemini, un modelo multimodal construido por Google DeepMind, anunciado como "nuestro modelo más inteligente" con razonamiento y uso de herramientas de vanguardia[3][4]. Aunque las arquitecturas detalladas son propietarias, los tres son sistemas grandes basados en Transformadores, probablemente del orden de billones de parámetros, aumentados con entrenamiento y optimización extensivos (por ejemplo, aprendizaje por refuerzo a partir de retroalimentación humana). A continuación, los comparamos en detalle.

Rendimiento en Pruebas de Referencia

Modelo
Conocimiento amplio (MMLU / PiQA)
GPQA Diamante (preguntas difíciles)
Último examen de la humanidad (HLE)
ARC‑AGI (razonamiento)
Caracterización
Gemini 3 Pro
≈“experto humano” en pruebas académicas estándar; ~90%+
91.9%[5]
37.5% (sin herramientas)[8]
31%, hasta 45% en modo “Deep Think”[9]
Vanguardia en las tareas de razonamiento más difíciles; efectivamente “nivel de doctorado” en pruebas de frontera[10].
GPT‑5.1
≈91.0% en MMLU[6], esencialmente a la par con Gemini[6]
– (no declarado públicamente; comparable en conocimiento)
≈26.8%[8]
≈18%[9]
Conocimiento amplio muy fuerte; sigue a Gemini 3 Pro en razonamiento ultra difícil, pero aún competitivo.
Claude Opus 4.5
Sin MMLU oficial; Claude Sonnet 4.5 en altos 80% usado como proxy[7]
≈13.7% para el modelo previo de Claude[8]
Por debajo de GPT‑5.1 y Gemini 3 Pro en ARC‑AGI[9]
Rendimiento académico sólido; comparativamente más débil en razonamiento de frontera, con fortalezas en otras áreas (notablemente en codificación).

Conocimiento y razonamiento (MMLU, ARC, etc.): En pruebas de conocimiento amplio como MMLU (Entendimiento Masivo Multitarea del Lenguaje), los tres modelos funcionan cerca o por encima del nivel de expertos humanos. Google informa que Gemini 3 Pro alcanza aproximadamente un 91.9% en los conjuntos de preguntas más difíciles (GPQA Diamond) y encabeza la tabla de clasificación de LMArena con un Elo de 1501[5]. GPT‑5.1 es igualmente fuerte en MMLU; en un análisis, GPT‑5.1 obtuvo alrededor del 91.0% en MMLU, aproximadamente a la par con Gemini 3 Pro[6]. Anthropic no ha publicado un MMLU oficial para Opus 4.5, pero su predecesor (Claude Sonnet 4.5) estaba en el rango del 80% alto[7], lo que sugiere que Opus 4.5 está alrededor de ese nivel para tareas de conocimiento académico. En exámenes de razonamiento extremadamente desafiantes, emergen diferencias.

El Último Examen de la Humanidad (una prueba de razonamiento brutal) vio a Gemini 3 Pro obtener un 37.5% (sin herramientas), significativamente más alto que GPT‑5.1 (~26.8%) o el modelo anterior de Anthropic (~13.7%)[8]. Asimismo, en el desafío de razonamiento ARC-AGI, Gemini 3 Pro alcanzó el 31% (y hasta un 45% en un modo especial “Deep Think”), superando con creces a GPT‑5.1 (~18%) y a los modelos anteriores de Claude[9]. Estos resultados indican que el modelo de Google actualmente lidera en los puntos de referencia de razonamiento más difíciles, lo que probablemente refleja la avanzada planificación y entrenamiento en resolución de problemas de Gemini. GPT‑5.1 de OpenAI no se queda atrás en conocimiento y razonamiento, mientras que la fortaleza de Anthropic reside en otras áreas (como veremos en codificación). En general, en puntos de referencia estándar como MMLU y PiQA, los tres están estrechamente agrupados en una precisión de ~90%[5], pero para pruebas de razonamiento “fronterizas” (matemáticas complejas, acertijos lógicos), Gemini 3 Pro tiene una ventaja con su rendimiento a nivel de “doctorado”[10].

Generación de Código y Comparativas de Software: Anthropic Claude Opus 4.5 ha enfocado explícitamente tareas de codificación y uso “agente” de computadoras, y actualmente ostenta la corona en benchmarks de código. En la evaluación interna de Anthropic en SWE-Bench (Banco de Ingeniería de Software) Verificado, Opus 4.5 logró un 80,9% de éxito, siendo el más alto de cualquier modelo de vanguardia[11]. Esto supera ligeramente al modelo GPT‑5.1-Codex-Max de OpenAI (77,9%) y al Gemini 3 Pro de Google (76,2%) en el mismo test[11]. El gráfico a continuación, del anuncio de Anthropic, ilustra el margen por el cual Claude 4.5 lidera en tareas de codificación del mundo real:

Claude Opus 4.5 alcanza la puntuación más alta en SWE-Bench Verificado (problemas de codificación del mundo real), superando ligeramente al Codex GPT‑5.1 de OpenAI y al Gemini 3 Pro de Google[11].

Este resultado es notable porque la variante Codex-Max de GPT‑5.1 fue en sí misma una gran mejora para la programación (OpenAI la entrenó en tareas de ingeniería de software y uso de herramientas)[12]. Sin embargo, Opus 4.5 logró adelantarse por unos pocos puntos porcentuales. Gemini 3 Pro de Google está muy cerca; “supera con creces” a su predecesor Gemini 2.5 en estos benchmarks de agentes de programación[13], pero actualmente queda detrás del nuevo Claude. En términos prácticos, los tres modelos son asistentes de programación altamente capaces: pueden generar código correcto para tareas complejas, refactorizar grandes bases de código e incluso operar entornos de desarrollo. Pero se nota el enfoque de Anthropic en la calidad y eficiencia del código: los desarrolladores informaron que Claude Opus 4.5 demuestra “planificación de tareas de frontera y uso de herramientas” en la programación, y resuelve problemas con menos tokens[14][15]. De hecho, Anthropic dice que Opus 4.5 puede manejar flujos de trabajo de programación en múltiples pasos “de manera más eficiente que cualquier modelo que hayamos probado” y ofrece tasas de éxito más altas utilizando hasta 65% menos tokens en las mismas tareas[16]. Esta eficiencia y habilidad de programación hacen que Claude 4.5 sea extremadamente fuerte para casos de uso en ingeniería de software.

Otros puntos de referencia: Cada modelo tiene sus fortalezas específicas. La destreza multimodal de Gemini 3 se refleja en los puntos de referencia de razonamiento de imágenes+video, como MMMU-Pro (Multimodal MMLU) y Video-MMMU, donde Gemini 3 Pro obtuvo un 81% y un 87.6% respectivamente, estableciendo un nuevo estándar de excelencia[17]. También logró un 72.1% en SimpleQA Verified, lo que indica una mejor precisión factual en preguntas y respuestas abiertas[18]. Mientras tanto, el GPT‑5.1 de OpenAI sobresale en calidad conversacional y sigue instrucciones más de cerca que sus predecesores. Aunque no está vinculado a un solo punto de referencia, OpenAI señaló que la inteligencia general y el estilo de comunicación de GPT‑5.1 mejoraron de manera “significativa”[19]. Muchos observadores notaron que GPT‑5.1 se siente “más cálido, más inteligente y mejor al seguir instrucciones” en tareas cotidianas[2], lo que puede no aparecer en métricas de precisión pura pero mejora la usabilidad en el mundo real. Opus 4.5 de Anthropic también fue diseñado para tareas prácticas más allá de la codificación: los evaluadores encontraron que “descubre la solución” para errores complejos de múltiples sistemas y “maneja la ambigüedad y razona sobre compromisos” sin necesidad de ser guiado[20]. En resumen, los puntos de referencia solo cuentan parte de la historia. Los tres modelos rinden a nivel humano o superior en muchas pruebas académicas. Gemini 3 empuja los límites en desafíos lógicos y multimodales difíciles, Claude 4.5 lidera en tareas complejas de codificación y uso de herramientas, y GPT‑5.1 ofrece un equilibrio de rendimiento sólido con una habilidad conversacional refinada.

Capacidades de Razonamiento y Pensamiento a Largo Plazo

Un tema en estos nuevos modelos es la mejora del razonamiento a largo plazo: la capacidad de abordar problemas complejos mediante múltiples pasos o durante períodos prolongados. GPT‑5.1 de OpenAI introdujo un modo dedicado de “Pensamiento”, un modelo de razonamiento avanzado que es “más persistente en tareas complejas”[2]. GPT‑5.1 Pensamiento realmente “piensa” más tiempo (es decir, asigna más cálculo interno o pasos) para consultas difíciles, lo que le permite resolver problemas que requieren lógica de múltiples pasos. Google adoptó un enfoque similar con Gemini 3 Deep Think, un modo opcional para Gemini 3 Pro que “empuja los límites de la inteligencia aún más lejos” en problemas complejos[21]. En las pruebas, Gemini 3 Deep Think superó significativamente al modo normal en los puntos de referencia más difíciles (por ejemplo, aumentando esa puntuación de Humanity’s Last Exam de 37,5% a 41,0%, y ARC-AGI a 45,1%)[22]. Esto indica que el modelo puede razonar internamente a través de tareas muy difíciles cuando se le da más “tiempo de pensamiento.”

Claude Opus 4.5 de Anthropic enfatiza de manera similar el razonamiento extendido. Preserva automáticamente sus 「bloques de pensamiento」 de turnos anteriores, manteniendo una cadena de pensamiento a lo largo de una sesión prolongada[23] – los modelos anteriores de Claude solían perder estos, pero Opus 4.5 puede llevar adelante razonamientos intermedios, lo cual es crucial para un trabajo consistente en múltiples pasos. Anthropic también añadió un parámetro de “esfuerzo” a Opus 4.5 que controla directamente cuántos tokens gasta el modelo en razonar y explicar[24]. Con Alto Esfuerzo, Opus producirá análisis muy detallados (útil para depuración compleja o investigación profunda), mientras que Bajo Esfuerzo ofrece respuestas más breves adecuadas para tareas rápidas de alto volumen[25]. Esto es efectivamente un control para la profundidad del razonamiento frente a la velocidad.

En la práctica, estas características significan que cada modelo puede manejar tareas de razonamiento sostenido mucho mejor que las generaciones anteriores. Por ejemplo, OpenAI informó que GPT‑5.1-Codex-Max puede operar de manera autónoma durante horas seguidas, mejorando iterativamente el código y corrigiendo errores sin intervención humana[26][27]. Utiliza una técnica llamada “compactación” para depurar y condensar su contexto a medida que trabaja, lo que permite un trabajo coherente sobre millones de tokens en una sola sesión[28][29]. Simon Willison, uno de los primeros en probarlo, señaló que los modelos de Anthropic pueden sostener de manera similar largas sesiones de codificación: utilizó Opus 4.5 para conducir ~30 minutos de codificación autónoma, e incluso el más pequeño Claude Sonnet 4.5 pudo continuar la carga de trabajo de manera efectiva[30][31]. Gemini 3, con su enorme ventana de contexto y uso integrado de herramientas, está diseñado explícitamente para “planificar y ejecutar tareas complejas de principio a fin” a través de agentes que pueden operar en un IDE o incluso en un terminal Linux[32][33]. En los propios productos de Google, la IA basada en Gemini puede analizar documentos o videos extensos y producir salidas estructuradas como tarjetas de estudio o planes paso a paso[34][35].

Bottom line: All three models have made reasoning more persistent and autonomous. They can handle complex workflows that span many steps. OpenAI and Google offer toggles (Thinking mode, Deep Think) to ramp up reasoning when needed. Anthropic’s Opus runs at a high reasoning level by default, and gives developers manual control over the trade-off between thoroughness and latency[24]. This reflects a convergence in design: rather than always responding in one-shot, these models internally simulate “thinking for a longer period”[36][37] to tackle harder problems and use tools effectively, moving closer to true agent-like behavior.

Code Generation and Tool Use

Habilidades de codificación: Como se mencionó anteriormente, Claude 4.5 actualmente supera a GPT‑5.1 y Gemini 3 en puntos de referencia de codificación medidos[11]. Pero los tres son extremadamente capaces en la generación de código, mucho más allá de los modelos de hace solo uno o dos años. GPT‑5.1-Codex-Max de OpenAI, por ejemplo, fue “entrenado en tareas reales de ingeniería de software” como revisiones de código, creación de solicitudes de extracción y responder preguntas de codificación[12]. Puede trabajar en múltiples archivos e incluso manejar entornos de Windows (algo nuevo, que indica entrenamiento en tareas específicas del sistema operativo)[38][39]. Mientras tanto, Claude Opus 4.5 fue responsable de refactorizaciones complejas que abarcan múltiples bases de código y agentes, según los clientes de Anthropic[40]. Los desarrolladores que usaron Claude en un IDE (por ejemplo, Claude Code) encontraron que podía coordinar cambios en docenas de archivos con errores mínimos[41]. Gemini 3 de Google también destaca en el desarrollo de software: Google lo describe como “el mejor modelo de codificación de ambiente y agente que hemos construido”, y encabezó un punto de referencia WebDev (tareas de desarrollo web) con un Elo de 1487[13]. En una prueba en vivo Terminal-Bench (haciendo que el modelo opere un terminal Linux), Gemini 3 Pro obtuvo un 54,2%, más alto que GPT‑5.1 (~47%) o modelos anteriores de Anthropic[42][43]. Esto sugiere que Gemini es especialmente fuerte en usar herramientas/comandos para realizar tareas de codificación de manera autónoma.

Uso de herramientas y agentes: Más allá de la generación de código en bruto, una frontera clave es el comportamiento agente: hacer que el modelo use herramientas o actúe como un agente autónomo. Las tres empresas están habilitando esto de diferentes maneras. La plataforma de OpenAI admite llamadas a funciones y ha introducido “Agentes de OpenAI” que permiten a GPT-5.1 invocar herramientas (como navegadores web, intérpretes de código, etc.) para completar tareas. GPT-5.1 también puede “compactar” automáticamente su memoria de trabajo durante sesiones prolongadas de uso de herramientas, como se describe, para no quedarse sin contexto[28][29]. Google construyó un entorno completamente orientado a agentes llamado Google Antigravity alrededor de Gemini 3[32]. En este sistema, los agentes de Gemini tienen acceso directo a un editor de código, terminal y navegador. Pueden “planificar y ejecutar autónomamente tareas complejas de software de extremo a extremo”: escribir código, ejecutarlo, probarlo e iterar, todo dentro de la plataforma de desarrollo[44][33]. Esto se complementa con las habilidades multimodales de Gemini: por ejemplo, un agente Gemini puede leer una captura de pantalla o un diseño simulado como entrada, luego generar y ejecutar código para reproducir la interfaz de usuario.

Anthropic, por su parte, mejoró las herramientas de 「uso de computadoras」 de Claude. Claude Opus 4.5 ahora puede solicitar una captura de pantalla ampliada de alta resolución de regiones de la pantalla para una inspección detallada[45][46]. En las aplicaciones y SDK de Claude de Anthropic, puede operar una computadora virtual: hacer clic en botones, desplazarse, escribir, y la nueva función de zoom le ayuda a leer texto pequeño o elementos de la interfaz de usuario que antes eran difíciles de ver[47][48]. Combinado con un conjunto de herramientas disponibles (shell bash, ejecución de código, navegador web, etc. en la API de Claude[49][50]), Claude 4.5 está claramente diseñado para sobresalir en 「agentes que usan una computadora」. Los primeros evaluadores informan que Opus 4.5 exhibe 「la mejor planificación de tareas de vanguardia y convocatoria de herramientas que hemos visto hasta ahora,」 ejecutando flujos de trabajo de múltiples pasos con menos obstáculos[14][51]. Por ejemplo, Warp (una empresa de herramientas de desarrollo) vio una mejora del 15% en Terminal Bench con Claude 4.5 en comparación con Claude 4.1, citando su razonamiento sostenido que produce una mejor planificación a largo plazo[52].

En resumen, cuando se trata de codificación y uso de herramientas: - Claude Opus 4.5 está ligeramente por delante en la tasa de éxito de codificación pura y es extremadamente eficiente (resolviendo tareas con significativamente menos tokens)[53][54]. Es una opción destacada para la refactorización a gran escala, migración de código y cualquier cosa donde el costo de tokens importe, gracias a optimizaciones que reducen el uso de tokens en un 50-76% en pruebas[55][54]. - GPT‑5.1 (Codex-Max) es un competidor muy cercano que se integra profundamente con el flujo de trabajo del desarrollador (CLI, extensiones de IDE[56]). Se le conoce por ser un compañero de codificación confiable que puede funcionar durante horas, y ahora incluso admite múltiples ventanas de contexto de forma nativa (lo que significa que puede manejar sin problemas partes de un proyecto en secuencia)[28]. El ecosistema de OpenAI también facilita la integración de herramientas a través de llamadas a funciones. - Gemini 3 Pro aporta la fortaleza de Google en la integración de búsqueda, datos y entrada multimodal en la codificación. No solo escribe código, sino que puede operar software (el terminal, navegador, etc.) de manera efectiva. La ventaja de Google en multimodal significa que Gemini puede incorporar contexto visual (bocetos de diseño, diagramas) directamente en el proceso de codificación, una capacidad única entre estos modelos.

Los tres están avanzando hacia una IA que no solo escribe código sino que actúa como un ingeniero autónomo. Esto es evidente en los informes de agentes de IA que “aprenden de la experiencia y mejoran sus propias habilidades” en un ciclo iterativo[57][58]. Un cliente describió a los agentes Claude 4.5 que se auto-mejoraron en 4 iteraciones para alcanzar el máximo rendimiento en una tarea, mientras que otros modelos necesitaron 10 iteraciones y aún no pudieron igualarlo[59][60]. Este tipo de comportamiento adaptativo, que utiliza herramientas, está evolucionando rápidamente, y cada uno de estos modelos está a la vanguardia.

Ventana de contexto y memoria

Las ventanas de contexto grandes han sido una característica distintiva de Claude de Anthropic, y Opus 4.5 continúa esa tendencia con una ventana de contexto de 200,000 tokens para la entrada (y hasta 64,000 tokens en la salida)[61]. Esto es suficiente para ingresar cientos de páginas de texto o múltiples documentos extensos de una sola vez. En términos prácticos, 200,000 tokens (~150,000 palabras) permiten, por ejemplo, introducir un código completo o un libro en Claude para su análisis. Anthropic utiliza esto para habilitar sesiones de chat “infinitas” sin toparse con un límite; de hecho, Claude 4.5 admite conversaciones muy largas y puede recordar mucho más historial que la mayoría de los modelos[62][63].

Google ha superado esto con la ventana de contexto de 1.048.576 tokens de Gemini 3 Pro (aproximadamente 1 millón de tokens)[64][65]. Esto es un salto de magnitud. Gemini 3 puede "comprender vastos conjuntos de datos... incluyendo texto, audio, imágenes, video, PDFs e incluso repositorios de código completos con su ventana de contexto de 1M de tokens"[64][65]. Esencialmente, puede recibir libros o horas de audio/video como entrada. De hecho, el modelo admite entradas verdaderamente multimodales: podrías proporcionarle un extenso PDF, además de varias imágenes y clips de audio todo en un solo mensaje, siempre que el total de tokens (después de codificar estos) esté por debajo del límite[64][66]. La documentación de Google menciona que puede manejar hasta 900 imágenes en un solo mensaje, o grandes videos (con fotogramas codificados como tokens)[67]. Este enorme contexto es un cambio de juego para tareas como revisar grandes bases de código, analizar extensos contratos legales o resumir horas de transcripciones.

GPT-5.1 de OpenAI no anunció explícitamente un contexto fijo tan grande como 1M, pero introdujo técnicas para superar límites anteriores. GPT-4 ofreció una variante de contexto de 128k (en ChatGPT Enterprise y modelos GPT-4 32k), y hay indicios de que GPT-5 puede manejar hasta 400k o más tokens en ciertos entornos[68][69]. De manera más concreta, el mecanismo de “compactación” de OpenAI en GPT-5.1-Codex-Max permite al modelo resumir continuamente partes más antiguas de la conversación o el historial de tareas, dándole efectivamente memoria de trabajo ilimitada durante sesiones largas[28][29]. Por ejemplo, GPT-5.1 puede trabajar durante más de 24 horas comprimiendo periódicamente el contexto para liberar espacio y “repitiendo este proceso hasta que se complete la tarea.”[70][71]. Así que, aunque la ventana bruta de GPT-5.1 podría ser del orden de 128k tokens por solicitud, su diseño le permite superar eso encadenando contextos. OpenAI también ha estado implementando funciones de almacenamiento en caché del contexto y memoria de conversación a largo plazo en ChatGPT, lo que indica que el modelo puede recordar partes anteriores de un diálogo incluso cuando superan el límite nominal de tokens.

Para resumir las capacidades de contexto: - Claude Opus 4.5: ~ventana de 200K tokens (entrada) de forma nativa[61]. Esto es extremadamente alto y adecuado para la mayoría de las tareas de documentos largos. El esquema de precios de Anthropic incluso tiene en cuenta esto: si superas los 200k en una sola solicitud, te cobran a una tarifa más alta de "contexto de 1M"[72][73] (lo que implica que posiblemente tienen un modo experimental de 1M también). - GPT‑5.1: Oficialmente hasta 128K en implementaciones actuales para ChatGPT Pro[74], pero con compactación automática de contexto que permite efectivamente millones de tokens a lo largo de una sesión[28][29]. Podemos pensarlo como soporte de contexto largo dinámico en lugar de una ventana grande fija. - Gemini 3 Pro: Ventana de 1M tokens – la más grande de cualquier modelo importante – y diseñada explícitamente para contexto multimodal (texto+imagen+audio+video en uno)[64][75]. Esto permite análisis como "alimentar al modelo con toda una conferencia en video y varios artículos de investigación y que sintetice un resumen o responda preguntas", lo que sería inviable en contextos más pequeños.

Todo esto significa que las limitaciones de memoria son menos un obstáculo con estos modelos que nunca antes. Donde los modelos anteriores tenían dificultades para recordar detalles desde el principio de un documento extenso, estos pueden retener enormes cantidades de información de una sola vez. Esto beneficia especialmente tareas como el razonamiento a largo plazo (por ejemplo, encontrar una solución que requiera referenciar muchas partes de un input) y los diálogos abiertos que abarcan docenas de turnos.

Velocidad y Latencia

Con contextos tan amplios y razonamientos complejos, uno podría esperar que estos modelos sean lentos, pero cada proveedor ha introducido formas de gestionar la latencia. El enfoque de OpenAI es la diferenciación de modelos: GPT‑5.1 Instantáneo vs GPT‑5.1 Reflexivo[76]. El modelo Instantáneo está optimizado para respuestas rápidas y conversacionales; es el que “a menudo sorprende a las personas con su espontaneidad mientras sigue siendo claro y útil.”[77] Es, efectivamente, la opción de baja latencia para conversaciones cotidianas. El modelo Reflexivo, por otro lado, es el caballo de batalla para consultas complejas y, aunque está optimizado para ser más rápido en tareas sencillas, tardará más en tareas difíciles porque implica un razonamiento más profundo[78]. Este sistema de modelos de dos niveles permite a los usuarios elegir entre velocidad y precisión según lo necesiten. En la práctica, GPT‑5.1 Instantáneo se siente muy ágil (similar al GPT‑4 Turbo o más rápido), mientras que GPT‑5.1 Reflexivo podría tardar notablemente más al resolver un problema difícil, pero ofrece mejores respuestas.

La solución de Anthropic, como se mencionó, es el parámetro de esfuerzo en Claude 4.5[24]. Por defecto, está configurado en “alto”, lo que significa que el modelo maximiza la minuciosidad (lo que puede aumentar la latencia). Los desarrolladores pueden ajustarlo a medio o bajo. Los datos de Anthropic sugieren que con un esfuerzo medio, Opus 4.5 puede resolver tareas con la misma precisión que antes, pero utilizando muchos menos tokens, respondiendo así más rápido[53][54]. En un ejemplo, el esfuerzo medio igualó el rendimiento de Claude Sonnet 4.5 en SWE-Bench usando 76% menos tokens de salida[53][54], lo que se traduce en una latencia y un costo significativamente menores. Así que, si una aplicación necesita respuestas rápidas, ajustar a un esfuerzo menor produce respuestas más breves (pero aún competentes). Con un esfuerzo alto, Claude puede tardar un poco más, pero produce resultados muy detallados. Los primeros reportes de usuarios señalan que los tiempos de respuesta de Claude son “estables y predecibles” incluso con un esfuerzo alto, aunque obviamente las respuestas más largas tardan más en generarse[79].

El Gemini 3 Pro de Google tiene un parámetro thinking_level (con valores “low” o “high”), que reemplaza un ajuste anterior llamado “thinking_budget” del Gemini 2[80]. Este thinking_level permite al usuario decidir si Gemini debe realizar un razonamiento interno mínimo (para mayor velocidad) o máximo (para mayor calidad)[80]. Google también ofrece una configuración de media_resolution para la entrada multimodal, donde puedes elegir procesar imágenes/videos a una resolución más baja para obtener resultados más rápidos o a alta resolución para una mejor precisión visual (a costa de más tokens y latencia)[81]. Estos controles reconocen que procesar 1M de tokens o imágenes grandes es inherentemente lento, por lo que los desarrolladores pueden ajustar la velocidad modificando cuánto “piensa” el modelo y cómo analiza los medios. No hay un benchmark público de latencia lado a lado de GPT-5.1 vs Claude vs Gemini, pero evidencia anecdótica sugiere: - GPT-5.1 Instant es extremadamente rápido para consultas normales (a menudo termina en un par de segundos), e incluso el modo de Pensamiento ha recibido optimizaciones de velocidad – OpenAI señaló que ahora es “más fácil de entender y más rápido en tareas simples” que antes[78]. - Claude 4.5 en esfuerzo alto es muy minucioso, lo que puede significar salidas más largas y ligeramente más latencia, pero en medio/bajo se acelera considerablemente. Un usuario de Reddit que probó tareas de codificación señaló que GPT-5.1 y Claude eran aproximadamente comparables en velocidad después de las mejoras de GPT-5.1, mientras que anteriormente GPT-5 había sido más lento que Claude en algunas tareas largas[82][83]. - La latencia del Gemini 3 Pro dependerá del contexto – alimentarlo con cientos de imágenes o un millón de tokens será naturalmente más lento. Sin embargo, para tamaños de solicitud típicos, se informa que Gemini es ágil, y la infraestructura en la nube de Google (TPUs) está optimizada para servir estos modelos a nivel mundial. Google no ha publicado números explícitos de latencia, pero la disponibilidad de un “Gemini 3 Flash” (una variante rápida y de menor costo con un contexto más pequeño) sugiere que el modelo Pro completo está destinado para tareas de gran envergadura en lugar de rápidas preguntas y respuestas[84].

En resumen, los tres modelos ahora permiten un equilibrio entre velocidad y razonamiento. Introducen palancas internas o variantes del modelo para asegurar que si no necesitas un pensamiento profundo, no te quedes esperando. Para la mayoría de las aplicaciones generales (indicaciones cortas, complejidad moderada), cada modelo puede responder casi en tiempo real (unos pocos segundos). Para trabajos muy grandes o complejos, puedes esperar tiempos de ejecución de varios segundos o incluso minutos, pero tienes control sobre eso a través de las configuraciones. Esta es una evolución necesaria a medida que las ventanas de contexto y las tareas se hacían más grandes, y es alentador que incluso al abordar problemas más complejos, estos modelos sigan siendo utilizables en entornos interactivos.

Costos y Precios

La competencia no se trata solo de capacidad: el costo es un factor importante, y estamos viendo movimientos agresivos aquí. De hecho, el lanzamiento de Opus 4.5 de Anthropic vino con una reducción dramática de precios: las llamadas API de Opus 4.5 cuestan $5 por millón de tokens de entrada y $25 por millón de tokens de salida[85][86]. Esto es ⅓ del precio del anterior Opus 4.1 (que era $15/$75 por millón)[85]. Anthropic redujo deliberadamente los precios para hacer Claude más atractivo para los desarrolladores, reconociendo que los modelos Opus anteriores eran prohibitivamente caros[87][88]. Con la nueva tarifa, usar Claude para tareas grandes es mucho más factible: ahora es solo un poco más caro por token que los modelos más pequeños de Anthropic (Claude Sonnet 4.5 cuesta $3/$15 por millón)[89].

¿Cómo se compara esto? La familia GPT‑5.1 de OpenAI es en realidad más barata por token. Las llamadas API de GPT‑5.1 cuestan aproximadamente $1.25 por millón de tokens de entrada y $10 por millón de tokens de salida para el modelo base[89]. Google’s Gemini 3 Pro está en el medio: alrededor de $2 por millón de entrada y $12 por millón de salida al nivel estándar de contexto de 200k[89]. (Notablemente, Google planea cobrar un premium si utilizas más allá de 200k tokens hasta el contexto completo de 1M, aproximadamente $4/$18 por millón en ese régimen[90].) Estos números significan que OpenAI actualmente ofrece el precio más bajo por token para modelos de primera categoría. Por ejemplo, generar una respuesta de 1000 tokens podría costar ~$0.012 con GPT‑5.1 frente a ~$0.025 con Claude 4.5, aproximadamente la mitad del costo. El de Google sería ~$0.015. Sin embargo, el costo debe ponderarse contra la eficiencia: si un modelo resuelve una tarea con menos tokens o menos intentos, puede ahorrar dinero en general. Anthropic enfatiza que Opus 4.5 es mucho más eficiente en tokens, potencialmente reduciendo el uso (y el costo) en un 50%+ en algunas tareas mientras mantiene la precisión anterior[53][54]. Como señaló un usuario temprano, “El razonamiento medio de Opus 4.5 coincide con la calidad de Sonnet 4.5 mientras usa un 76% menos de tokens… ~60% menos de costo.”[91]. Así, un desarrollador podría pagar un poco más por token para Claude, pero si Claude utiliza muchos menos tokens para llegar a la solución, la diferencia total de costo se reduce.

También vale la pena señalar cómo se está manejando la accesibilidad: - Claude Opus 4.5 está disponible a través de la API (Claude para los niveles Pro/Max/Team) y en las principales plataformas en la nube como AWS, Azure y Google Cloud[92]. También hay una aplicación de consumo Claude Pro donde Opus se puede usar de manera interactiva. El costo que discutimos se aplica al uso de la API. - ChatGPT 5.1 es accesible para los usuarios finales a través de ChatGPT (los usuarios de Plus y Enterprise obtienen GPT‑5.1 desde noviembre de 2025), y a través de la API de OpenAI para desarrolladores. El precio de OpenAI para el uso de GPT‑5.1 en ChatGPT Plus es efectivamente una suscripción plana, mientras que la API se paga por uso por token (como se mencionó anteriormente). También ofrecen ChatGPT Enterprise con uso gratuito hasta ciertos límites. - Gemini 3 Pro es accesible a través de la plataforma Vertex AI de Google (como un modelo en Vista previa actualmente)[93], a través de la API de Gemini y en productos como la aplicación Gemini Chat y AI Studio[94][95]. Google no ha listado públicamente los precios por token en su sitio, pero según los informes, el precio de la API está en el rango mencionado ($2/$12 por M de tokens) similar al precio de PaLM 2. Google también integra Gemini en funciones para consumidores (por ejemplo, Experiencia Generativa de Búsqueda, herramientas de IA de Google Workspace) donde a los usuarios finales no se les cobra directamente por token.

En resumen, OpenAI ofrece el precio bruto más bajo para el uso de API de un modelo de frontera, mientras que Anthropic redujo masivamente sus precios para seguir siendo competitivo (Opus ahora cuesta 1/3 de su precio anterior, aunque todavía es ~2× la tarifa de OpenAI)[89]. El precio de Google está entre los dos, con algún costo adicional para ejecuciones de contexto enormes[89]. Para las empresas que deciden qué modelo usar, el costo por consulta dependerá de la tarea: un trabajo de codificación largo podría costar similar entre los tres si se cumplen las afirmaciones de eficiencia de Claude, mientras que una breve sesión de preguntas y respuestas podría ser más barata con GPT‑5.1. Es genial ver cómo la competencia está reduciendo los precios, haciendo que la IA avanzada sea más accesible.

Ajuste y personalización

Un aspecto notable es que el ajuste fino (en el sentido tradicional de actualizar los pesos de un modelo con datos personalizados) no está fácilmente disponible para estos nuevos modelos, al menos por ahora. Ni Claude Opus 4.5 ni Gemini 3 Pro actualmente permiten el ajuste fino por parte del usuario[96][97]. OpenAI tampoco ha lanzado GPT-5.1 para ajuste fino (sus documentos API indican “Ajuste fino: No soportado” para los modelos de la serie GPT-5)[97][98]. Esto es comprensible: estos modelos son extremadamente grandes y también cuidadosamente alineados; el ajuste fino abierto podría plantear desafíos de seguridad y capacidad.

En cambio, el énfasis está en la personalización basada en indicaciones. OpenAI, por ejemplo, introdujo nuevas formas de personalizar el comportamiento de ChatGPT en la actualización 5.1. Agregaron “ajustes predefinidos de personalidad” y controles de tono, permitiendo a los usuarios elegir entre estilos predefinidos (como Desarrollador, Tutor, Escéptico, etc.) o establecer instrucciones personalizadas para moldear las respuestas del asistente[99][100]. Esto no es ajustar los pesos del modelo, sino un mecanismo flexible para que el modelo se comporte de maneras específicas. Del mismo modo, Anthropic ofrece controles de estilo Constitutional AI y mensajes del sistema para guiar a Claude, y con Opus 4.5 señalan que “mantiene la continuidad del razonamiento” y puede seguir roles o instrucciones complejas mejor a lo largo de sesiones largas[23]. La API de Google Gemini permite a los desarrolladores suministrar mensajes del sistema para establecer contexto o rol (similar al mensaje del sistema de OpenAI) e incluso incorporar caché de contexto implícito y explícito para sesgar el modelo con información de fondo relevante[101][102]. Esencialmente, aunque no puedes ajustar directamente estos gigantes, puedes alimentarlos con tus datos en tiempo de ejecución, por ejemplo, metiendo documentos en la enorme ventana de contexto o utilizando indicaciones aumentadas por recuperación. Vertex AI de Google ofrece un Motor RAG (Generación Aumentada por Recuperación) que trabaja con Gemini para extraer documentos empresariales según sea necesario[103], logrando muchos objetivos de ajuste fino (responder preguntas específicas del dominio, etc.) sin cambiar el núcleo del modelo.

Vale la pena mencionar que OpenAI ha introducido modelos hermanos más pequeños (como GPT-5 Nano, etc.) y ha liberado algunos modelos (como openai-o3 y o4-mini)[104]. Esos modelos más pequeños podrían admitir ajuste fino y servir como versiones destiladas de GPT‑5 para tareas especializadas. Pero cuando se trata de los modelos insignia comparados aquí, ninguno de ellos actualmente permite reentrenar el modelo completo con datos personalizados. En su lugar, la estrategia es: usar ingeniería de prompts, instrucciones del sistema, recuperación de conocimiento externo y parámetros integrados (como tono, nivel de pensamiento) para adaptar la salida del modelo a tus necesidades.

Desde un punto de vista investigativo, esto podría cambiar en el futuro: métodos como LoRA (Adaptación de Baja Rango) u otro ajuste fino eficiente en parámetros podrían volverse viables en estos grandes modelos. Pero por ahora, el "ajuste fino" está efectivamente limitado al propio pipeline de entrenamiento del proveedor. Por ejemplo, OpenAI ajustó GPT‑5.1 a partir de la base de GPT‑5 con aprendizaje por refuerzo adicional y ajuste de instrucciones (mencionan que GPT‑5.1 está "construido sobre una actualización de nuestro modelo de razonamiento fundamental")[105], y Anthropic utilizó técnicas como ajuste fino constitucional para alinear a Claude. Como usuario final o desarrollador, aprovechas estos modelos principalmente tal cual, personalizando a través de la interfaz API en lugar de actualizaciones de pesos.

Arquitectura y diseño del modelo (Especulación)

Aunque los detalles oficiales son escasos, podemos vislumbrar algunas diferencias en la filosofía de diseño: - Claude Opus 4.5 es presumiblemente un modelo Transformer denso como sus predecesores. Anthropic no ha revelado el número de parámetros, pero se rumorea que las versiones anteriores de Claude estaban a la par en escala con GPT‑4. El enfoque de Anthropic parece centrarse en los datos/habilidades: entrenaron intensamente a Claude 4.5 en codificación, uso de herramientas (shell, web) y diálogo, y aplicaron técnicas avanzadas de alineación (aprendizaje por refuerzo con retroalimentación humana más su método de “AI Constitucional”).

El resultado es un modelo que simplemente lo «entiende», demostrando anecdóticamente un mejor juicio en tareas del mundo real[20][106]. Un aspecto arquitectónico interesante es cómo Claude maneja el contexto largo: es probable que Anthropic utilice estrategias de codificación posicional o ajustes de atención (como ALiBi o atención concentrada) para alcanzar los 200k tokens. Y el hecho de que se conserven los trazos de pensamiento sugiere una arquitectura que trata su propia cadena de pensamiento como parte de la entrada hacia adelante[23]. Claude 4.5 también se ofrece en hardware en la nube con multiplicación de matrices más rápida y posiblemente paralelismo de modelos para manejar el gran contexto de manera eficiente. - OpenAI GPT‑5.1 (y GPT‑5) se piensa que combina un modelo base con cabezas/modos especializados.

El blog de OpenAI sugiere que GPT-5 es un “sistema unificado” que comprende un modelo rápido y un “modelo de razonamiento más profundo (GPT-5 Thinking) para preguntas más difíciles”[107]. Es posible que la arquitectura de GPT-5 incluya múltiples módulos o un conmutador estilo Mezcla de Expertos que dirige consultas fáciles a un submodelo más pequeño y consultas difíciles a uno más grande, mejorando así la velocidad y la eficiencia de costos. La mención de “dos versiones actualizadas ahora disponibles en ChatGPT (Instant y Thinking)”[99] respalda esto. Detrás de escena, GPT-5 probablemente tiene del orden de trillones de parámetros o múltiples modelos expertos; un rumor temprano fue que GPT-4 tenía 16 expertos de ~111B parámetros cada uno (aunque no confirmado). GPT-5 podría haber escalado los parámetros o tener un entrenamiento más eficiente (OpenAI invirtió en nuevas técnicas de optimización y clústeres más grandes). También expandió un poco las modalidades de entrada: GPT-5 puede aceptar imágenes como entrada (siguiendo la visión de GPT-4) y posiblemente otras modalidades en forma limitada[68][108].

Sin embargo, OpenAI ha sido más conservador con el enfoque multimodal en la práctica; separan cosas como Sora (un modelo para audio y posiblemente otras modalidades) en lugar de fusionarlas completamente. Así que GPT‑5.1 es principalmente un modelo basado en texto con cierta capacidad de visión. - Google Gemini 3 Pro es explícitamente multimodal desde sus cimientos[109][110]. La familia Gemini (Gemini 1, 2, 3) fue diseñada por Google DeepMind para manejar texto, visión y más en un modelo unificado. Probablemente incorpora codificadores de visión y procesamiento de audio dentro de la arquitectura del modelo.

El informe de investigación de Google o las pistas (si se publican) podrían detallar que Gemini utiliza una combinación de espinas dorsales de transformadores, quizás una para el lenguaje y otra para la visión, con un espacio de representación compartido. Los resultados (como el estado del arte en puntos de referencia multimodales[17]) sugieren una integración muy estrecha. Otro aspecto es el uso de herramientas: DeepMind había trabajado previamente en agentes adaptativos (por ejemplo, AlphaGo, robótica, etc.), y Demis Hassabis insinuó que las técnicas de esos dominios influirían en el diseño de Gemini. Por ejemplo, Gemini puede incorporar aprendizaje por refuerzo o algoritmos de planificación para aumentar sus capacidades "agénticas"[109][111]. El hecho de que pueda operar una computadora y resolver tareas interactivas (Terminal, puntos de referencia de máquinas expendedoras, etc.) sugiere una arquitectura o rutina de entrenamiento que involucró simulaciones agénticas. También vimos mención de “firmas de pensamiento” y una validación más estricta para el uso de herramientas en múltiples turnos en los documentos de Gemini[112][113]: esto podría ser una característica arquitectónica para mantener el comportamiento de llamada de herramientas del modelo confiable (quizás un módulo separado verificando cada pensamiento/acción). Finalmente, el contexto de 1M de Gemini probablemente requirió innovación arquitectónica, posiblemente combinando mecanismos de recuperación o atención fragmentada para que no atienda cuadráticamente sobre un millón de tokens a la vez.

En esencia, Claude, GPT-5.1 y Gemini son todos sistemas de IA masivos basados en Transformers con varias características adicionales. Las arquitecturas exactas son propietarias, pero cada uno ha sido optimizado para prioridades ligeramente diferentes: Claude para contextos muy largos y confiabilidad en codificación/agentes, GPT-5.1 para una experiencia de chat equilibrada con razonamiento adaptativo, y Gemini para una comprensión multimodal amplia y tareas complejas mediadas por herramientas.

Conclusión

Estamos presenciando una emocionante convergencia en la frontera de la IA: Claude Opus 4.5, ChatGPT 5.1 y Gemini 3 Pro representan “modelos de frontera” que empujan los límites de lo que la IA puede hacer, cada uno con un sabor único. Claude 4.5 surge como el especialista en codificación y agentes: es el modelo que podrías llamar para refactorizar toda tu base de código durante la noche o manejar una hoja de cálculo por una hora. Está afinado para el “trabajo profundo” y ahora es más accesible gracias a un precio más bajo[85][86]. ChatGPT 5.1 continúa el legado de OpenAI de capacidad amplia con refinamiento: sobresale en conversación e instrucciones, mientras sigue siendo un formidable solucionador de problemas y codificador general (especialmente con la variante Codex-Max)[11]. Sus mejoras en seguir la intención del usuario y ofrecer personalización lo hacen un socio de IA muy amigable para el usuario[19]. Gemini 3 Pro, por otro lado, se siente como un vistazo al futuro: es verdaderamente multimodal y exhibe habilidades de razonamiento que se acercan a lo que uno podría llamar “prototipos de AGI” (con el modo Deep Think abordando problemas que antes se pensaban irresolubles por la IA)[114][111]. Con un contexto de 1M e integración en el ecosistema de Google, Gemini puede ser el núcleo de aplicaciones que mezclan sin esfuerzo texto, imágenes y acciones.

Algunos puntos clave de esto:

El rendimiento bruto ahora depende de la tarea. No hay un único modelo “mejor en todo”; en su lugar, vemos un patrón de superación alternada. Claude 4.5 lidera en pruebas de codificación[11], Gemini 3 lidera en razonamiento lógico y tareas multimodales[5][17], y GPT‑5.1 está esencialmente a la par en pruebas de conocimiento y ofrece la experiencia conversacional más refinada. Las diferencias son relativamente estrechas en muchas áreas (a menudo solo unos pocos puntos porcentuales), lo cual es impresionante considerando cuánto han superado estos modelos los puntos de referencia anteriores e incluso las bases humanas.

El contexto y la persistencia son tan importantes como la precisión pura. La capacidad de mantener conversaciones largas o abordar documentos extensos sin perder el contexto es un gran avance en usabilidad. Aquí, Google estableció un nuevo estándar (1M tokens, entrada de múltiples documentos)[64], pero Anthropic y OpenAI tienen sus propias soluciones (200k tokens y compactación respectivamente[61][29]). Esto significa que los usuarios pueden esperar muchas menos interrupciones de “lo siento, límite de contexto” y pueden usar estos modelos para tareas de resumen o análisis de datos verdaderamente a gran escala.

Adaptabilidad vs. ajuste fino: Aunque aún no podemos ajustar finamente a estos gigantes, las diversas palancas de control (niveles de esfuerzo, preajustes de personalidad, herramientas del sistema) ofrecen a los desarrolladores y usuarios mucha influencia sobre los resultados sin necesidad de reentrenamiento[24][100]. Esta tendencia podría continuar: los modelos futuros podrían tener controles aún más modulares (por ejemplo, activar un modo “estrictamente factual” o un modo “creativo” sin necesidad de modelos separados). - El costo se está moviendo en la dirección correcta: hacia abajo. El hecho de que Anthropic sintiera la necesidad de reducir los precios de Opus en 2/3, y que OpenAI y Google estén compitiendo en precios de tokens, muestra que la competencia está beneficiando a los usuarios[85][89]. Ejecutar tareas a gran escala (millones de tokens) sigue sin ser barato, pero se está volviendo mucho más razonable. Ahora es plausible que una pequeña startup use un modelo de vanguardia en un gran conjunto de datos sin una factura astronómica, lo que podría impulsar más innovación.

Al final, el «mejor» modelo depende de tus necesidades. Si necesitas entendimiento multimodal o el mejor razonamiento en problemas difíciles de lógica/matemáticas, el Google Gemini 3 Pro actualmente tiene una ventaja. Si requieres un programador en pareja con IA o un agente para automatizar tareas de software, el Claude Opus 4.5 de Anthropic podría ofrecer los mejores resultados (con un estilo de salida para código posiblemente más predecible). Si buscas un AI generalista que sea versátil, confiable y rentable para una amplia gama de tareas, ChatGPT 5.1 sigue siendo una elección fantástica con el respaldo del ecosistema de OpenAI.

Lo que está claro es que los tres modelos se están impulsando mutuamente, y al campo, hacia adelante. Como señaló un análisis, evaluar nuevos LLMs se está volviendo más difícil porque cada nueva generación está solo un pequeño paso por delante de la anterior[115][116]. Pero esos pequeños pasos se están acumulando en algo profundo: modelos de IA que se acercan a la competencia a nivel profesional en programación, superan a expertos humanos en ciertos exámenes[117], manejan múltiples modalidades con fluidez y pueden sostener largas interacciones. La era de la IA de propósito general, con un contexto y capacidades aparentemente infinitas, está realmente en marcha, y Claude 4.5, GPT‑5.1 y Gemini 3 Pro están liderando el camino.

Fuentes: basadas en anuncios oficiales y documentación de Anthropic[118][11], OpenAI[2][28], y Google DeepMind[17][64], así como resultados de referencia y perspectivas reportadas por terceros de renombre[11][13]. Las afirmaciones y puntuaciones de cada modelo han sido citadas de estas fuentes para garantizar precisión.


[1] [14] [15] [16] [20] [40] [51] [52] [59] [60] [62] [63] [87] [88] [92] [118] Presentando Claude Opus 4.5 \ Anthropic

https://www.anthropic.com/news/claude-opus-4-5

[2] [19] [76] [77] [78] [104] GPT-5.1: Un ChatGPT más inteligente y conversacional | OpenAI

https://openai.com/index/gpt-5-1/

[3] [4] [5] [6] [7] [8] [9] [10] [13] [17] [18] [21] [22] [32] [33] [34] [35] [44] [94] [95] [109] [110] [111] [114] Gemini 3: Presentando el último modelo de inteligencia artificial Gemini de Google

https://blog.google/products/gemini/gemini-3/

[11] [53] [54] [55] [57] [58] [85] [86] [106] Claude Opus 4.5 de Anthropic ha llegado: IA más económica, chats infinitos y habilidades de programación que superan a los humanos | VentureBeat

https://venturebeat.com/ai/anthropics-claude-opus-4-5-is-here-cheaper-ai-infinite-chats-and-coding

[12] [26] [27] [28] [29] [36] [37] [38] [39] [56] [70] [71] [105] Construyendo más con GPT-5.1-Codex-Max | OpenAI

https://openai.com/index/gpt-5-1-codex-max/

[23] [24] [25] [45] [46] [47] [48] [49] [50] Novedades en Claude 4.5 - Documentos de Claude

https://platform.claude.com/docs/en/about-claude/models/whats-new-claude-4-5

[30] [31] [41] [61] [89] [90] [115] [116] Claude Opus 4.5, y por qué evaluar nuevos LLMs es cada vez más difícil

https://simonwillison.net/2025/Nov/24/claude-opus/

[42] [43] Gemini 3 Pro - Enfoque de Evaluaciones, Metodología y Enfoque v2

http://deepmind.google/models/evals-methodology/gemini-3-pro

[64] [65] [66] [67] [75] [80] [81] [93] [96] [101] [102] [103] [112] [113] Gemini 3 Pro  |  Generative AI en Vertex AI  |  Documentación de Google Cloud

https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/gemini/3-pro

[68] GPT-5 explicado: características, rendimiento, precios y casos de uso en ...

https://www.leanware.co/insights/gpt-5-features-guide

[69] LLMs con las ventanas de contexto más grandes - Codingscape

https://codingscape.com/blog/llms-with-largest-context-windows

[72] Precios - Claude Docs

https://platform.claude.com/docs/en/about-claude/pricing

[73] Claude Opus 4.5 vs Sonnet 4.5: revolución de precios y rendimiento ...

https://vertu.com/lifestyle/claude-opus-4-5-vs-sonnet-4-5-vs-opus-4-1-the-evolution-of-anthropics-ai-models/?srsltid=AfmBOorwdEvjBy7o_kYmFhLrs_cP8wilvmsV5ZtxI-lYhR0H6wBPAOW_

[74] Límites de la ventana de contexto de GPT-5 en ChatGPT - 8K para usuarios gratuitos,

https://x.com/rohanpaul_ai/status/1953549303638557183

[79] Claude Sonnet 4.5 vs GPT-5: rendimiento, eficiencia y precios ...

https://portkey.ai/blog/claude-sonnet-4-5-vs-gpt-5

[82] Probé GPT-5.1 Codex contra Sonnet 4.5, y es sobre ... - Reddit

https://www.reddit.com/r/ClaudeAI/comments/1oy36ag/i_tested_gpt51_codex_against_sonnet_45_and_its/

[83] GPT-5.1 Codex vs. Claude 4.5 Sonnet vs. Kimi K2 Thinking

https://composio.dev/blog/kimi-k2-thinking-vs-claude-4-5-sonnet-vs-gpt-5-codex-tested-the-best-models-for-agentic-coding

[84] ¿El fin de la Ley de Moore para la IA? Gemini Flash ofrece una advertencia

https://news.ycombinator.com/item?id=44457371

[91] Claude Opus 4.5 es MUCHO MÁS BARATO que Opus 4.1 - Reddit

https://www.reddit.com/r/singularity/comments/1p5pdjq/claude_opus_45_is_much_cheaper_than_opus_41/

[97] modelos/gpt-5 - Modelo - OpenAI API

https://platform.openai.com/docs/models/gpt-5

[98] ¿Qué hay de nuevo en Azure OpenAI en los modelos de Microsoft Foundry?

https://learn.microsoft.com/en-us/azure/ai-foundry/openai/whats-new?view=foundry-classic

[99] [100] OpenAI camina por la cuerda floja con las ocho nuevas personalidades de GPT-5.1

https://arstechnica.com/ai/2025/11/openai-walks-a-tricky-tightrope-with-gpt-5-1s-eight-new-personalities/

[107] Presentando GPT-5 - OpenAI

https://openai.com/index/introducing-gpt-5/

[108] GPT-5: Nuevas características, pruebas, referencias y más - DataCamp

https://www.datacamp.com/blog/gpt-5

[117] GPT-5 acaba de aprobar el examen médico más difícil del mundo, y ... - Reddit

https://www.reddit.com/r/deeplearning/comments/1mraxnh/gpt5s_medical_reasoning_prowess_gpt5_just_passed/

Boxu obtuvo su Licenciatura en la Universidad de Emory, especializándose en Economía Cuantitativa. Antes de unirse a Macaron, Boxu pasó la mayor parte de su carrera en el ámbito del capital privado y el capital de riesgo en los EE.UU. Ahora es Jefe de Personal y VP de Marketing en Macaron AI, gestionando finanzas, logística y operaciones, y supervisando el marketing.

Aplicar para convertirse Los primeros amigos de Macaron