
Author: Boxu Li
Europe AI startup Mistral AI has unveiled Devstral 2, a cutting-edge coding-focused language model. Released in December 2025, Devstral 2 arrives as a fully open-weight model, meaning its weights are publicly available under permissive licenses[1]. This launch underscores Mistral’s bid to challenge the AI giants on coding tasks, offering developers an open alternative to proprietary models like OpenAI’s Codex and Anthropic’s Claude. Below we delve into Devstral 2’s architecture, capabilities, real-world uses, and its significance in the globally shifting AI landscape.
Devstral 2 represents Mistral’s next-generation coding model family, introduced in two variants[1]:
· Devstral 2 (123B parámetros) – un modelo Transformer denso con 123 mil millones de parámetros y una enorme ventana de contexto de 256,000 tokens[2]. Este gran modelo está orientado a despliegues de alta gama y tareas complejas, requiriendo al menos cuatro GPU H100 (los aceleradores de IA insignia de NVIDIA) para la inferencia en tiempo real[3].
· Devstral Small 2 (24B parámetros) – un modelo reducido de 24B que mantiene la longitud de contexto de 256K pero es lo suficientemente ligero para funcionar en hardware de consumo o una sola GPU[4][5]. Esta versión "Small" hace factible el despliegue local y en el borde, intercambiando algo de rendimiento máximo por practicidad.
Arquitectura y características: A diferencia de algunos modelos rivales que emplean técnicas masivas de mezcla de expertos (MoE), Devstral 2 es un Transformer denso, lo que significa que los 123B parámetros pueden ser utilizados por inferencia. A pesar de prescindir de la fragmentación MoE, iguala o supera el rendimiento de modelos MoE mucho más grandes al centrarse en un entrenamiento eficiente y en la gestión del contexto[6]. Tanto Devstral 2 como su pequeño hermano admiten entradas multimodales - notablemente, pueden aceptar imágenes junto con código, lo que permite casos de uso de visión y código, como analizar diagramas o capturas de pantalla en tareas de software[7]. También admiten características estándar de la industria como completaciones de chat, llamadas a funciones y edición de código en línea (por ejemplo, soporte para completar en el medio para inserción de código) como parte de la API de Mistral[8][9].
Datos de Entrenamiento: Aunque Mistral no ha detallado públicamente toda la receta de entrenamiento, Devstral 2 fue claramente optimizado para tareas intensivas en código. Se describe como “un modelo de texto de nivel empresarial que destaca en el uso de herramientas para explorar bases de código [y] editar múltiples archivos”, ajustado para potenciar agentes de ingeniería de software autónomos[10]. Podemos inferir que billones de tokens de código fuente, documentación y texto técnico fueron utilizados en el entrenamiento, probablemente extraídos de repositorios de código abierto (similar a cómo los modelos competidores fueron entrenados en una mezcla de 80–90% de código y el resto en lenguaje natural[11]). El resultado es un modelo fluido en cientos de lenguajes de programación y hábil en la comprensión de grandes proyectos de código.
Formato de Publicación y Licencia de Código Abierto: De manera crucial, Mistral continúa con su filosofía de “peso abierto”[12]. Los pesos del modelo de Devstral 2 se liberan abiertamente para que cualquiera pueda descargarlos y ejecutarlos. El modelo principal de 123B se proporciona bajo una licencia MIT modificada, mientras que el Devstral Small de 24B utiliza una licencia Apache 2.0[13][1]. Ambas licencias son altamente permisivas, permitiendo el uso comercial y la modificación (es probable que la MIT modificada añada algunas aclaraciones de uso). Al hacer estos modelos de código abierto, Mistral busca “acelerar la inteligencia distribuida” y asegurar un acceso amplio a la IA de vanguardia[1]. Los desarrolladores pueden alojar los modelos ellos mismos o usar la API propia de Mistral. Durante un período inicial, la API de Devstral 2 es gratuita para pruebas, con un precio posterior de $0.40 por millón de tokens de entrada y $2.00 por millón de tokens de salida (y tarifas aún más bajas para el modelo Small)[14][15]. La disponibilidad abierta de los pesos significa que las comunidades también pueden afinar e integrar el modelo sin dependencia de proveedores.

Devstral 2 está diseñado específicamente para flujos de trabajo de desarrollo de codificación y "agentes". No solo genera código, sino que puede navegar, editar y depurar de manera autónoma bases de código completas mediante el uso de herramientas. El modelo fue diseñado para manejar proyectos de varios archivos: puede cargar contexto desde muchos archivos fuente, rastrear dependencias a nivel de proyecto e incluso orquestar cambios en archivos durante una refactorización[16]. Por ejemplo, Devstral puede localizar dónde se define una función, propagar actualizaciones a todas las llamadas y corregir errores resultantes, comportándose como un desarrollador junior inteligente consciente de todo el repositorio. Detecta errores en la ejecución, refina su salida y repite hasta que las pruebas pasen[17]. Este nivel de conciencia contextual y refinamiento iterativo está en el núcleo de los llamados asistentes de "codificación con vibra", poniendo a Devstral 2 en competencia con AIs de codificación especializadas como Codex de OpenAI, Code Llama de Meta, y codificadores agentes más nuevos como DeepSeek-Coder y Kimi K2.
Rendimiento de Referencia: En los puntos de referencia de codificación, Devstral 2 está entre los modelos de mejor desempeño a nivel mundial. Mistral informa que Devstral 2 obtiene un 72.2% en la suite SWE-Bench (Verificada)[2]. SWE-Bench es un conjunto riguroso de tareas de programación del mundo real donde las soluciones son verificadas por su corrección, similar a una versión avanzada de la prueba HumanEval de OpenAI. Para contexto, el original Codex de OpenAI (2021) resolvió solo ~28.8% de los problemas más simples de HumanEval pass@1[18] – un testimonio de cuánto ha avanzado la IA de codificación. Incluso el Code Llama 34B de Meta (2023), uno de los mejores modelos abiertos de su tiempo, logró ~53.7% en HumanEval[19]. El 72% de Devstral 2 en el más difícil SWE-Bench indica que supera dramáticamente a esos predecesores. De hecho, la precisión de Devstral se está acercando al nivel de los gigantes propietarios de hoy; el último Claude Sonnet 4.5 de Anthropic (un modelo especializado en codificación) y el Gemini de Google están en los 70 altos en puntos de referencia de codificación similares[20].
Rendimiento de modelos de codificación abiertos vs propietarios: En la prueba SWE-Bench Verified, Devstral 2 (72.2%) y su versión de 24B (68.0%) se encuentran entre los mejores modelos de código abierto. Cierran la brecha con líderes propietarios como Claude Sonnet 4.5 y GPT-5.1 Codex (lo último de Anthropic y OpenAI, ~77%[20]). Impresionantemente, Devstral 2 logra esto con una fracción de los parámetros de algunos competidores. Por ejemplo, DeepSeek V3.2 de China (un modelo MoE con ~236B parámetros totales) supera ligeramente a Devstral en precisión (~73.1%), pero Devstral utiliza solo 1/5 de los parámetros totales[6]. Asimismo, Kimi K2 de Moonshot (un MoE de 1 billón de parámetros de China) obtuvo ~71–72% al activar 32B expertos[21] – Devstral 2 lo iguala con un modelo denso de 123B, mucho más pequeño en escala. Esta eficiencia se refleja en el gráfico anterior: Devstral 2 (barra roja) ofrece una precisión casi de vanguardia mientras es 5× más pequeño que DeepSeek y 8× más pequeño que Kimi K2[6]. En otras palabras, Mistral ha demostrado que los modelos compactos pueden rivalizar con otros mucho más grandes[22], lo cual es prometedor para un despliegue rentable.
En comparaciones lado a lado, Devstral 2 ya supera a algunos rivales abiertos en pruebas cualitativas. En un desafío de codificación cara a cara facilitado por un evaluador independiente, Devstral 2 tuvo una tasa de éxito del 42.8% frente a solo un 28.6% de pérdidas al compararse con DeepSeek V3.2[23] – demostrando una clara ventaja en la calidad de generación de código. Sin embargo, contra Claude Sonnet 4.5 de Anthropic, Devstral aún perdió más veces de las que ganó[23], indicando que aún queda una brecha entre los modelos abiertos y los mejores modelos cerrados. Anthropic incluso promociona a Claude Sonnet 4.5 como “el mejor modelo de codificación del mundo” con una capacidad excepcional para construir agentes de software complejos[24]. La buena noticia para los entusiastas del código abierto es que Devstral 2 reduce significativamente esta brecha. Mistral señala que Devstral logra tasas de éxito en el uso de herramientas a la par con los mejores modelos cerrados – lo que significa que puede decidir cuándo llamar a una API, ejecutar un comando o buscar documentación tan hábilmente como sus competidores[25]. Esta capacidad agencial es crucial para automatizar tareas de codificación más allá de la simple finalización de código estático.
También vale la pena mencionar la eficiencia de costos de Devstral 2. Gracias a su tamaño más pequeño y diseño optimizado, Mistral afirma que Devstral es hasta 7× más eficiente en costos que Claude Sonnet de Anthropic en tareas de codificación del mundo real[26]. La eficiencia aquí se refiere al cómputo requerido por resultado exitoso: Devstral puede lograr resultados similares con menos FLOPs o menores costos en la nube, un rasgo atractivo para startups y equipos conscientes del presupuesto.
Devstral 2 no es solo un logro de investigación; está diseñado para ser inmediatamente útil para desarrolladores de software de todo el espectro: desde programadores independientes hasta grandes equipos empresariales. Mistral ha emparejado el modelo con Mistral Vibe CLI, un nuevo asistente de línea de comandos que convierte a Devstral en un socio práctico para la codificación[27]. Este CLI (disponible como una extensión de IDE y herramienta de código abierto) permite a los desarrolladores conversar con la IA sobre su base de código, solicitar cambios e incluso ejecutar comandos, todo desde su entorno de programación[28][29]. En la práctica, Vibe CLI puede leer los archivos de tu proyecto, entender el estado de git y mantener una memoria persistente de tu sesión para evitar repetir contexto[30]. Por ejemplo, un desarrollador podría escribir: “Añadir un módulo de autenticación de usuario” y Vibe generaría los archivos necesarios, modificaría la configuración, ejecutaría npm install para las dependencias e incluso realizaría pruebas, esencialmente automatizando tareas de codificación de múltiples pasos siguiendo instrucciones en lenguaje natural. Este tipo de asistente de desarrollo integrado puede reducir a la mitad los tiempos de ciclo de solicitudes de extracción al manejar tareas rutinarias y de refactorización de manera autónoma[31].
Para desarrolladores individuales y pequeños equipos, Devstral 2 (a través de la Vibe CLI o editores como VS Code) puede aumentar dramáticamente la productividad. Proporciona completaciones de código instantáneas y consejos de depuración, similar a GitHub Copilot pero con una mayor capacidad para abordar cambios en todo el proyecto. También admite búsqueda de código inteligente: utilizando un modelo de incrustaciones y lenguaje natural, puede encontrar dónde se utiliza una función o sugerir fragmentos relevantes (Mistral desarrolló anteriormente un modelo de búsqueda de código llamado “Codestral Embed” para este propósito[32]). La memoria conversacional persistente del modelo significa que puede recordar discusiones anteriores sobre un error o característica durante una sesión[30], haciendo que la experiencia se sienta como programar en pareja con un experto que siempre ha estado allí. Y porque Devstral Small 2 puede ejecutarse localmente (incluso sin una GPU si es necesario)[5], los aficionados y hackers independientes pueden experimentar sin costos de nube o acceso a internet, por ejemplo, programando en un portátil durante un hackatón con un asistente de IA completamente en el dispositivo.
Para startups, adoptar Devstral 2 ofrece una forma de desarrollar funciones avanzadas de codificación AI sin depender de las APIs de las grandes tecnológicas. Muchas startups están compitiendo para incorporar programadores AI pareados o automatización de código en sus flujos de trabajo de devops. Con el modelo abierto de Devstral, pueden alojarlo en sus propios servidores o usar servicios de inferencia gestionados por la comunidad, evitando así las elevadas tarifas de API. La licencia permisiva significa que pueden ajustar el modelo en su propia base de código propietaria e integrarlo profundamente en su producto (algo que no se puede hacer con modelos cerrados como Codex o Claude debido a las restricciones de uso). El modelo es compatible con la implementación local y el ajuste personalizado desde el primer momento[33]. Los primeros adoptantes de la tecnología de codificación de Mistral incluyen empresas como Capgemini y SNCF (el ferrocarril nacional francés) que han utilizado la IA de Mistral para ayudar en proyectos de software[34]. Una startup podría utilizar Devstral de manera similar para automatizar revisiones de código, generar plantillas para nuevos microservicios o incluso crear generadores de casos de prueba en lenguaje natural, todo mientras mantiene el código sensible internamente.
Las empresas pueden beneficiarse enormemente del enfoque de Mistral en los “flujos de trabajo a nivel de producción”. Las grandes organizaciones a menudo tienen sistemas heredados y bases de código extensas. La ventana de contexto extendida de Devstral 2 (256K tokens) significa que puede ingerir cientos de páginas de código o documentación a la vez, lo que le permite comprender toda la estructura del repositorio de código de una empresa o una especificación de API grande de una sola vez. Esto es crítico para tareas como modernizar código heredado: el modelo puede sugerir la refactorización de un módulo de un marco obsoleto a uno moderno, cambiando docenas de archivos de manera consistente[17]. Las empresas pueden implementar Devstral 2 detrás de su firewall (Mistral incluso lo optimizó para los sistemas DGX de NVIDIA y los próximos sistemas NIM para facilitar la escalabilidad local[35]). Esto mitiga las preocupaciones sobre privacidad de datos y cumplimiento, ya que no es necesario que el código salga de la infraestructura de la empresa.
Además, la fiabilidad y el control son clave para los departamentos de TI empresariales. Guillaume Lample, cofundador de Mistral, destacó que depender de API de IA externas (por ejemplo, de OpenAI) puede ser arriesgado: “Si eres una gran empresa, no puedes permitirte [una API] que se caiga durante media hora cada dos semanas”[36]. Al poseer el despliegue del modelo, las empresas logran un tiempo de actividad consistente y pueden ajustar el rendimiento a sus necesidades. Mistral también ofrece una consola de administración para su plataforma de codificación, proporcionando controles granulares, análisis de uso y funciones de gestión de equipos[37] – crítico para que las grandes organizaciones monitoreen y gestionen el uso de IA. En resumen, Devstral 2 fortalece las herramientas empresariales: desde la automatización del mantenimiento del código, hasta servir como un asistente de codificación experto que incorpora a nuevos desarrolladores respondiendo preguntas sobre el código de la empresa.
Mistral AI, a menudo apodado como el “laboratorio de IA campeón de Europa”, se ha convertido rápidamente en un jugador formidable. La reciente valoración de la empresa de 11.700 millones de euros (aproximadamente 13.800 millones de dólares) tras una importante ronda de financiación liderada por el gigante de semiconductores ASML[38] muestra la importancia estratégica que Europa otorga a tener su propio liderazgo en IA. A diferencia de los laboratorios estadounidenses con grandes fondos (se informa que OpenAI ha recaudado 57 mil millones de dólares con una asombrosa valoración de 500 mil millones de dólares[39]), Mistral opera con comparativamente “pequeños” fondos[39]. Este contraste financiero ha informado la estrategia de Mistral: modelos de peso abierto y eficiencia sobre tamaño puro. En lugar de participar en una carrera de parámetros con gigantes como GPT-4 o GPT-5, la filosofía de Mistral es que lo más grande no siempre es mejor, especialmente para casos de uso empresarial[40]. Como explicó Lample, muchas tareas empresariales pueden ser manejadas por modelos más pequeños y ajustados de manera más económica y rápida[41]. Devstral 2 ejemplifica perfectamente este enfoque: es más pequeño que los modelos de frontera de código cerrado, pero está altamente optimizado para tareas de codificación que importan a las empresas.
Al abrir el código de modelos de alto rendimiento, Mistral se posiciona como la antítesis del paradigma de IA cerrado dominado por Silicon Valley. Los modelos emblemáticos de OpenAI y Anthropic, aunque increíblemente poderosos, son propietarios y solo se accede a ellos a través de API. Mistral rechaza explícitamente ese enfoque cerrado: “No queremos que la IA sea controlada solo por un par de grandes laboratorios”, dice Lample[42]. En cambio, Mistral quiere democratizar la IA avanzada liberando los pesos y permitiendo que cualquiera ejecute y modifique los modelos. Esta postura ha ganado rápidamente a Mistral un papel central en el ecosistema de código abierto de IA. Su suite de modelos anterior (la familia Mistral 3 lanzada el 2 de diciembre de 2025) incluía un modelo multimodal MoE de 675 mil millones de parámetros “Large 3” y nueve modelos más pequeños, todos liberados abiertamente[43][44]. Devstral 2 ahora se basa en esa base, apuntando al importante dominio de la codificación. Cada lanzamiento consolida la reputación de Mistral como un pionero en IA abierta y de alta calidad y un proveedor de modelos “de frontera” que rivalizan en capacidad con los modelos cerrados[44].
Estratégicamente, Devstral 2 también permite a Mistral forjar asociaciones industriales y un ecosistema de desarrolladores. Junto con el modelo, Mistral anunció integraciones con herramientas de agentes como Kilo Code y Cline (marcos populares para agentes de codificación autónomos) para asegurar que Devstral sea fácilmente utilizable en esos sistemas[45]. También hicieron disponible la extensión Vibe CLI en el Zed IDE[46], indicando un enfoque inteligente de mercado al encontrarse con los desarrolladores donde ya trabajan. Al integrar su tecnología en los flujos de trabajo y fomentar las contribuciones de la comunidad (el CLI es de código abierto Apache 2.0[47]), Mistral está fortaleciendo su lugar en el ecosistema. Este es un enfoque diferente al de los grandes laboratorios estadounidenses, uno que enfatiza la aceptación y confianza de la comunidad. Posiciona a Mistral no solo como un proveedor de modelos de IA, sino como un constructor de plataformas para el desarrollo asistido por IA, lo que podría generar efectos de red a medida que más usuarios y organizaciones adopten sus herramientas.
El lanzamiento de Devstral 2 destaca un cambio continuo hacia un mundo de IA multipolar, donde el liderazgo se distribuye entre EE. UU., China y Europa, en lugar de estar dominado por una sola región. Cada una de estas esferas ha estado desarrollando rápidamente modelos de IA emblemáticos, a menudo con diferentes filosofías:
· Estados Unidos – Modelos de Frontera Cerrada: EE. UU. sigue liderando en capacidad de modelos de vanguardia, con OpenAI y Anthropic a la vanguardia. GPT-4 de OpenAI (y la esperada serie GPT-5) establece el estándar para muchos benchmarks, pero sigue siendo completamente propietario. Claude 4 de Anthropic y Claude Sonnet se especializan en IA más segura y centrada en el razonamiento, también de código cerrado pero cada vez más orientada a flujos de trabajo de codificación (por ejemplo, Sonnet 4.5 con un contexto de 1M tokens para código)[48]. Estas empresas favorecen el acceso controlado a API y tienen presupuestos masivos de cómputo, una tendencia que ha generado preocupaciones en el extranjero sobre la dependencia excesiva de la IA estadounidense. Curiosamente, incluso en EE. UU., empresas como Meta han desafiado la tendencia al hacer open-source los modelos Llama, pero muchos de los sistemas más avanzados siguen siendo cerrados.
· China – Auge de Innovación Abierta: En los últimos dos años, los laboratorios de IA de China han hecho un cambio estratégico hacia los lanzamientos de código abierto, en parte para ganar adopción global y en parte para reducir la dependencia de la tecnología occidental. Por ejemplo, Baidu recientemente lanzó un modelo multimodal de código abierto (ERNIE 4.5-VL) bajo Apache 2.0, afirmando que rivaliza con los últimos de Google y OpenAI en tareas de visión-lenguaje[49][50]. El modelo de Baidu utiliza una arquitectura MoE para ser extremadamente eficiente – activando solo ~3B de sus 28B parámetros a la vez – permitiéndole funcionar en una sola GPU de 80GB[51][52]. Esto muestra el énfasis de China en la implementación práctica y el acceso abierto, contrastando con las empresas occidentales que protegen sus modelos más potentes. Zhipu AI (una destacada startup de IA china) sigue un enfoque similar abierto: su serie DeepSeek-Coder es de código abierto y fue entrenada en grandes conjuntos de datos de código bilingüe[53]. La última versión de DeepSeek puede manejar 338 lenguajes de programación y 128K de contexto[54], y afirma un rendimiento comparable con GPT-4 Turbo en tareas de código[11] – una afirmación audaz respaldada por sus resultados de benchmark superando a GPT-4 en algunos desafíos de codificación y matemáticas[55]. Además, Kimi K2 de Moonshot AI, con 1 billón de parámetros (MoE), es otro modelo abierto chino diseñado para la generación de código y la resolución de problemas agentivos[56]. Estos esfuerzos indican que China está produciendo rápidamente sus propios modelos de clase GPT-4, a menudo abiertos o semi-abiertos, para fomentar un ecosistema autóctono y competir globalmente aprovechando el poder de la colaboración abierta.
· Unión Europea – La ofensiva de peso abierto de Mistral: Europa, a través de Mistral y algunas otras iniciativas, está estableciendo un tercer pilar de liderazgo en IA. Los modelos de Mistral, desde el gran 3 MoE hasta la nueva serie de codificación Devstral, están posicionados explícitamente como la respuesta de Europa a los modelos cerrados del extranjero[12]. El enfoque de la UE se apoya en gran medida en la apertura y la confianza. Los responsables políticos europeos han expresado su apoyo a la investigación abierta en IA, viéndola como una forma de asegurar la soberanía tecnológica (para que las empresas de la UE no dependan completamente de las API estadounidenses o la tecnología china). El éxito de Mistral en la obtención de capital (con el respaldo de líderes de la industria europea como ASML) y en la entrega de modelos abiertos de alto rendimiento es una prueba de que se puede construir IA de clase mundial fuera de Silicon Valley. Esto también complementa las regulaciones de la UE que enfatizan la transparencia: los modelos abiertos permiten una auditoría más fácil y adaptación a las normas locales. Con Devstral 2, Europa ahora tiene un modelo de código insignia que puede competir con los mejores de EE. UU. (Claude, los codificadores basados en GPT) y China (DeepSeek, Kimi). Representa un enfoque multilateral para el progreso de la IA, donde se valora la colaboración y la innovación abierta junto con el rendimiento bruto.
Esta tendencia multipolar en la IA probablemente beneficiará a desarrolladores y empresas a nivel mundial. La competencia impulsa a cada jugador a innovar: OpenAI se apresurará a hacer que GPT-5 sea aún más potente, Anthropic se centrará en un contexto y seguridad enormes, los laboratorios chinos continuarán abriendo modelos con técnicas novedosas (como se ha visto con los modelos de visión MoE eficientes de Baidu), y Mistral seguirá avanzando en el estado del arte abierto mientras habilita un acceso amplio. Por ejemplo, después de los lanzamientos abiertos de Mistral, vimos a Baidu adoptando una licencia permisiva de Apache como un movimiento competitivo[50], y, por el contrario, Mistral ahora está integrando técnicas avanzadas como las pioneras en China (por ejemplo, ventanas de contexto largas, enrutamiento MoE en otros modelos).
En un mundo de IA multipolar, los desarrolladores tienen más opciones. Pueden elegir un modelo europeo de código abierto por privacidad, un modelo chino por eficiencia de costos o una API americana por pura capacidad, o incluso combinarlos. Esto reduce la dominancia de cualquier empresa o país sobre la tecnología de IA. Como lo expresó el equipo de Mistral, la misión es asegurar que la IA no esté controlada solo por un par de grandes laboratorios[42]. Con el lanzamiento de Devstral 2, esa visión da un paso significativo hacia adelante. La innovación en IA se está convirtiendo en un esfuerzo global y colaborativo, muy similar al software de código abierto, y el "ambiente" está decididamente a favor de la apertura y la diversidad.
Mistral Devstral 2 llega en un momento crucial para la IA, un momento en el que la apertura y la colaboración están demostrando su valor frente a los incumbentes cerrados. Para los desarrolladores, significa un nuevo asistente de codificación poderoso que pueden realmente poseer, modificar y confiar. Para las organizaciones, ofrece un camino para aprovechar capacidades de codificación de IA de primer nivel con mayor control sobre los costos y los datos. Y para la industria en general, Devstral 2 es un recordatorio de que el progreso de la IA ya no está confinado a un monopolio de Silicon Valley. Mistral de Europa, con su enfoque de peso abierto, está surfeando la ola del “vibe coding” y empujando los límites de lo que los modelos abiertos pueden hacer en producción[57][58]. A medida que la IA se vuelve cada vez más multipolar, los verdaderos ganadores seremos aquellos que construyamos con estos modelos. Tendremos un rico conjunto de herramientas de modelos y agentes de IA a nuestra disposición – desde Devstral y más allá – para potenciar la innovación en el desarrollo de software y más allá. El lanzamiento de Devstral 2 no solo fortalece la posición de Mistral, sino que también empodera a la comunidad global de desarrolladores con una IA de codificación de última generación bajo sus propios términos. El próximo capítulo de la IA, al parecer, será escrito por muchas manos, y Mistral acaba de entregarnos una pluma muy capaz.
Fuentes: Anuncio de Mistral AI[1][2][23]; Cobertura de TechCrunch[57][4][38]; Cifras de referencia y comparaciones de modelos[20][6][18][19]; Referencias de Anthropic y DeepSeek[59][48]; Informe de VentureBeat sobre Baidu[50][51]; Entrevista de TechCrunch con Mistral[40][42].
[1] [2] [5] [6] [7] [15] [16] [17] [20] [22] [23] [25] [26] [29] [31] [33] [35] [45] [46] [47] Presentamos: Devstral 2 y Mistral Vibe CLI. | Mistral AI
https://mistral.ai/news/devstral-2-vibe-cli
[3] [4] [13] [14] [27] [28] [30] [38] [57] [58] Mistral AI navega las corrientes de codificación de moda con nuevos modelos de codificación | TechCrunch
https://techcrunch.com/2025/12/09/mistral-ai-surfs-vibe-coding-tailwinds-with-new-coding-models/
[8] [9] [10] Devstral 2 - Mistral AI | Mistral Docs
https://docs.mistral.ai/models/devstral-2-25-12
[11] [54] [55] [59] deepseek-ai/DeepSeek-Coder-V2-Instruct · Hugging Face
https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
[12] [36] [39] [40] [41] [42] [43] [44] Mistral se acerca a los grandes rivales de IA con nuevos modelos de frontera de peso abierto y pequeños | TechCrunch
[18] HumanEval: Cuando las máquinas aprendieron a programar - Runloop
https://runloop.ai/blog/humaneval-when-machines-learned-to-code
[19] Code Llama: Modelos de Fundación Abierta para Código - alphaXiv
https://www.alphaxiv.org/overview/2308.12950v3
[21] [56] El proyecto Moonshot AI de China lanza el modelo Kimi K2 de un trillón de parámetros
https://www.hpcwire.com/2025/07/16/chinas-moonshot-ai-releases-trillion-parameter-model-kimi-k2/
[24] Presentamos Claude Sonnet 4.5 - Anthropic
https://www.anthropic.com/news/claude-sonnet-4-5
[32] [34] [37] Mistral lanza un cliente de codificación vibrante, Mistral Code | TechCrunch
https://techcrunch.com/2025/06/04/mistral-releases-a-vibe-coding-client-mistral-code/
[48] Novedades en Claude 4.5
https://platform.claude.com/docs/en/about-claude/models/whats-new-claude-4-5
[49] [50] [51] [52] Baidu acaba de lanzar una IA multimodal de código abierto que afirma superar a GPT-5 y Gemini | VentureBeat
[53] [2401.14196] DeepSeek-Coder: Cuando el modelo de lenguaje grande ...