Mistral AI lanza su nuevo modelo Mistral Small 3 con 24 mil millones de parámetros
Mistral AI lanza su modelo Mistral Small 3, con 24 mil millones de parámetros, destacándose en rendimiento y accesibilidad para desarrolladores en inteligencia artificial.
La empresa Mistral AI, una de las líderes en inteligencia artificial en Europa, ha dado a conocer su nuevo modelo denominado Mistral Small 3. Este modelo cuenta con 24 mil millones de parámetros y se ha posicionado de manera competitiva en comparación con modelos más grandes, como Llama 3.3 70B y Qwen 32B, especialmente en el benchmark MMLU-Pro, donde ha mostrado un rendimiento comparable e incluso más rápido.
Mistral Small 3 se lanza bajo la licencia Apache 2.0, disponible tanto como modelo preentrenado como ajustado para instrucciones, lo que permite a los desarrolladores y a la comunidad de código abierto utilizarlo como base para sus propios proyectos. La compañía destaca que este modelo no fue entrenado con aprendizaje por refuerzo (RL) ni con datos sintéticos, lo que lo sitúa en una etapa temprana del proceso de producción en comparación con otros modelos contemporáneos, como el Deepseek R1.
Una de las ventajas de Mistral Small 3 es su capacidad para ejecutarse localmente en computadoras con especificaciones elevadas, como una tarjeta gráfica Nvidia RTX 4090 o un MacBook con 32 GB de RAM. Sin embargo, a pesar de su buen desempeño en las pruebas, no siempre ha sido la opción preferida por los evaluadores humanos. En una comparativa que involucró más de 1,000 entradas de programación y generalistas, Mistral Small 3 fue elegido en ocasiones sobre Gemini-2 27B y Qwen 32B, aunque no logró superar a Llama 3.3 70B y al modelo GPT-4o mini.
En la actualidad, Mistral Small 3 ya está disponible en la plataforma como 'mistral-small-latest' o 'mistral-small-2501', lo que marca un paso importante en el avance de tecnologías de inteligencia artificial accesibles para los desarrolladores y la comunidad global.