Gemini 3 Flash se convierte en el modelo predeterminado de la app Gemini y apuesta por más velocidad y eficiencia

Rene Fraga
4 minutos de lectura

Principales destacados

  • Gemini 3 Flash pasa a ser el modelo por defecto en la app Gemini y en el modo de IA de la Búsqueda.
  • El nuevo modelo es más rápido, económico y con rendimiento cercano a modelos de frontera.
  • Google posiciona a Flash como su principal “modelo de trabajo” para tareas masivas y flujos repetitivos.

El Google anunció el lanzamiento de Gemini 3 Flash, un nuevo modelo de inteligencia artificial rápido y de bajo costo que ahora se convierte en el estándar dentro de la aplicación Gemini y del modo de IA en la Búsqueda. La novedad llega pocas semanas después de la presentación de Gemini 3 y refuerza la estrategia de la compañía en su competencia directa con OpenAI.

Diseñado para el uso diario y tareas a gran escala, Gemini 3 Flash presenta avances relevantes en rendimiento, razonamiento y capacidades multimodales, logrando acercarse a modelos considerados de referencia como Gemini 3 Pro y GPT-5.2 en varias métricas.

Resultados sólidos en pruebas de rendimiento

En los benchmarks, Gemini 3 Flash mostró una mejora notable frente a la versión 2.5 Flash. En Humanity’s Last Exam, una prueba que evalúa conocimientos en múltiples áreas, el modelo alcanzó un 33,7% sin uso de herramientas. El resultado se sitúa cerca del 37,5% obtenido por Gemini 3 Pro y del 34,5% del GPT-5.2.

En el benchmark MMMU-Pro, enfocado en razonamiento y multimodalidad, el nuevo modelo lideró con una puntuación del 81,2%, superando a todos sus competidores. Estos datos indican que Flash ya no es solo una opción económica, sino también una alternativa competitiva en calidad.

Más multimodalidad y mejor comprensión del usuario

De acuerdo con Google, Gemini 3 Flash entiende mejor la intención de las consultas y responde con mayor precisión a contenidos multimodales. Los usuarios pueden subir videos cortos, audios, imágenes o incluso bocetos para recibir análisis, recomendaciones o explicaciones detalladas.

El modelo también genera respuestas más visuales, incorporando tablas e imágenes cuando es relevante. Además, permite crear prototipos de aplicaciones directamente en la app Gemini a partir de simples indicaciones en lenguaje natural, ampliando su utilidad para creadores y desarrolladores.

Precio, velocidad y adopción empresarial

Gemini 3 Flash tiene un costo de 0,50 dólares por millón de tokens de entrada y 3,00 dólares por millón de tokens de salida. Aunque es ligeramente más caro que Gemini 2.5 Flash, Google afirma que el nuevo modelo es tres veces más rápido que Gemini 2.5 Pro y utiliza, en promedio, un 30% menos de tokens en tareas de razonamiento, lo que puede traducirse en ahorro real.

Empresas como JetBrains, Figma, Cursor, Harvey y Latitude ya utilizan el modelo a través de Vertex AI y Gemini Enterprise. Para desarrolladores, está disponible en versión preliminar mediante la API y en Antigravity, la nueva herramienta de programación de Google.

En medio de una carrera cada vez más intensa entre las grandes compañías de IA, Google afirma que desde el lanzamiento de Gemini 3 procesa más de un billón de tokens por día en su API. El movimiento refleja cómo la competencia está empujando a la industria a avanzar rápidamente tanto en rendimiento como en nuevas formas de evaluación.

Seguir:
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios