Home/Models/Google/Gemini 2.5 Flash
G

Gemini 2.5 Flash

Entrada:$0.24/M
Salida:$2/M
Contexto:1M
Salida Máxima:65K
Gemini 2.5 Flash es un modelo de IA desarrollado por Google, diseñado para ofrecer soluciones rápidas y rentables para desarrolladores, especialmente para aplicaciones que requieren capacidades de inferencia mejoradas. Según el anuncio de vista previa de Gemini 2.5 Flash, el modelo se lanzó en vista previa el 17 de abril de 2025, admite entrada multimodal y tiene una ventana de contexto de 1 millón de tokens. Este modelo admite una longitud máxima de contexto de 65,536 tokens.
Nuevo
Uso comercial
Playground
Resumen
Características
Precios
API
Versiones

Gemini 2.5 Flash está diseñado para ofrecer respuestas rápidas sin comprometer la calidad del resultado. Admite entradas multimodales, incluidas texto, imágenes, audio y video, lo que lo hace adecuado para diversas aplicaciones. El modelo es accesible a través de plataformas como Google AI Studio y Vertex AI, proporcionando a los desarrolladores las herramientas necesarias para una integración fluida en diversos sistemas.


Información básica (Características)

Gemini 2.5 Flash introduce varias características destacadas que lo distinguen dentro de la familia Gemini 2.5:

  • Razonamiento híbrido: Los desarrolladores pueden establecer el parámetro thinking_budget para controlar con precisión cuántos tokens dedica el modelo al razonamiento interno antes de generar la salida.
  • Frontera de Pareto: Ubicado en el punto óptimo de costo-rendimiento, Flash ofrece la mejor relación precio-inteligencia entre los modelos 2.5.
  • Compatibilidad multimodal: Procesa de forma nativa texto, imágenes, video y audio, lo que habilita capacidades conversacionales y analíticas más ricas.
  • Contexto de 1 millón de tokens: Una longitud de contexto inigualable permite análisis profundos y comprensión de documentos extensos en una sola solicitud.

Versionado del modelo

Gemini 2.5 Flash ha pasado por las siguientes versiones clave:

  • gemini-2.5-flash-lite-preview-09-2025: Usabilidad de herramientas mejorada: rendimiento mejorado en tareas complejas y de múltiples pasos, con un aumento del 5% en las puntuaciones de SWE-Bench Verified (de 48.9% a 54%). Eficiencia mejorada: al habilitar el razonamiento, se logra una salida de mayor calidad con menos tokens, reduciendo la latencia y los costos.
  • Preview 04-17: Lanzamiento de acceso temprano con capacidad de “razonamiento”, disponible a través de gemini-2.5-flash-preview-04-17.
  • Disponibilidad general estable (GA): A partir del 17 de junio de 2025, el endpoint estable gemini-2.5-flash reemplaza la vista previa, garantizando confiabilidad de nivel de producción sin cambios de API respecto a la vista previa del 20 de mayo.
  • Retiro de la vista previa: Los endpoints de vista previa estaban programados para desactivarse el 15 de julio de 2025; los usuarios deben migrar al endpoint GA antes de esa fecha.

Desde julio de 2025, Gemini 2.5 Flash está disponible públicamente y es estable (sin cambios respecto a gemini-2.5-flash-preview-05-20). Si estás usando gemini-2.5-flash-preview-04-17, la tarifa de vista previa existente continuará hasta la retirada programada del endpoint del modelo el 15 de julio de 2025, cuando se cerrará. Puedes migrar al modelo de disponibilidad general "gemini-2.5-flash".

Más rápido, más barato, más inteligente:

  • Objetivos de diseño: baja latencia + alto rendimiento + bajo costo;
  • Aceleración general en razonamiento, procesamiento multimodal y tareas de texto largo;
  • El uso de tokens se reduce entre un 20–30%, lo que reduce significativamente los costos de razonamiento.

Especificaciones técnicas

Ventana de contexto de entrada: hasta 1 millón de tokens, lo que permite una amplia retención de contexto.

Tokens de salida: capaz de generar hasta 8,192 tokens por respuesta.

Modalidades compatibles: texto, imágenes, audio y video.

Plataformas de integración: disponible a través de Google AI Studio y Vertex AI.

Precios: modelo de precios competitivo basado en tokens, que facilita un despliegue rentable.


Detalles técnicos

Bajo el capó, Gemini 2.5 Flash es un modelo de lenguaje grande basado en transformers, entrenado con una mezcla de datos de la web, código, imágenes y video. Las principales especificaciones técnicas incluyen:

Entrenamiento multimodal: Entrenado para alinear múltiples modalidades, Flash puede combinar sin problemas texto con imágenes, video o audio, útil para tareas como el resumen de video o la descripción de audio.

Proceso de razonamiento dinámico: Implementa un bucle de razonamiento interno en el que el modelo planifica y descompone indicaciones complejas antes de la salida final.

Presupuesto de razonamiento configurable: El thinking_budget se puede establecer desde 0 (sin razonamiento) hasta 24,576 tokens, lo que permite equilibrar latencia y calidad de respuesta.

Integración de herramientas: Admite Grounding with Google Search, Code Execution, URL Context y Function Calling, lo que posibilita acciones del mundo real directamente desde instrucciones en lenguaje natural.


Rendimiento en benchmarks

En evaluaciones rigurosas, Gemini 2.5 Flash demuestra rendimiento líder en la industria:

  • LMArena Hard Prompts: Obtuvo el segundo lugar, solo por detrás de 2.5 Pro, en el exigente benchmark Hard Prompts, demostrando sólidas capacidades de razonamiento de múltiples pasos.
  • Puntuación MMLU de 0.809: Supera el rendimiento promedio de los modelos con una precisión MMLU de 0.809, lo que refleja su amplio conocimiento de dominio y su capacidad de razonamiento.
  • Latencia y rendimiento: Alcanza una velocidad de decodificación de 271.4 tokens/sec con un 0.29 s Time-to-First-Token, lo que lo hace ideal para cargas de trabajo sensibles a la latencia.
  • Líder en relación precio-rendimiento: A \$0.26/1 M tokens, Flash supera en costos a muchos competidores al tiempo que los iguala o supera en benchmarks clave.

Estos resultados indican la ventaja competitiva de Gemini 2.5 Flash en razonamiento, comprensión científica, resolución de problemas matemáticos, programación, interpretación visual y capacidades multilingües:

Gemini 2.5 Flash


Limitaciones

  • Riesgos de seguridad: El modelo puede exhibir un tono “moralizante” y puede producir salidas plausibles pero incorrectas o sesgadas (alucinaciones), especialmente en consultas de casos límite. La supervisión humana rigurosa sigue siendo esencial.
  • Límites de tasa: El uso de la API está restringido por límites de tasa (10 RPM, 250,000 TPM, 250 RPD en los niveles predeterminados), lo que puede afectar el procesamiento por lotes o aplicaciones de alto volumen.
  • Piso de inteligencia: Aunque es excepcionalmente capaz para un modelo «flash», sigue siendo menos preciso que 2.5 Pro en las tareas basadas en agentes más exigentes, como programación avanzada o coordinación multiagente.
  • Compensaciones de costo: Aunque ofrece la mejor relación precio-rendimiento, el uso extensivo del modo de razonamiento aumenta el consumo total de tokens, elevando los costos para indicaciones que requieren razonamiento profundo.

Características para Gemini 2.5 Flash

Explora las características clave de Gemini 2.5 Flash, diseñado para mejorar el rendimiento y la usabilidad. Descubre cómo estas capacidades pueden beneficiar tus proyectos y mejorar la experiencia del usuario.

Precios para Gemini 2.5 Flash

Explora precios competitivos para Gemini 2.5 Flash, diseñado para adaptarse a diversos presupuestos y necesidades de uso. Nuestros planes flexibles garantizan que solo pagues por lo que uses, facilitando el escalado a medida que crecen tus requisitos. Descubre cómo Gemini 2.5 Flash puede mejorar tus proyectos mientras mantienes los costos manejables.

gemini-2.5-flash (same price across variants)

Model familyVariant (model name)Input price (USD / 1M tokens)Output price (USD / 1M tokens)
gemini-2.5-flashgemini-2.5-flash-thinking$0.24$2.00
gemini-2.5-flashgemini-2.5-flash-all$0.24$2.00
gemini-2.5-flashgemini-2.5-flash$0.24$2.00

Código de ejemplo y API para Gemini 2.5 Flash

Gemini 2.5 Flash API es el modelo de IA multimodal más reciente de Google, diseñado para tareas de alta velocidad y eficientes en costos, con capacidades de razonamiento controlables que permiten a los desarrolladores activar o desactivar funciones avanzadas de "pensamiento" a través de la Gemini API
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Tell me a three sentence bedtime story about a unicorn.",
)

print(response.text)

Versiones de Gemini 2.5 Flash

La razón por la cual Gemini 2.5 Flash tiene múltiples instantáneas puede incluir factores potenciales como variaciones en la salida tras actualizaciones que requieren instantáneas anteriores para mantener la coherencia, ofrecer a los desarrolladores un período de transición para adaptación y migración, y diferentes instantáneas que corresponden a endpoints globales o regionales para optimizar la experiencia del usuario. Para conocer las diferencias detalladas entre versiones, consulte la documentación oficial.
version
gemini-2.5-flash
gemini-2.5-flash-all
gemini-2.5-flash-deepsearch
gemini-2.5-flash-preview-05-20
gemini-2.5-flash-thinking
gemini-2.5-flash-image
gemini-2.5-flash-image-preview
gemini-2.5-flash-lite
gemini-2.5-flash-lite-preview-09-2025
gemini-2.5-flash-lite-thinking
gemini-2.5-flash-preview-04-17
gemini-2.5-flash-preview-09-2025
gemini-2.5-flash-lite-preview-06-17
gemini-2.5-flash-lite-preview-06-17-thinking
gemini-2.5-flash-preview-05-20-thinking

Más modelos