¡Increíble transformación de Gemini gracias a Google: más rápido y respuestas superiores!

Por
Google ha introducido las cascadas especulativas, una metodología que potencia a Gemini y eleva la calidad de la inteligencia artificial mientras reduce los costos de computación.

Google ha creado una técnica que podría transformar a Gemini en un coloso del ámbito de la inteligencia artificial. La empresa tecnológica ha revelado las particularidades de un estudio que pretende optimizar la eficiencia y el gasto computacional de los modelos de lenguaje de gran tamaño. Denominada Cascadas Especulativas, esta estrategia mejora la rapidez de inferencia sin comprometer la calidad.

Según el informe técnico, las cascadas especulativas son un método híbrido que integra dos estrategias que anteriormente competían entre sí: las cascadas convencionales y la decodificación especulativa. Las primeras dependen de modelos reducidos y se expanden según lo necesario, mientras que la segunda permite que un modelo pequeño elabore un esbozo que luego es verificado por un modelo más grande.

En términos prácticos, la técnica de cascadas especulativas de Google permite una mejor administración de los recursos computacionales al emplear un modelo pequeño, que sugiere un borrador de tokens que posteriormente es revisado por un modelo grande de manera paralela. Este sistema aplica una norma de aplazamiento flexible, la cual determina si el modelo menor puede resolver la consulta o si debe transferirla a un modelo más grande para mejorar la calidad.

Leer  ¡Alerta de privacidad! Hackean app de citas famosa: roban 72.000 fotos privadas de usuarios.

Esta norma de aplazamiento es crucial, ya que elimina los embotellamientos secuenciales típicos de las cascadas estándar. El método permite respuestas útiles del modelo pequeño, incluso si no son exactamente iguales a las del modelo grande, algo que la decodificación especulativa no logra. Los investigadores destacan que esta norma es adaptable y puede ajustarse a diversas necesidades.

Gemini podría agilizarse con esta nueva técnica de IA desarrollada por Google

La empresa ya está implementando las cascadas especulativas en tareas comunes de IA, tales como la elaboración de resúmenes, traducción de textos, programación de código fuente o solución de problemas matemáticos. De acuerdo con Google, este método proporciona respuestas de mayor calidad a un costo computacional más reducido en comparación con otras técnicas.

«Al reconsiderar cómo las cascadas y la decodificación especulativa pueden colaborar, las cascadas especulativas ofrecen una herramienta más potente y versátil para los desarrolladores», indicaron los investigadores. «Este enfoque híbrido facilita un control detallado sobre el equilibrio entre costo y calidad, abriendo el camino para aplicaciones más inteligentes y rápidas».

Leer  DeepSeek pospone lanzamiento de su nueva IA: ¿La culpa es de Estados Unidos?

Vale destacar que el nuevo método de Google se centra en la inferencia. La compañía busca que sus modelos ya entrenados proporcionen respuestas más rápidas y con menor costo. Este enfoque se diferencia de otra técnica conocida como Mixture of Experts (MoE), que usa un único modelo con varios «expertos» internos para disminuir el consumo computacional. Esta última técnica ya es utilizada por Microsoft en MAI-1 y por otras IA chinas como DeepSeek o Qwen3.

Hasta el momento, no se han proporcionado detalles sobre su implementación en Gemini. Las cascadas especulativas se han probado solo en Gemma y T5 a nivel experimental. Basándose en los resultados de estas pruebas, es plausible suponer que Google implementará pronto esta técnica en su modelo más avanzado.

4.6/5 - (10 votos)

Deja un comentario

Partages