Si tu móvil ya sabe qué comprar, cuándo entrenar y cómo rellenar el papeleo antes de que termines el café, igual es que Gemini Intelligence acaba de aterrizar en tu bolsillo. Google ha presentado su gran apuesta para Android 17 en The Android Show, y no es un simple asistente de voz con esteroides. La compañía quiere que el teléfono haga cosas por ti sin que tengas que tocar la pantalla, y esta vez la demo no se ha quedado en un vídeo corporativo con música inspiradora de fondo. Hay funciones, hay fecha y hay una lista de tareas que Gemini promete resolver solo.
De la promesa al dedo: qué hace realmente Gemini Intelligence
El nombre evoca a Apple Intelligence, sí, pero Google ha ido un paso más allá de los emojis generativos. Gemini Intelligence puede leer lo que aparece en tu pantalla, entender el contexto y actuar en consecuencia. Mantén pulsado el botón de encendido, suelta una frase como “prepara el carrito con esta lista de la compra” y el sistema se encarga de buscar los productos en apps compatibles. También puede fotografiar el cartel de una actividad y buscar un tour parecido en Expedia para seis personas. No es un chatbot que te da ideas: es un agente que pulsa botones por ti.
En Chrome, la función Auto browse promete encargarse de las gestiones más mecánicas: reservar una cita médica, buscar una plaza de aparcamiento o comparar precios entre pestañas. Y para los que odian rellenar formularios con el dedo, el nuevo Autofill con IA aprovechará los datos de tus apps conectadas para completar hasta los campos más escondidos. Eso sí, Google insiste en que todo esto es opcional y se puede desconectar desde los ajustes. Cosas que se agradecen en 2026.
Material 3 Expressive y el arte de que no parezca magia negra
Gemini Intelligence no solo mete IA en Android: también rediseña la forma en la que el sistema te cuenta lo que está pasando. Material 3 Expressive añade animaciones y señales visuales para que sepas cuándo Gemini escucha, procesa o actúa. Es la respuesta de Google al Liquid Glass de Apple, pero con un enfoque más funcional que estético: menos cristal líquido hipnótico y más “tranquilo, que esto no es magia negra, solo un modelo de lenguaje”.
Otro detalle jugoso es Create My Widget, una función que genera widgets personalizados con solo describir lo que necesitas. ¿Preparas comida para toda la semana? Pídele tres recetas ricas en proteínas cada lunes y tendrás un panel propio en la pantalla de inicio. ¿Solo te importa la velocidad del viento y la lluvia porque vas en bici? Tu widget del tiempo se limitará exactamente a eso. Google está convirtiendo la pantalla de inicio en un espacio generativo, y la idea, sobre el papel, es bastante redonda.
Y luego está Rambler. Gboard ya transcribía voz a texto, pero Rambler quiere ir un paso más allá: entiende cuando te corriges sobre la marcha, filtra las muletillas y reordena tus ideas para que el mensaje suene a ti pero más pulido. Además cambia de idioma en tiempo real si mezclas inglés e hindi, español e inglés o lo que se te ocurra, sin perder el hilo de la conversación. El audio, asegura Google, no se almacena ni se guarda.
Cuando tu móvil te conoce mejor que tú mismo
Esto ya lo hemos visto antes. Amazon imaginó un asistente que te pedía pizza, Apple lleva años vendiendo la privacidad como escudo y Samsung metió Bixby hasta en la lavadora. Pero Gemini Intelligence apunta a una integración más profunda: no se trata de un asistente al que llamas, sino de una capa de IA que envuelve todo el sistema operativo. La diferencia con intentos anteriores es que aquí Google está cerrando acuerdos con apps de comida y transporte antes del lanzamiento, en lugar de esperar a que los desarrolladores se suban al carro por buena voluntad. Eso cambia las probabilidades de que la cosa funcione desde el día uno.
La otra gran pregunta es cuánto tardará en llegar a más dispositivos. Google ha confirmado que Gemini Intelligence aterrizará este verano en los Samsung Galaxy y Google Pixel más avanzados, y que a finales de año se expandirá a relojes inteligentes, coches, gafas y ordenadores portátiles. El despliegue por fases tiene sentido técnico, pero también deja fuera a la mayoría de usuarios de Android durante meses. Si tienes un gama media, toca esperar.
La sensación que deja el anuncio es la de un Google que por fin se toma en serio la automatización real. No es un asistente que te recuerda comprar leche: es un sistema que la compra, la paga y te avisa cuando llega. Veremos si cuando llegue el verano la realidad se parece a las demos o si, como tantas veces, la magia se diluye entre bugs y permisos de app.
Hype-O-Meter
Nivel de hype: 8/10. Las demos son sólidas, los acuerdos con apps están cerrados y la integración con Material 3 Expressive apunta a una experiencia cuidada. La duda no es si la tecnología funciona, sino si Google tendrá la paciencia de desplegarla sin prisas y sin dejarse funcionalidades por el camino — el historial invita al escepticismo.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Google ha presentado Gemini Intelligence, una capa de IA para Android 17 que automatiza tareas, crea widgets y mejora el dictado.
- 🔥 ¿Por qué importa? Porque no es un chatbot: actúa dentro de las apps, entiende el contexto de la pantalla y promete ahorrarnos gestiones reales.
- 🤔 ¿Nos afecta o es solo un meme? Llega este verano a Pixel y Samsung Galaxy avanzados; el resto de Android tendrá que esperar hasta finales de año.



