A ver, Google. Lo de las gafas inteligentes ya lo intentaste una vez. Se llamaban Google Glass, costaban un riñón, y lo más emocionante que hacían era mostrarte notificaciones mientras el resto del mundo te miraba como si fueses el primo flipado de Terminator. Pero 2025 es otro cuento. Ahora, con la inteligencia artificial en el bolsillo (o más bien, en la sien), Google vuelve a la carga con unas gafas con HUD y el supermodelo de lenguaje Gemini integrado. Y esta vez… puede que sí sea la buena.
El anuncio se ha hecho durante el evento Google I/O 2025, donde el gigante de Mountain View ha presentado un prototipo funcional de sus nuevas gafas inteligentes con asistencia visual y contextual. Lo más impactante: un Head-Up Display (HUD) en tiempo real que muestra información generada por Gemini, su IA estrella, directamente sobre el mundo físico. Sí, como en un videojuego, pero con menos munición y más recetas de cocina, traducciones instantáneas y sugerencias para hablarle a tu suegra.
Gemini en tus ojos: la IA se convierte en tu segundo par de gafas
El plato fuerte es, sin duda, la integración con Gemini, el modelo de IA de Google que compite directamente con ChatGPT. En la demo presentada, las gafas fueron capaces de reconocer objetos, traducir textos en vivo, responder preguntas contextuales y ofrecer sugerencias en pantalla sin intervención manual. Todo a través de una interfaz flotante que aparece como una capa superpuesta sobre el entorno real.
Imagínate estar de pie en una estación de tren japonesa sin entender ni una palabra. Las gafas traducen los carteles al instante, te muestran la mejor ruta en un mini mapa flotante y, de paso, te recuerdan que no has tomado café en seis horas. Así de ambiciosa es la promesa de Google: una IA que no solo responde, sino que anticipa y acompaña.
Y si te preguntas por la privacidad, lo de siempre: Google promete que todos los datos se procesan de forma segura y local. Aún no han dicho nada sobre cómo evitar que tu vecino se entere de que estás leyendo consejos para ligar en un idioma que ni dominas, pero ya llegaremos a eso.

Diseño: menos cyborg, más persona que va a por leche
Aunque aún estamos ante un prototipo, el diseño mostrado durante el evento es mucho más comedido que las Google Glass originales. Se parece más a unas gafas normales con una pequeña proyección en una de las lentes, en lugar de ese brazo robótico que parecía diseñado por Skynet.
La idea es que sean ligeras, discretas y con batería suficiente para durar todo el día. Además, integrarán controles táctiles en las patillas, reconocimiento de voz avanzado y conexión con el ecosistema de Android. En otras palabras: el móvil sigue siendo el centro, pero las gafas son la nueva interfaz.
¿Un proyecto secreto a la vista? Referencias ocultas en el código y más pistas de hardware
Como suele ocurrir con Google, la presentación oficial solo muestra la punta del iceberg. Investigadores y desarrolladores que han podido examinar fragmentos de código relacionados con Gemini Live han encontrado menciones a una funcionalidad interna denominada “Project Astra”. Este nombre podría estar vinculado a una versión más avanzada de las gafas, o incluso a un dispositivo independiente, sin necesidad de móvil. Por ahora, son especulaciones, pero la ambición de Google parece ir más allá del prototipo mostrado.
También se han detectado comandos ocultos que sugieren módulos intercambiables, sensores adicionales y compatibilidad con APIs de realidad aumentada ya disponibles en ARCore. ¿Gafas modulares? ¿Unas Pixel Lens? Las teorías no paran de crecer.

¿Qué viene ahora? Android, IA y gafas: el trío que quiere dominar el futuro
Estas gafas no llegarán al mercado mañana, pero lo que hemos visto en el Google I/O 2025 deja claro que Google quiere volver al tablero de la realidad aumentada, esta vez con todas las cartas en la mano: una IA robusta, un ecosistema maduro y una narrativa que conecta con el usuario actual.
La integración con el sistema operativo Android será clave. Imagina recibir notificaciones del móvil, seguir una receta con instrucciones flotantes o incluso recibir mensajes de WhatsApp mientras caminas sin mirar el móvil. Si Gemini se convierte en una verdadera interfaz multimodal, las gafas podrían redefinir la forma en que interactuamos con el mundo digital sin pantallas intermedias.
Eso sí, queda por ver si esta vez los usuarios están listos. Porque una cosa es hablar con una IA desde el sofá… y otra muy distinta es tenerla literalmente en la cara.