Logo_Binary
Representación visual de las elegantes gafas inteligentes de Google con una interfaz HUD superpuesta en la visión del usuario, mostrando la integración con la IA Gemini.

Google muestra nuevas gafas inteligentes en TED2025

Google ha presentado en TED2025 un nuevo prototipo de gafas inteligentes equipadas con una pantalla frontal (HUD), marcando un avance en la carrera por integrar la inteligencia artificial directamente en nuestro campo de visión. Aunque la compañía describe el dispositivo como «hardware conceptual», la demostración ofrece una visión fascinante del futuro de la computación vestible y su potencial para transformar la forma en que interactuamos con la información y el mundo que nos rodea.

Un diseño discreto con mucho potencial

Las gafas mostradas por Shahram Izadi, líder de Android XR de Google, incorporan una cámara, micrófonos y altavoces, al igual que las Ray-Ban Meta. Sin embargo, la verdadera innovación reside en su «pequeña pantalla a color de alta resolución integrada en la lente». Aunque la pantalla parece ser monocular y con un campo de visión relativamente pequeño, su capacidad para refractar luz directamente en el ojo derecho del usuario abre un mundo de posibilidades para la visualización discreta de información.

Gemini y Project Astra: IA conversacional en tus gafas inteligentes

La demostración se centró en las capacidades del sistema de IA conversacional Gemini de Google, incluyendo la función Project Astra. Esta tecnología permite a la IA recordar lo que ve a través de la «codificación continua de fotogramas de video, combinando la entrada de video y voz en una línea de tiempo de eventos y almacenando esta información para una recuperación eficiente».

Durante la demostración, se mostraron varias capacidades impresionantes:

  • Multimodal básico: Gemini generó un haiku basado en lo que «veía» a través de las gafas.
  • Memoria contextual continua: La IA recordó la ubicación y el título de un libro previamente visto.
  • Multimodal complejo: Gemini explicó el significado de un diagrama en un libro.
  • Traducción en tiempo real: La IA tradujo un letrero del español al inglés y luego al farsi, demostrando su capacidad multilingüe sin necesidad de cambiar configuraciones.
  • Soporte multilingüe: Gemini respondió instantáneamente en hindi a una pregunta formulada en ese idioma.
  • Acciones integradas: La IA reprodujo una canción desde un álbum físico mostrado a la cámara, iniciándola en el teléfono y reproduciéndola a través de las gafas.
  • Navegación asistida: Gemini proporcionó indicaciones paso a paso y un minimapa 3D para guiar al usuario a un parque cercano con vistas al océano.

Miniaturización y competencia en el horizonte

El diseño de las gafas mostradas en TED2025 parece significativamente más compacto que el prototipo presentado en Google I/O 2024, lo que sugiere un enfoque activo en la miniaturización para un posible producto comercial. Google se une así a la creciente competencia en el espacio de las gafas inteligentes con HUD, donde Meta también planea lanzar su propio dispositivo este año, y Apple se rumorea que podría unirse a la contienda en 2027. La clave de la batalla estará en la integración de una IA multimodal potente y la capacidad de ofrecer una experiencia de usuario fluida e intuitiva.

La realidad virtual en Binarybox Studios

En Binarybox Studios, observamos con gran interés el desarrollo de las gafas inteligentes con HUD como una posible convergencia entre la realidad aumentada y la inteligencia artificial. Si bien nuestro enfoque principal se centra en la creación de experiencias inmersivas de realidad virtual, reconocemos el potencial de estas tecnologías vestibles para complementar y enriquecer la forma en que interactuamos con el mundo digital y físico. La capacidad de tener información contextual y asistencia de IA directamente en nuestro campo de visión podría abrir nuevas vías para aplicaciones en diversos campos, desde la productividad y la comunicación hasta el entretenimiento y la educación. Estaremos atentos a la evolución de esta tecnología y su posible sinergia con la realidad virtual en el futuro. La llegada de avatares fotorrealistas con seguimiento ocular de alta precisión y baja latencia, sería un punto de inflexión para la adopción de la realidad virtual por el público general y en Binarybox studios queremos estar a la vanguardia.

Conclusión

La presentación de Google en TED2025 ofrece una visión tentadora del futuro de las gafas inteligentes con HUD, impulsadas por la inteligencia artificial. Aunque todavía se trata de hardware conceptual, la demostración de las capacidades de Gemini y Project Astra sugiere un potencial significativo para transformar la forma en que accedemos a la información y interactuamos con el mundo. A medida que la tecnología se miniaturiza y la competencia se intensifica, las gafas inteligentes con HUD podrían convertirse en una parte integral de nuestra vida cotidiana, ofreciendo una nueva capa de interacción digital discreta y poderosa.

Preguntas y respuestas

  • ¿Qué mostró Google en TED2025? Un prototipo de elegantes gafas inteligentes con una pantalla frontal (HUD).
  • ¿Qué capacidades demostró Google con estas gafas? Integración con la IA Gemini para tareas como generación de texto, memoria contextual, traducción en tiempo real, control de música y navegación.
  • ¿Cómo se comparan estas gafas con el prototipo de Google I/O 2024? El diseño parece ser significativamente más compacto.
  • ¿Quiénes son otros actores importantes en el mercado de las gafas inteligentes con HUD? Meta y, potencialmente, Apple en el futuro.

Binarybox Studios | Conectamos mundos, creamos experiencias

Ir al contenido