Meta Connect 2025 : Quelles innovations pour la réalité virtuelle et les lunettes intelligentes ?
Blog Komete XR

Meta Connect 2025: ¿Qué innovaciones habrá en realidad virtual y gafas inteligentes?

por Mariam Mdoreuli en Oct 03, 2025

Meta Connect, la conferencia anual de Meta, se ha convertido en una cita imprescindible para descubrir los últimos avances en realidad virtual, realidad aumentada e inteligencia artificial. Cada año, el evento reúne a desarrolladores, socios y expertos del sector para desvelar las orientaciones estratégicas del grupo y las innovaciones que darán forma a nuestra vida cotidiana.

La edición de 2025 marcó un punto de inflexión, con anuncios importantes en el ámbito de las tecnologías inmersivas, especialmente el lanzamiento de las gafas Meta Ray-Ban Display, que integran una pantalla y una interfaz neural. Un paso más hacia el spatial computing y nuevas interacciones hombre-máquina.


Meta Connect 2025: fechas y formato

La edición 2025 de Meta Connect tuvo lugar los días 17 y 18 de septiembre de 2025, con dos jornadas de presentaciones técnicas y demostraciones de productos. Esta edición supuso un giro estratégico con la introducción de interfaces neurales para el público general y el énfasis en la integración de la inteligencia artificial en todo el ecosistema de Meta.

La conferencia combinó sesiones keynote, talleres técnicos dirigidos a desarrolladores y demostraciones que permitieron probar los nuevos dispositivos presentados.

 

Visión estratégica de Meta para 2025

Meta definió tres ejes estratégicos principales que orientan el desarrollo de sus productos y servicios:

  1. Diseño de gafas ergonómicas

    La empresa aspira a desarrollar gafas inteligentes que ofrezcan un confort óptimo y una integración natural en el uso cotidiano, alejándose de diseños percibidos como voluminosos o estigmatizantes.

  2. Preservación de la presencia social

    Los dispositivos desarrollados priorizan el mantenimiento de interacciones naturales con el entorno físico, haciendo que la interfaz digital se desvanezca cuando no se utiliza activamente.

  3. Integración avanzada de la inteligencia artificial

    Meta invierte de forma masiva en la integración de capacidades de IA generativa y contextual en sus dispositivos, con el objetivo de crear asistentes inteligentes capaces de comprender y anticipar las necesidades de los usuarios.

 

Nuevas generaciones de gafas inteligentes

Ray-Ban Meta Gen 2: mejora del rendimiento

La segunda generación de las gafas Ray-Ban Meta aporta evoluciones técnicas significativas:

Especificaciones técnicas:

  • Grabación de vídeo en resolución 3K
  • Autonomía duplicada con respecto a la generación anterior
  • Resolución de vídeo doble para una mejor calidad de imagen
  • Meta AI en directo con traducción instantánea y modo de enfoque conversacional
  • Nuevos colores y estilos, incluidas monturas transparentes en edición limitada

 

El sistema de enfoque conversacional utiliza algoritmos avanzados de procesamiento de audio para aislar y amplificar la voz de un interlocutor específico en entornos ruidosos, una tecnología desarrollada por Meta desde 2020.

 

Precio: desde 379 $

 

Oakley Meta Vanguard: orientación al rendimiento

Desarrolladas en colaboración con Oakley, estas gafas se orientan específicamente a aplicaciones deportivas y al aire libre:

Características técnicas:

  • Cámara central con ángulo de visión de 122°
  • Resistencia al agua certificada
  • Estabilización de vídeo avanzada adaptada a movimientos de alta intensidad
  • Sistema de audio reforzado con reducción activa del ruido del viento
  • Modos de captura especializados, incluido el cámara lenta

 

Integraciones con socios:

  • Garmin: función Auto Capture activada automáticamente según umbrales de velocidad, distancia o altitud
  • Strava: sincronización y visualización de estadísticas de entrenamiento sobre los vídeos grabados

 

Precio: 499 $ (disponibilidad prevista para el 21 de octubre de 2025)

 

Meta Ray-Ban Display: introducción de la pantalla integrada

Las Meta Ray-Ban Display representan la innovación clave de esta edición, al integrar por primera vez una pantalla de alta resolución en unas gafas inteligentes de Meta:

Dispositivo de visualización:

  • Pantalla monocular (solo ojo derecho)
  • Posicionamiento ligeramente descentrado para preservar el campo visual natural
  • Resolución de 42 píxeles por grado
  • Brillo máximo de 5000 nits
  • Desactivación automática tras unos segundos de inactividad

 

Interfaz neural Meta Neural Band:

El sistema de control se basa en una pulsera que detecta los micromovimientos musculares de la muñeca mediante sensores electromiográficos (sEMG). Esta tecnología permite un control gestual discreto sin comandos de voz ni táctiles visibles.

Características de la pulsera:

  • Autonomía de 18 horas
  • Resistencia al agua
  • Detección precisa de intenciones gestuales para navegación, captura de fotos y activación de funciones

 

Disponibilidad: lanzamiento inicial en Estados Unidos el 30 de septiembre de 2025 a 799 $, con un despliegue internacional previsto posteriormente.

 

Evolución de las plataformas de software

Meta Horizon Studio: creación asistida por IA

Horizon Studio constituye el nuevo entorno de desarrollo en PC que integra un asistente de IA generativa para acelerar la creación de contenidos inmersivos:

Funciones principales:

  • Generación automática de texturas y modelos 3D mediante prompts de texto
  • Creación de entornos sonoros contextuales
  • Automatización de mecánicas de juego habituales
  • Interfaz de creación simplificada que reduce las barreras técnicas

Está prevista una beta pública en los próximos meses, con el objetivo de democratizar la creación de contenidos para desarrolladores y creadores sin una amplia experiencia técnica.

 

Meta Horizon Engine: nuevo motor de renderizado

Meta sustituye progresivamente Unity por su Horizon Engine propio, optimizado específicamente para el ecosistema de Meta:

Mejoras técnicas:

  • Tiempos de carga de entornos reducidos en un 75 %
  • Capacidad de acogida aumentada a más de 100 usuarios simultáneos por instancia
  • Sistema de físicas mejorado para interacciones más realistas
  • Optimización del rendimiento gráfico en toda la gama Quest

 

Horizon Hyperscape: digitalización fotorrealista

Horizon Hyperscape permite la digitalización rápida de espacios físicos para crear réplicas virtuales fotorrealistas:

Proceso técnico:

  • Escaneo espacial de unos minutos mediante Quest 3 o Quest 3S
  • Procesamiento en servidor para reconstrucción 3D detallada
  • Generación de entornos utilizables en realidad virtual

 

Alianzas de entretenimiento

Horizon TV: plataforma de contenido en vídeo

Meta lanza Horizon TV, un hub centralizado para el consumo de contenidos audiovisuales en realidad virtual:

Socios creativos:

  • Disney+ con acceso a los catálogos de Hulu y ESPN
  • Universal Studios y Universal Pictures para contenido cinematográfico
  • Blumhouse Productions mediante la aplicación Enhanced Cinema para experiencias de terror inmersivas (M3GAN, The Black Phone)

 

FAQ

  • ¿Cuál es la fecha de disponibilidad de las Meta Ray-Ban Display en Europa?

El lanzamiento inicial de las Meta Ray-Ban Display está previsto para el 30 de septiembre de 2025 en Estados Unidos. Meta aún no ha comunicado un calendario preciso para el despliegue en Europa, que debería producirse en los meses siguientes según los procedimientos locales de certificación.

 

  • ¿Son compatibles las gafas Meta con lentes graduadas?

Sí, toda la gama Ray-Ban Meta, incluidas las Display, ofrece opciones de personalización óptica. Las lentes pueden adaptarse a las prescripciones individuales a través de los ópticos socios de Ray-Ban. Los modelos Display también incluyen lentes fotocromáticas que se adaptan automáticamente a la luminosidad ambiental.

 

  • ¿Cómo funciona exactamente la interfaz neural del Meta Neural Band?

La pulsera utiliza sensores electromiográficos (sEMG) que detectan las señales eléctricas generadas por las contracciones musculares de la muñeca y el antebrazo. Estas señales se procesan mediante algoritmos de aprendizaje automático para interpretar las intenciones gestuales del usuario, permitiendo un control preciso sin movimientos visibles.

 

  • ¿Cuál es la autonomía real de los distintos modelos en uso profesional?

Las Ray-Ban Meta Gen 2 ofrecen una autonomía duplicada respecto a la primera generación, permitiendo un día completo de uso intermitente. El Meta Neural Band cuenta con una autonomía certificada de 18 horas en uso continuo. Las especificaciones detalladas de autonomía según los distintos escenarios de uso están disponibles en la documentación técnica oficial.

 

  • ¿Está incluido el soporte de Disney+ dentro del ecosistema Meta?

No, el acceso a Disney+ a través de Horizon TV requiere una suscripción activa y separada al servicio Disney+. Meta proporciona la infraestructura técnica y la plataforma de difusión, pero las suscripciones a los servicios de streaming de terceros siguen siendo independientes y se facturan directamente por los proveedores.

 

  • ¿Son adecuadas las gafas Oakley Meta Vanguard para entornos acuáticos?

Las Oakley Meta Vanguard cuentan con certificación de resistencia al agua, lo que las hace adecuadas para actividades expuestas a la humedad, la lluvia o salpicaduras. Sin embargo, no están diseñadas para inmersión completa en buceo o natación submarina. Las especificaciones precisas de resistencia (norma IPX) se comunicarán en la documentación final del producto.


Conclusión

Meta Connect 2025 marcó una etapa significativa en la evolución de las tecnologías inmersivas con la introducción de las primeras gafas con proyección integrada y una interfaz neural para el gran público. Estos avances técnicos, combinados con las mejoras de las plataformas de software Horizon Studio y Horizon Engine, demuestran la estrategia de Meta de democratizar el acceso a las interfaces espaciales.

Para profesionales y empresas, estas innovaciones abren nuevas perspectivas de aplicaciones en formación, asistencia técnica, colaboración a distancia y creación de contenidos inmersivos. El despliegue progresivo de estas tecnologías en los próximos meses permitirá evaluar su adopción en contextos de uso reales.

Deja un comentario

Su dirección de correo electrónico no será publicada.