Breaking
Markets
EUR/USD1.1630 0.02%GBP/USD1.3337 0.16%USD/JPY158.65 0.06%USD/CHF0.7865 0.02%AUD/USD0.7155 0.08%USD/CAD1.3748 0.06%USD/CNY6.8229 0.18%USD/INR96.01 0.04%USD/BRL5.0187 0.27%USD/ZAR16.65 0.08%USD/TRY45.56 0.03%Gold$4,541.20BTC$78,363 2.69%ETH$2,194 2.69%SOL$87.44 4.20%
Tecnología

Meta abre a todos los desarrolladores la «escritura neuronal» de las gafas Ray-Ban Display

The Vergehace 1 d
Gafas inteligentes y tecnología vestible
Photo: Vika Glitter / Pexels

Meta ha abierto a toda la comunidad de desarrolladores la función de «escritura neuronal» de sus gafas inteligentes Ray-Ban Display, ampliando el ecosistema de aplicaciones de terceros de la plataforma. El anuncio procede del equipo de Reality Labs, en el campus de Sunnyvale.

La función permite a los usuarios introducir texto en las superficies de escritura mostradas en las gafas mediante una pulsera con electromiografía de superficie (sEMG). La pulsera lee la actividad eléctrica de los músculos de la muñeca y los dedos y la convierte en texto en tiempo real. Meta indica velocidades de hasta 50 palabras por minuto.

La documentación para desarrolladores se ha publicado en el sitio de Reality Labs. Incluye ejemplos de SDK, pruebas de rendimiento y los límites de precisión del modelo de escritura. Según la empresa, el modelo lleva dos años entrenándose en inglés y tiene una tasa de error del 4,8 % a 50 palabras por minuto.

La función se presentó por primera vez en público durante Meta Connect en 2025. En aquel momento solo tenía acceso un pequeño grupo de desarrolladores de Meta Research; con la publicación oficial del SDK, ahora está disponible para todos los desarrolladores. La descarga del SDK se ha incorporado a la tienda de aplicaciones «Wear Apps» de Meta.

Una novedad importante para los desarrolladores es una API de bajo nivel que permite a las aplicaciones de terceros leer directamente los datos del sensor sEMG. Esa API hace posible añadir capas propias de aprendizaje automático sobre el modelo de escritura estándar. Según la documentación, el acceso a esa API más profunda está limitado a los miembros del programa anual Wear Developer de Meta.

El director técnico de Meta, Andrew Bosworth, escribió en X que la «escritura neuronal» es «el método de entrada más preciso que hemos diseñado para uso prolongado en gafas inteligentes». Bosworth añadió que el equipo trabaja en un modelo de interpretación de gestos.

Las primeras reacciones de la comunidad de desarrolladores han sido dispares. El desarrollador de aplicaciones móviles Liam Pham escribió en redes sociales que «la precisión es sorprendentemente alta: produce una experiencia de escritura que se parece de verdad a un teclado». El investigador en privacidad Soheil Niknam señaló que el tratamiento de datos sEMG abre un nuevo conjunto de preguntas de seguridad.

Meta indica que los datos sEMG se procesan localmente entre las gafas y la pulsera asociada; el modelo principal no envía datos a los servicios en la nube de Meta. La empresa precisa que los detalles de su política de retención de datos de usuario se publicarán el mes que viene en un «libro blanco sobre privacidad».

Meta no ha desvelado las ventas totales de las Ray-Ban Display. La directora financiera Susan Li dijo en la presentación de resultados de febrero que «las Ray-Ban Display se están vendiendo al cuádruple del ritmo de lanzamiento de las Ray-Ban Stories», el primer modelo de gafas inteligentes de Meta. La consultora IDC estima que más de la mitad de los envíos mundiales de gafas inteligentes en el primer trimestre de 2026 los hizo Meta.

El lanzamiento para desarrolladores incluye un avance de tres aplicaciones próximas para Ray-Ban Display: una versión para gafas de la aplicación de notas Notion, la aplicación de mensajería multiplataforma Beeper y la aplicación de aprendizaje de alemán Babbel. Las tres deberían estar disponibles a través de la tienda de aplicaciones a finales de mayo.

Este artículo es un resumen editorial asistido por IA basado en The Verge. La imagen es una foto de archivo de Vika Glitter en Pexels.