Breaking
Markets
EUR/USD1.1630 0.02%GBP/USD1.3337 0.16%USD/JPY158.65 0.06%USD/CHF0.7865 0.02%AUD/USD0.7155 0.08%USD/CAD1.3748 0.06%USD/CNY6.8229 0.18%USD/INR96.01 0.04%USD/BRL5.0187 0.27%USD/ZAR16.65 0.08%USD/TRY45.56 0.03%Gold$4,541.20BTC$78,363 2.69%ETH$2,194 2.69%SOL$87.44 4.20%
Tech

Meta ouvre aux développeurs l'« écriture neuronale » des lunettes Ray-Ban Display

The Vergeil y a 1 j
Lunettes connectées et technologie portable
Photo: Vika Glitter / Pexels

Meta a ouvert à l'ensemble des développeurs la fonctionnalité d'« écriture neuronale » de ses lunettes connectées Ray-Ban Display, élargissant l'écosystème d'applications tierces sur la plateforme. L'annonce vient des équipes Reality Labs, sur le campus de Sunnyvale.

La fonctionnalité permet aux utilisateurs de saisir du texte sur les surfaces de saisie affichées par les lunettes grâce à un bracelet à électromyographie de surface (sEMG). Le bracelet lit l'activité électrique des muscles du poignet et des doigts, puis convertit les signaux en texte en temps réel. Meta annonce des vitesses pouvant atteindre 50 mots par minute.

La documentation destinée aux développeurs est publiée sur le site Reality Labs. Elle comprend des échantillons de SDK, des tests de performance et les limites de précision du modèle d'écriture. Selon l'entreprise, le modèle est entraîné depuis deux ans pour l'anglais, avec un taux d'erreur de 4,8 % à 50 mots par minute.

La fonctionnalité avait été présentée publiquement pour la première fois lors de Meta Connect en 2025. À l'époque, un petit groupe de développeurs Meta Research y avait accès ; avec la publication officielle du SDK, elle est désormais accessible à tous les développeurs. Le téléchargement du SDK a été ajouté à la boutique d'applications « Wear Apps » de Meta.

Un ajout important pour les développeurs : une API de bas niveau qui permet aux applications tierces de lire directement les données du capteur sEMG. Elle permet d'ajouter ses propres couches d'apprentissage automatique au-dessus du modèle d'écriture standard. D'après la documentation, l'accès à cette API plus profonde est réservé aux membres du programme annuel Wear Developer de Meta.

Le directeur technique de Meta, Andrew Bosworth, a écrit sur X que l'« écriture neuronale » était « la méthode de saisie la plus précise que nous ayons conçue pour un usage prolongé sur des lunettes connectées ». Bosworth a précisé qu'un modèle d'interprétation des gestes était en cours de développement.

Les premières réactions de la communauté des développeurs sont contrastées. Le développeur d'applications mobiles Liam Pham a écrit sur les réseaux sociaux que « la précision est étonnamment élevée — l'expérience se rapproche réellement d'un clavier ». Le chercheur en confidentialité Soheil Niknam a souligné que le traitement des données sEMG soulève une série de nouvelles questions de sécurité.

Meta indique que les données sEMG sont traitées localement entre les lunettes et le bracelet associé ; le modèle principal n'envoie pas de données aux services cloud de Meta. L'entreprise précise que les détails de sa politique sur la conservation des données utilisateurs seront publiés le mois prochain dans un « livre blanc sur la confidentialité ».

Meta n'a pas communiqué les chiffres de vente des Ray-Ban Display. La directrice financière Susan Li a indiqué lors de la conférence sur les résultats de février que « les Ray-Ban Display se vendent au quadruple du rythme de lancement des Ray-Ban Stories », le premier modèle de lunettes connectées de Meta. Le cabinet IDC estime que plus de la moitié des expéditions mondiales de lunettes connectées au premier trimestre 2026 ont été assurées par Meta.

Le lancement développeurs s'accompagne de l'aperçu de trois applications à venir pour les Ray-Ban Display : une version lunettes de l'application de prise de notes Notion, l'application de messagerie multiplateforme Beeper et l'application d'apprentissage de l'allemand Babbel. Les trois doivent être disponibles via la boutique d'applications dès la fin du mois de mai.

Cet article est un résumé éditorial assisté par IA basé sur The Verge. L'image est une photo d'archive de Vika Glitter sur Pexels.