Vorerst nur für US-Kundschaft

CES 2026: Meta macht Ray-Ban Display zum Teleprompter

Uhr
von Alexia Muanza und Übersetzung: Chiara Binder, rja

Auf der CES 2026 hat Meta neue Funktionen für seine vernetzte Brille Ray-Ban Display und sein Armband Neural Band vorgestellt. Darunter einen integrierten Teleprompter und die Eingabe von Nachrichten per Elektromyographie (EMG). Meta gab aber auch bekannt, die ursprünglich geplante internationale Expansion der Brille bis auf Weiteres auszusetzen.

Screenshot der Präsentation der vernetzten Brille Ray-Ban Display. (Source: Meta)
Screenshot der Präsentation der vernetzten Brille Ray-Ban Display. (Source: Meta)

Meta hat an der CES 2026 mehrere Neuheiten rund um seine vernetzte Brille Ray-Ban Display und sein Armband Meta Neural Band vorgestellt. Der Hersteller präsentiert die Gadgets als fortschrittliche Plattform für die KI-gestützte Interaktion. Die Ray-Ban-Display-Brille soll über einen einfachen Sprachassistenten hinaus weiterentwickelt werden, teilt Meta mit. Ziel sei ein flüssigeres Erlebnis im Alltag, ohne das Smartphone herausholen zu müssen.

Integrierter Teleprompter und EMG-Schreiben

Die wichtigste angekündigte Neuerung ist die schrittweise Einführung einer in Ray-Ban Display integrierten Teleprompter-Funktion. Nutzerinnen und Nutzer können gemäss Meta ihre Notizen von ihrem Smartphone kopieren und einfügen. Dabei sei egal, ob es sich um eine Notiz-App, Google Docs oder einen mit Meta AI generierten Text handelt. Die Notiz könne direkt in der Brille in Form von diskreten Textkarten gelesen werden. Die Navigation im Text erfolgt über das Meta Neural Band, sodass man einem Skript folgen kann, während man den Blick auf seinen Gesprächspartner oder die Kamera gerichtet hält, schreibt Meta weiter. Diese Funktion soll demnach für Reden oder die Erstellung von Videoinhalten geeignet sein.

Meta führt ausserdem EMG Handwriting ein, wobei EMG für Elektromyographie steht. Mit dieser Funktion können laut Mitteilung Nutzerinnen und Nutzer des Early-Access-Programms von Ray-Ban Display und Neural Band Nachrichten über Whatsapp und Messenger versenden. Nachrichten zu verfassen sei dabei durch das Schreiben mit dem Finger auf eine beliebige Oberfläche möglich. Die am Handgelenk erfassten Muskelsignale würden in Text umgewandelt oder könnten zur Auswahl vorgeschlagener Antworten verwendet werden. Derzeit ist diese Neuerung auf die Vereinigten Staaten beschränkt und nur in englischer Sprache verfügbar. Sie soll eine diskrete Alternative zur Tastatur und Sprachsteuerung bieten, mit der das Telefon verstaut und der Kopf hoch gehalten werden kann.

Darüber hinaus soll die vom Ray-Ban Display unterstützte Fussgängernavigationsfunktion nun in 32 Städten verfügbar sein, darunter Denver, Las Vegas, Portland und Salt Lake City. Weitere Städte sollen folgen.

Pause bei der internationalen Einführung

Meta teilt zudem mit, Ray-Ban Display in sehr begrenzten Stückzahlen herzustellen. Seit der Markteinführung im Herbst 2025 hat das Unternehmen demnach ein "erhebliches" Interesse in den Vereinigten Staaten festgestellt und führt bereits Wartelisten. Angesichts dieser Nachfrage und der begrenzten Lagerbestände kündigt Meta weiter an, die ursprünglich für Anfang 2026 geplante internationale Expansion nach Grossbritannien, Frankreich, Italien und Kanada vorerst auszusetzen. Die Begründung: Zunächst sollen die Bestellungen aus den USA bedient werden, bevor eine Einführung im Ausland neu bewertet werde.

Pilotprojekte rund um EMG

Zusätzlich zu den funktionalen Neuerungen stellt Meta zwei Pilotprojekte im Zusammenhang mit dem Neural Band und der EMG-Technologie vor. Gemeinsam mit Garmin  demonstriert Meta demnach, wie das Infotainment-System im Auto durch Handgelenksbewegungen gesteuert werden könne.  Im Rahmen einer Forschungskooperation mit der University of Utah wird der Einsatz von EMG bei Menschen mit unterschiedlicher Handbeweglichkeit evaluiert, insbesondere für die Steuerung von vernetzten Geräten und Mobilitätshilfen. Meta betont, dass diese Technologie Muskelsignale auch dann erkennen könne, wenn die körperlichen Bewegungen sehr eingeschränkt seien.

 

IM Herbst 2025 stellte Meta mit Omnilingual ASR ein neues Spracherkennungsmodell vor. Die Open-Source-Technologie unterstützt über 1600 Sprachen. Zwar versteht sie bislang kein Schweizerdeutsch, dafür gehört Rätoromanisch bereits zu ihrem Repertoire, wie Sie hier lesen können.

Webcode
qCx4NzEg