Meta Quest Pro und der Weg zum Metaversum

Meta Quest Pro und der Weg zum Metaversum

Spread the love

Was sonst? Erbe natürlich. „Ich denke, alle haben darauf gewartet“, scherzte Zuckerberg während der heutigen Keynote. Kein Schweben mehr von der Hüfte aufwärts!

Es mag so klingen, als würden wir nur hinter den Kulissen einen Schalter umlegen, aber dies hat viel Arbeit gekostet, um dies zu erreichen. Wenn Ihr digitaler Körper falsch wiedergegeben wird – zum Beispiel an der falschen Stelle – kann dies ablenkend oder sogar störend sein und Sie sofort aus der Erfahrung herausnehmen. Und die Beine sind hart! Wenn sich Ihre Beine unter einem Schreibtisch oder sogar direkt hinter Ihren Armen befinden, kann das Headset sie nicht richtig sehen und muss sich auf die Vorhersage verlassen.

Wir haben viel Zeit damit verbracht, sicherzustellen, dass Meta Quest 2 genau – und zuverlässig — bringen Sie Ihr Vermächtnis in VR. Die Beine werden zuerst zu den Weltmeisterschaften ausgerollt, damit wir sehen können, wie es läuft. Dann werden wir im Laufe der Zeit damit beginnen, Vermächtnisse in mehr Erlebnisse einzubringen, wenn sich unsere Technologie verbessert.

Nächstes Jahr werden wir es Entwicklern auch ermöglichen, benutzerdefinierte Avatar-Aktionen und -Verhaltensweisen in ihre Spiele und Apps zu implementieren.

Und denken Sie daran, dass sich Avatare immer noch weiterentwickeln – sie werden besser aussehen, leistungsfähiger und ausdrucksstärker, anpassbarer. Unsere nächste Generation von Meta-Avataren, die heute bei Connect vorgestellt wird, wird ausdrucksstärker und detaillierter sein als das, was heute verfügbar ist.

Jeder Schritt bringt uns fotorealistischen Avataren ein Stück näher. Bis dahin sind es noch ein paar Jahre, aber wir verbessern stetig sowohl die Technologie als auch unser Verständnis dafür, wie sich Menschen in VR zeigen wollen. Wir arbeiten an KI, die einen genauen Avatar für Sie entwirft, sodass Sie keine Zeit damit verbringen müssen, selbst an den Teilen herumzubasteln (es sei denn, Sie möchten). In Zukunft könnten Sie auch mehrere Avatare für verschiedene Anlässe haben – eine seriöse fotorealistische Darstellung von sich selbst für Arbeitstreffen und eine eher karikaturistische Version zum Abhängen. Du könntest sogar als Filmfigur oder Drache in der Gruppe auftauchen. Wer soll das sagen?

Der Weg zur erweiterten Realität

Während wir bei Virtual und Mixed Reality, zwei wichtigen Fenstern im Metaversum, große Fortschritte gemacht haben, bleibt bei Augmented Reality noch viel zu tun, wo Sie digitale Objekte perfekt über die Welt um Sie herum legen sehen. Es dauert noch ein paar Jahre, bis die grundlegende Technologie weit genug fortgeschritten ist, um großartige AR-Brillen zu unterstützen. Wir müssen Fortschritte im gesamten Stack sehen – Computer, Grafik, Displays, Sensoren, KI, im Grunde alles – bevor der Traum der AR-Brille vollständig verwirklicht wird.

Wir investieren in diese Bereiche (mehr dazu weiter unten), aber für Brillen ist der Formfaktor entscheidend – all diese Technologien müssen in etwas Leichtes und Bequemes eingebaut werden, das man bequem tragen kann. Wir konzentrieren uns also darauf, so viel von der AR-Erfahrung zu bauen, wie wir in eine normale Brille passen können, die sich in Ihr tägliches Leben einfügt.

Den ersten Schritt nach vorne haben wir letztes Jahr mit unserer Partnerschaft gemacht EssilorLuxottica vorstellen Ray-Ban-Geschichten, unsere Datenbrille der ersten Generation. In nur einem Jahr haben wir große Verbesserungen eingeführt: die Videoaufnahmelänge von 30 auf 60 Sekunden verdoppelt und das Hochladen Ihrer Inhalte von der Brille auf Instagram vereinfacht.

Die Freisprechfunktion ist ein zentraler Bestandteil von Ray-Ban Stories, mit der Sie in Verbindung bleiben und im Moment bleiben können, ohne nach einem Telefon suchen zu müssen. Bald können Sie auch über Ray-Ban Stories von Ihrer Telefonnummer aus telefonieren oder SMS schreiben.

Wir wissen auch, dass die Leute gerne Musik auf Ray-Ban Stories hören, also werden wir bald mit der Spotify Tap-Wiedergabe beginnen. Tippen und halten Sie einfach die Seite Ihrer Brille, um Spotify zu spielen, und wenn Sie etwas anderes hören möchten, tippen und halten Sie erneut und Spotify empfiehlt etwas Neues.

Und wir haben ein Update zu Meta Spark geteilt. Ab heute geben wir Entwicklern die Möglichkeit, interaktive 3D-Objekte mit Spark Studio zu erstellen und sie in gemischter Realität über den Meta Spark Player zu testen. Wir entwickeln auch Tools, mit denen Entwickler besser verstehen können, wie Blick und räumliches Bewusstsein zu 3D-Inhalten beitragen können, die über der physischen Welt liegen.

Reality Labs-Forschung

Natürlich wäre kein Connect vollständig ohne einen Besuch von Michael Abrash, Chief Scientist von Reality Labs. Er kam zu Zuckerberg, um einen Blick hinter die Kulissen zu werfen, woran unsere Forschungsteams gearbeitet haben, und ein Update zu geben Avatar-Codecs, Projekt Arieund unsere Arbeit zu schaffen die erste wirklich menschenzentrierte Computerschnittstelle.

Bei Reality Labs erfinden wir eine neue Computerplattform – eine, die um Menschen, Verbindungen und die Beziehungen herum aufgebaut ist, auf die es ankommt. Dort gibt es viel zu tun, also schau dir unseren Beitrag an die heutigen Nachrichten von Reality Labs Research um mehr zu lernen.


Die Forschung und Produkte, die wir heute gezeigt haben, sind Teil einer Roadmap, die weit in die Zukunft reicht – und wir können das Metaversum nicht alleine aufbauen. Wir wollen die besten Entwickler, Ingenieure, Künstler und andere zusammenbringen, um diese Zukunft Wirklichkeit werden zu lassen. Danke, dass Sie uns auf dieser Reise begleiten. Es verspricht eine ziemlich epische Fahrt zu werden.

Leave a Comment

Your email address will not be published.