Ray-Ban Meta teraz wspierają Live Translation — Meta przygotowuje funkcję Live AI

Autor: Nastya Bobkova | 24.04.2025, 09:37
Inteligentne okulary Ray-Ban od Meta teraz wspierają Live Translation: co dalej? Wszyscy użytkownicy okularów Ray-Ban Meta otrzymali Live Translation, wkrótce dodadzą Live AI. Źródło: Meta

Meta ogłosiła uruchomienie funkcji żywego tłumaczenia dla wszystkich użytkowników inteligentnych okularów Ray-Ban Meta. Ta możliwość wcześniej była dostępna tylko w ramach testów beta.

Co wiadomo

Funkcja wspiera tłumaczenie na język angielski, francuski, włoski i hiszpański. Działa w czasie rzeczywistym podczas rozmowy i nie wymaga Wi-Fi ani połączenia mobilnego, jeśli pakiet językowy został wcześniej pobrany. Aby aktywować, wystarczy powiedzieć: „Hey Meta, rozpocznij tłumaczenie na żywo”.

Jak to działa

Podczas rozmowy użytkownik słyszy tłumaczenie powiedzonego w wybranym języku przez głośniki w okularach, a tłumaczenie tekstowe jest wyświetlane na smartfonie. To wygodne podczas podróży, nauki lub pracy z obcokrajowcami.

Niebawem firma planuje dodać jeszcze jedną funkcję — Live AI. Umożliwi ona okularom „widzenie” tego, co widzi użytkownik przez wbudowaną kamerę i dostarczanie kontekstowych wskazówek. Na przykład podczas gotowania, spacerów czy ogrodnictwa, okulary będą mogły odpowiadać na pytania bez słowa aktywacyjnego i z uwzględnieniem wcześniejszych zapytań.

Według plotek, Apple również rozważa pomysł stworzenia własnych „inteligentnych” okularów z AI, mikrofonami i kamerami — podobnych do Meta.

Niedawno Meta uruchomiła reklamę w Threads w ponad 30 krajach. Według Mosseriego, celem wprowadzenia reklamy jest „poprawa ogólnego doświadczenia użytkownika”. Bloki reklamowe będą pojawiać się w feedzie pomiędzy postami, najpierw w wybranych regionach, a z czasem — w większości krajów, w których dostępna jest platforma Threads.

Źródło: Meta