Ray-Ban Meta teraz wspierają Live Translation — Meta przygotowuje funkcję Live AI

Meta ogłosiła uruchomienie funkcji żywego tłumaczenia dla wszystkich użytkowników inteligentnych okularów Ray-Ban Meta. Ta możliwość wcześniej była dostępna tylko w ramach testów beta.
Co wiadomo
Funkcja wspiera tłumaczenie na język angielski, francuski, włoski i hiszpański. Działa w czasie rzeczywistym podczas rozmowy i nie wymaga Wi-Fi ani połączenia mobilnego, jeśli pakiet językowy został wcześniej pobrany. Aby aktywować, wystarczy powiedzieć: „Hey Meta, rozpocznij tłumaczenie na żywo”.
Jak to działa
Podczas rozmowy użytkownik słyszy tłumaczenie powiedzonego w wybranym języku przez głośniki w okularach, a tłumaczenie tekstowe jest wyświetlane na smartfonie. To wygodne podczas podróży, nauki lub pracy z obcokrajowcami.




Niebawem firma planuje dodać jeszcze jedną funkcję — Live AI. Umożliwi ona okularom „widzenie” tego, co widzi użytkownik przez wbudowaną kamerę i dostarczanie kontekstowych wskazówek. Na przykład podczas gotowania, spacerów czy ogrodnictwa, okulary będą mogły odpowiadać na pytania bez słowa aktywacyjnego i z uwzględnieniem wcześniejszych zapytań.
Według plotek, Apple również rozważa pomysł stworzenia własnych „inteligentnych” okularów z AI, mikrofonami i kamerami — podobnych do Meta.
Niedawno Meta uruchomiła reklamę w Threads w ponad 30 krajach. Według Mosseriego, celem wprowadzenia reklamy jest „poprawa ogólnego doświadczenia użytkownika”. Bloki reklamowe będą pojawiać się w feedzie pomiędzy postami, najpierw w wybranych regionach, a z czasem — w większości krajów, w których dostępna jest platforma Threads.
Źródło: Meta