Smartfony Samsung Galaxy S25 i S25+ mogą otrzymać układ Dimensity 9400, który będzie obsługiwał multimodalny model sztucznej inteligencji Gemini Nano.

Autor: Vlad Cherevko | dzisiaj, 13:08

Wcześniej Google, wraz ze smartfonami Google Pixel 9, ogłosił zaktualizowany model Gemini Nano AI z multimodalnością, który jest obecnie dostępny tylko na urządzeniach z serii Pixel 9. Jednak według ostatnich doniesień, nowy model Gemini Nano zostanie wkrótce rozszerzony na urządzenia innych producentów, takich jak Samsung.

Co wiadomo

MediaTek ogłosił, że ich nowy flagowy chipset Dimensity 9400 zostanie zoptymalizowany pod kątem multimodalnej sztucznej inteligencji Gemini Nano. Nie wiadomo jeszcze dokładnie, które smartfony jako pierwsze otrzymają nową funkcję z tym chipem, ale według wskazówek Google DeepMind mogą to być smartfony z serii Samsung Galaxy S25.

Multimodalny Gemini Nano, opracowany we współpracy z Google DeepMind, pozwala urządzeniom lepiej zrozumieć kontekst tekstu, obrazów, audio i wideo. Smartfony Pixel 9 są zasilane przez tę funkcję, z aplikacjami takimi jak Pixel Screenshots, Pixel Recorder, Talkback i innymi.

Wcześniej Google DeepMind wspomniało na swoim blogu, że MediaTek wykorzystuje ich technologię do przyspieszenia rozwoju swoich najbardziej zaawansowanych chipów, takich jak nowy flagowy Dimensity, który będzie używany w smartfonach Samsunga.

Ponieważ Samsung do tej pory nie wypuścił smartfona z flagowym układem Dimensity, najprawdopodobniej odnosił się do nadchodzących flagowców Galaxy S25 i S25+, ponieważ Galaxy S25 Ultra będzie oparty na innym flagowym układzie, Snapdragon 8 Gen 4. Zastosowanie Dimensity 9400 może złagodzić niektóre problemy produkcyjne Exynosa 2500 i wprowadzić multimodalne możliwości Gemini Nano do nadchodzących flagowców z serii S25.

Źródło: @negativeonehero, Google DeepMind

Dla tych, którzy chcą wiedzieć więcej

Multimodalność w kontekście sztucznej inteligencji odnosi się do zdolności systemu do przetwarzania i integrowania informacji z różnych typów danych lub modalności. Na przykład, system multimodalny może jednocześnie analizować tekst, obrazy, audio i wideo, aby lepiej zrozumieć i odpowiadać na zapytania użytkowników.

Pozwala to na bardziej złożone i intuicyjne interakcje, ponieważ system może korzystać z różnych źródeł informacji, aby zapewnić dokładniejszą i bardziej kontekstową odpowiedź. Przykładem systemów multimodalnych są asystenci głosowi, którzy mogą rozpoznawać mowę i jednocześnie analizować dane wizualne.