Naukowcy prezentują nową metodę kompresji wielojęzycznych modeli sztucznej inteligencji

Autor: Bohdan Kaminskyi | 08.12.2023, 21:02
Naukowcy prezentują nową metodę kompresji wielojęzycznych modeli sztucznej inteligencji
Volodymyr Hryshchenko/Unsplash

Naukowcy z Johns Hopkins University zaproponowali nowe podejście do optymalizacji wielojęzycznych modeli językowych (MLM), pozwalające na znaczne zmniejszenie ich rozmiaru bez utraty wydajności.

Co wiadomo

Modele MLM umożliwiają generowanie i analizowanie tekstów w różnych językach. Jednak im więcej języków obejmują, tym gorzej działają z powodu "interferencji językowej".

W przeciwieństwie do tradycyjnych metod, w których dla każdego języka opracowywana jest osobna sieć neuronowa, naukowcy zdecydowali się na użycie macierzy niskiego rzędu. Pozwalają one skompresować dane i zmniejszyć liczbę parametrów potrzebnych do dodania nowych języków do modelu.

Według Haorana Xu (Haoran Xu), jednego z autorów, działa to jak ograniczona paleta kolorów dla artysty. Nie ma potrzeby dawania każdemu dziecku w klasie własnego zestawu farb, wystarczy wspólna paleta trzech kolorów. To znacznie zmniejsza potrzebę stosowania parametrów podczas skalowania modelu.

Autorzy przetestowali swoją metodę w 95 językach. Model wykazał doskonałe wyniki przy użyciu znacznie mniejszej liczby parametrów. Zdaniem naukowców toruje to drogę do tworzenia kompaktowych i wydajnych MLM.

Według naukowców z czasem pojawią się mobilne aplikacje AI, które będą działać równie dobrze w setkach języków. Ich ostatecznym celem jest zastosowanie nowej metody do kompresji dużych MLM bez szkody dla ich wydajności.

Źródło: TechXplore