Stability AI udostępnia nowy model generowania obrazu Stable Diffusion XL 1.0
Firma Stability AI wydała oprogramowanie Stable Diffusion XL 1.0, które określa mianem "najbardziej zaawansowanej" wersji do tej pory.
Co wiadomo
Joe Penna, Head of Applied Machine Learning w Stability AI, powiedział, że Stable Diffusion XL 1.0 zawiera 3,5 miliarda parametrów. Model może generować obrazy o pełnej rozdzielczości 1 megapiksela w ciągu kilku sekund z kilkoma współczynnikami proporcji.
Według twórców algorytm zapewnia "jaśniejsze" i " dokładniejsze " kolory, a także lepszy kontrast, cienie i światła niż jego poprzednik.
Stable Diffusion XL 1.0 obsługuje nakładanie farby, malowanie i podpowiedzi między obrazami. Oznacza to, że użytkownicy mogą podać modelowi obraz jako dane wejściowe i edytować go.
Według Stability AI, model rozumie złożone, wieloczęściowe instrukcje podawane w krótkich podpowiedziach. Poprzednie modele wymagały dłuższych podpowiedzi tekstowych.
Deweloperzy przeszkolili również Stable Diffusion XL 1.0 do generowania jasnych i czytelnych tekstów.
Stability AI przyznało, że model może generować toksyczne i stronnicze treści. Deweloperzy starali się jednak dostosować go tak, aby zmniejszyć prawdopodobieństwo generowania takich obrazów.
Stable Diffusion XL 1.0 jest rozpowszechniany jako open source na GitHub oprócz Stability API i aplikacji konsumenckich, takich jak ClipDrop i DreamStudio.
Źródło: TechCrunch