Stability AI udostępnia nowy model generowania obrazu Stable Diffusion XL 1.0
![Stability AI udostępnia nowy model generowania obrazu Stable Diffusion XL 1.0 Stability AI udostępnia nowy model generowania obrazu Stable Diffusion XL 1.0](/media/post_big/064.webp)
Firma Stability AI wydała oprogramowanie Stable Diffusion XL 1.0, które określa mianem "najbardziej zaawansowanej" wersji do tej pory.
Co wiadomo
Joe Penna, Head of Applied Machine Learning w Stability AI, powiedział, że Stable Diffusion XL 1.0 zawiera 3,5 miliarda parametrów. Model może generować obrazy o pełnej rozdzielczości 1 megapiksela w ciągu kilku sekund z kilkoma współczynnikami proporcji.
Według twórców algorytm zapewnia "jaśniejsze" i " dokładniejsze " kolory, a także lepszy kontrast, cienie i światła niż jego poprzednik.
![](/media/uploads/old-man-image.png)
Stable Diffusion XL 1.0 obsługuje nakładanie farby, malowanie i podpowiedzi między obrazami. Oznacza to, że użytkownicy mogą podać modelowi obraz jako dane wejściowe i edytować go.
Według Stability AI, model rozumie złożone, wieloczęściowe instrukcje podawane w krótkich podpowiedziach. Poprzednie modele wymagały dłuższych podpowiedzi tekstowych.
Deweloperzy przeszkolili również Stable Diffusion XL 1.0 do generowania jasnych i czytelnych tekstów.
Stability AI przyznało, że model może generować toksyczne i stronnicze treści. Deweloperzy starali się jednak dostosować go tak, aby zmniejszyć prawdopodobieństwo generowania takich obrazów.
Stable Diffusion XL 1.0 jest rozpowszechniany jako open source na GitHub oprócz Stability API i aplikacji konsumenckich, takich jak ClipDrop i DreamStudio.
Źródło: TechCrunch