AMD zaprezentowało chipy do przyspieszonego treningu sztucznej inteligencji
PaulSakuma.com.
AMD ogłosiło nowe akceleratory i procesory skoncentrowane na dużych modelach językowych (LLM).
Co wiadomo
Producent układów scalonych zaprezentował akcelerator Instinct MI300X i procesor Instinct M1300A do szkolenia i uruchamiania LLM. Jak twierdzi firma, oba nowe produkty przewyższają swoich poprzedników pod względem pojemności pamięci i wydajności energetycznej.
Według Lisy Su, CEO AMD, MI300X jest "najbardziej wydajnym akceleratorem na świecie". Jest porównywalny z układem H100 firmy Nvidia pod względem szkolenia LLM, ale przewyższa go o 1,4x we wnioskowaniu na Llama 2 firmy Meta (70 miliardów parametrów).
AMD ogłosiło również partnerstwo z Microsoftem w celu wdrożenia MI300X w chmurze obliczeniowej Azure. Meta ogłosiła również plany wdrożenia procesorów MI300 w swoich centrach danych.
Ponadto firma Su ogłosiła procesory APU MI300A dla centrów danych, które według niej zwiększą rynek do 45 miliardów dolarów. APU łączą procesory CPU i GPU w celu szybszego przetwarzania. AMD twierdzi, że MI300A zapewnia wysoką wydajność, szybkie uczenie się modeli i 30-krotnie wyższą efektywność energetyczną. Ma 1,6 razy większą pojemność pamięci niż H100 i implementuje zunifikowaną pamięć.
MI300A będzie wykorzystywany w superkomputerze El Capitan zbudowanym przez Hewlett Packard Enterprise dla Livermore National Laboratory. Jest to jedna z najpotężniejszych instalacji na świecie o wydajności ponad 2 eksaflopów.
Firma nie podała informacji o cenach nowych produktów.
Ponadto AMD ogłosiło Ryzen 8040 - układy, które pozwolą wprowadzić więcej funkcji AI w urządzeniach mobilnych. Według zapowiedzi, seria 8040 zapewnia 1,6 razy większą wydajność przetwarzania AI w porównaniu do poprzedniej generacji, a także posiada wbudowane jednostki przetwarzania neuronowego (NPU).
Firma spodziewa się, że produkty oparte na procesorach Ryzen 8040 będą dostępne w 1. kwartale 2024 roku.
Źródło: The Verge