OpenAI zaostrza kontrolę nad rozwojem potencjalnie niebezpiecznych modeli sztucznej inteligencji
Mariia Shalabaieva/Unsplash
OpenAI, twórca popularnego chatbota ChatGPT, wdraża dodatkowe mechanizmy kontroli w celu zmniejszenia ryzyka tworzenia złośliwych modeli sztucznej inteligencji.
Co wiadomo
W szczególności OpenAI tworzy specjalną grupę doradczą ds. bezpieczeństwa. Będzie ona oceniać ryzyko związane z opracowanymi modelami w kilku obszarach: cyberbezpieczeństwa, dezinformacji, autonomii i innych.
Grupa będzie mogła wydawać zalecenia dla najwyższego kierownictwa firmy dotyczące zakazu lub ograniczenia niektórych projektów. Ponadto rada dyrektorów OpenAI będzie miała prawo wetować decyzje zarządu.
Zgodnie z oświadczeniami firmy, środki te pozwolą lepiej identyfikować potencjalne zagrożenia na wczesnych etapach rozwoju. Eksperci zauważają jednak, że rzeczywista skuteczność systemu zależy od polityki samego kierownictwa OpenAI.
Wcześniej zwolennicy ograniczania ryzykownych projektów AI byli wykluczani z rady dyrektorów. A nowi członkowie zarządu znani są z raczej komercyjnego nastawienia. Nie wiadomo więc, w jakim stopniu będą oni skłonni korzystać z prawa weta w praktyce.
Źródło: TechCrunch