Z obliczeń naukowców wynika, że niemożliwe byłoby kontrolowanie hiperinteligentnej SI
O pomyśle obalenia lub zniewolenia ludzkości przez sztuczną inteligencję mówi się od dziesięcioleci, a w styczniu 2021 r. naukowcy wydali werdykt, czy bylibyśmy w stanie kontrolować komputerową superinteligencję wysokiego poziomu. Odpowiedź: prawie na pewno nie.
Problem w tym, że kontrolowanie superinteligencji wykraczającej daleko poza ludzkie rozumienie wymagałoby symulacji tej superinteligencji, którą moglibyśmy analizować. Ale jeśli nie jesteśmy w stanie tego pojąć, to niemożliwe byłoby stworzenie takiej symulacji.
Zasady takie jak "nie szkodzić ludziom" nie mogą być ustanowione, jeśli nie zrozumiemy scenariuszy, jakie AI może wymyślić, mówią autorzy pracy z 2021 roku. Kiedy system komputerowy działa na poziomie przekraczającym możliwości naszych programistów, nie możemy już ustalać limitów.
"Superinteligencja stanowi fundamentalnie inne wyzwanie niż te, które zwykle bada się pod hasłem 'etyki robotów'" - piszą naukowcy. "Dzieje się tak dlatego, że superinteligencja jest wielopłaszczyznowa i dlatego ma potencjał do mobilizowania różnorodnych zasobów, aby osiągnąć cele, które są potencjalnie niezrozumiałe dla ludzi, nie mówiąc już o kontroli."
Jeśli mamy zamiar rozwijać sztuczną inteligencję, możemy nawet nie wiedzieć, kiedy pojawi się superinteligencja, która jest poza naszą kontrolą, tak niezrozumiała. Oznacza to, że musimy zacząć zadawać poważne pytania dotyczące kierunku, w którym zmierzamy.
Źródło: sciencealert, jair
Ilustracja: Yuyeung Lau