Australia wzywa do ściślejszego uregulowania sztucznej inteligencji po tym, jak lekarze używają ChatGPT do pisania dokumentacji medycznej
Australijskie Stowarzyszenie Medyczne (AMA) wezwało do wprowadzenia ścisłych zasad i przejrzystości w korzystaniu ze sztucznej inteligencji w opiece zdrowotnej po tym, jak lekarze w szpitalach w Perth zaczęli używać ChatGPT do wprowadzania dokumentacji medycznej do kart pacjentów.
Co wiemy.
AMA stwierdziło, że Australia pozostaje w tyle za innymi krajami w zakresie regulacji dotyczących sztucznej inteligencji. Zdaniem stowarzyszenia, potrzebne są bardziej rygorystyczne przepisy, aby chronić pacjentów i pracowników służby zdrowia, a także stworzyć atmosferę zaufania.
W maju pięciu szpitalom w południowym Perth Metropolitan Health Service zalecono zaprzestanie korzystania z ChatGPT do wypełniania dokumentacji medycznej. Wcześniej okazało się, że niektórzy pracownicy korzystali z modelu dużej mowy w swojej praktyce.
Dyrektor generalny służby, Paul Forden, powiedział, że korzystanie z takich systemów nie gwarantuje poufności pacjentów i powinno zostać zaprzestane.
Według AMA ochrona powinna obejmować zapewnienie, że lekarze podejmują ostateczne decyzje. Ponadto personel medyczny powinien uzyskać zgodę pacjenta na jakiekolwiek leczenie lub diagnozę przy użyciu sztucznej inteligencji.
AMA stwierdziła, że dane pacjentów muszą być chronione. Stowarzyszenie dodało, że konieczny jest odpowiedni nadzór etyczny, aby zapewnić, że system nie doprowadzi do zwiększenia nierówności zdrowotnych.
Według AMA, Australia powinna rozważyć międzynarodowe praktyki w zakresie regulacji sztucznej inteligencji, takie jak unijna ustawa o sztucznej inteligencji lub podejście Kanady do tej kwestii.
Źródło: The Guardian.