Nowy Microsoft Bing czasami zniekształca informacje, które znajduje
Wyszukiwarki są na nowym etapie rozwoju dzięki integracji sztucznej inteligencji. Teraz nie będziesz musiał przeglądać mnóstwa stron internetowych, aby znaleźć potrzebne informacje - zostaną Ci one przedstawione w krótkich (lub nie) komunikatach wygenerowanych przez AI. Pojawia się jednak pytanie: na ile taki system jest niezawodny?
Wczoraj Microsoft zapowiedział zaktualizowaną wyszukiwarkę Bing z wbudowanym ChatGPT, co powinno znacznie poprawić doświadczenia użytkowników. I choć Microsoft podjął wiele środków ostrożności, by nie powtórzyła się sytuacja z Tay (chatbot z Twittera, który stał się rasistą i mizoginem), to firma wciąż ostrzega, że niektóre wyniki wyszukiwania w Bingu mogą być złe. Oto co firma mówi w FAQ na temat Binga:
"Bing stara się, aby odpowiedzi były ciekawe i prawdziwe, ale biorąc pod uwagę, że jest to wczesny podgląd, może nadal pokazywać nieoczekiwane lub niedokładne wyniki oparte na krótkich treściach internetowych, więc prosimy o zachowanie ostrożności. Czasami Bing zniekształca znalezione informacje i możesz zobaczyć odpowiedzi, które brzmią przekonująco, ale są niekompletne, niedokładne lub niewłaściwe. Użyj własnego osądu i sprawdź dokładnie fakty przed podjęciem decyzji lub działaniem na podstawie odpowiedzi Binga."
A te "błędy" łatwo zauważyć: The Verge zapytał Binga, co Microsoft dziś pokazał i powiedziano mu, że pokazał nową wyszukiwarkę Bing z ChatGPT, co jest prawdą, i dodano, że Microsoft zademonstrował możliwości wyszukiwarki w zakresie "parodii celebrytów", co oczywiście nie miało miejsca.
Źródło: The Verge