Chatbot Microsoftu podawał fałszywe informacje o wyborach europejskich


Microsoft

Naukowcy odkryli, że chatbot Bing (obecnie Copilot) podawał błędne informacje na temat ostatnich wyborów w Szwajcarii i Niemczech. Według raportu grupy AlgorithmWatch, prawie jedna trzecia odpowiedzi narzędzia na pytania dotyczące wyborów zawierała błędy merytoryczne.

Co wiadomo

W szczególności odpowiedzi zawierały nieprawidłowe daty, wyniki sondaży i odniesienia do kandydatów, którzy nie brali udziału w wyborach. Bing często cytował rzeczywiste źródła, ale liczby, które cytował, były sprzeczne z oryginalnymi danymi.

Naukowcy zauważają, że mechanizmy obronne Binga były uruchamiane nierównomiernie. W 30% przypadków odpowiedzi były poprawne, a w 39% chatbot odmówił udzielenia odpowiedzi. Popełniał jednak poważne błędy merytoryczne, gdy chodziło o fakty, a nie opinie.

Microsoft zapewnił, że podejmuje kroki w celu poprawy dokładności platform AI, zwłaszcza w kontekście wyborów. Jednak ryzyko dezinformacji ze strony chatbotów jest coraz większym zmartwieniem.

Źródło: The Verge

var _paq = window._paq = window._paq || []; _paq.push(['trackPageView']); _paq.push(['enableLinkTracking']); (function() { var u='//mm.magnet.kiev.ua/'; _paq.push(['setTrackerUrl', u+'matomo.php']); _paq.push(['setSiteId', '2']); var d=document, g=d.createElement('script'), s=d.getElementsByTagName('script')[0]; g.async=true; g.src=u+'matomo.js'; s.parentNode.insertBefore(g,s); })();