DAJ CYNK

ChatGPT może być groźny. Fałszywie oskarżył prawnika

Karolina Mirosz (mkina)

Wydarzenia

ChatGPT może być groźny. Fałszywie oskarżył prawnika

ChatGPT sfałszował artykuł, by pozwać profesora prawa o molestowanie. Prawnik o wszystkim dowiedział się z wiadomości e-mail od kolegi.

Inteligentne chatboty, takie jak ChatGPT, mogą uchodzić za wygodne i kompletne źródło wiedzy. Trzeba jednak mieć na uwadze, że czasem potrafią się mylić i to dotkliwie. Profesor prawa Jonathan Turley został niesprawiedliwe oskarżony o molestowania seksualne, a sytuacja ta pokazuje, jak niebezpieczne może być sztuczna inteligencja.

Pewien prawnik z Kalifornii, w ramach prowadzonych badań, zastosował ChatGPT do sporządzenie listy przedstawicieli tego zawodu, którzy dopuścili się molestowania seksualnego. Wśród wielu nazwisk znalazły się tam również dane prof. Turleya. 

Jak wskazał ChatGPT, wspomniany profesor miał wypowiadać komentarze o charakterze seksualnym i jest oskarżany o próbę dotykania ucznia na wycieczce szkolnej na Alaskę. A dane te zostały podobno utworzone na podstawie artykułu z „Washington Post”, opublikowanego w marcu 2018 roku.

ChatGPT sfabrykował informacje, bo tak działa

Po sprawdzeniu dostarczonych przez AI informacji na temat prawnika, okazało się, że artykuł wskazany jako dowód molestowania nigdy nie istniał, tak samo jak wycieczka na Alaskę. Sam Turley również zaprzeczył, by kiedykolwiek pojechał z uczniami na wycieczkę, zwłaszcza na Alaskę. Zaprzecza też jakoby molestował swojego ucznia i był o to oskarżany.

Chatbot czerpie informacje z ogromnej ilości treści dostępnych online. Niestety czasami dopasowanie słów i danych nie odbywa się prawidłowo, co powoduje, że kreowane są nieprawdziwe informacje – zauważono. Powodem może być to, że modele językowe sztucznej inteligencji powstają na bazie analizy takich źródeł jak Reddit czy Wikipedia, na których treści nie zawsze są weryfikowane pod kątem ich rzetelności.

Zauważmy, podobny przypadek może przytrafić się, gdy poszukujemy danych informacji w wyszukiwarce, na przykład Google. Rzecz w tym, że wyszukiwarka bardzo otwarcie prezentuje źródła swej „wiedzy” i ani przez moment nie stara się udawać, że są one jakkolwiek weryfikowane. W przypadku AI nie jest to jednoznaczne.

Ofiarą błędów sztucznej inteligencji jest też Brian Hood, burmistrz miasta Hepburn Shire w Australii. Deklaruje on nawet, że pozwie OpenAI, jeśli firma nie sprostuje informacji na jego temat. ChatGPT wymienił burmistrza jako zamieszanego w skandal korupcyjny mający miejsce w australijskim Banku Rezerw.

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Shutterstock

Źródło tekstu: Golem, oprac. własne