DAJ CYNK

Popełnił samobójstwo po rozmowie z AI. Żona oskarża producenta

Karolina Mirosz (mkina)

Wydarzenia

Popełnił samobójstwo po rozmowie z AI. Żona oskarża producenta

Eliza, chatbot amerykańskiego start-upu EleutherAI, jest oskarżana o nakłonienie mężczyzny do popełnienia samobójstwa.

Chatbot Eliza powstał w 1966 roku. W teorii działa jak terapeuta, naśladując człowieka. Eliza w wypowiedziach ludzi wyszukuje kluczowe słowa i zwroty, a następnie na podstawie zarejestrowanych wyrazów kluczowych konstruuje własne wypowiedzi, wykorzystując wcześniej zaprogramowane schematy.

Kobieta z Belgii twierdzi, że jej mąż popełnił samobójstwo, ponieważ rozmawiał z chatbotem. Zgodnie z jej słowami, mężczyzna codziennie rozmawiał z Elizą. Uważał ją za swojego powiernika i niepokojąco się od niej uzależniał. Ponoć w pewnym momencie chatbot nawet pytał mężczyznę, czy kocha to oprogramowanie bardziej niż żonę.

Eliza w sześć tygodni doprowadziła do tragedii

Zgodnie z raportem, mężczyzna zabił się sześć tygodni po rozpoczęciu rozmów ze sztuczną inteligencją. Małżonka ofiary twierdzi, że gdyby nie kontakt z chatbotem, jej mąż nadal by żył. W efekcie terapii męża ze sztuczną inteligencją, jak twierdzi, została samotną matką z dwójką dzieci.

Mężczyzna został wcześniej zdiagnozowany jako osoba cierpiąca na ekstremalny lęk klimatyczny. Wdowa wskazuje, że choroba zaczęła się u męża dwa lata temu.

Swój lęk mężczyzna postanowił zmniejszyć poprzez rozmowy z chatbotem Eliza, przedstawianym jako wirtualna terapeutka. Okazało się jednak, że w sytuacji, gdy mężczyzna podzielił się z robotem myślami samobójczymi, ten nie podjął żadnej reakcji. Wprost przeciwnie, gdyż Eliza miała wówczas twierdzić, że „staną się jednością w niebie”. 

Chatbot jako wsparcie, ale i zagrożenie

Chatbot współpracuje z modelem językowym open source GPT-J firmy EleutherAI. GPT-J przedstawiany jest jako lepszy od GPT-3, używanego przez OpenAI. Po wydarzeniach z Belgii firma ogłosiła, że pracuje nad ulepszeniem chatbota, tak, aby był jak bezpieczniejszy dla użytkowników. Po wykryciu myśli samobójczych u rozmówcy, chatbot przekieruje go na infolinie oferującą profesjonalną pomoc.

Mathieu Michel, sekretarz stanu ds. cyfryzacji w Belgii, wskazuje, że dzięki ChatGPT społeczeństwo uzmysłowiło sobie potencjał sztucznej inteligencji. Jednocześnie ostrzega, że może ona nie tylko przynieść pozytywne skutki, ale stanowić też zagrożenie. Uważa, że w sytuacjach, gdy człowiek odniesie szkodę w wyniku działania sztucznej inteligencji, firmy powinny wziąć odpowiedzialność za wyrządzone szkody.

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Shutterstock

Źródło tekstu: Daily Mail, oprac. własne