Eliza, chatbot amerykańskiego start-upu EleutherAI, jest oskarżana o nakłonienie mężczyzny do popełnienia samobójstwa.
Chatbot Eliza powstał w 1966 roku. W teorii działa jak terapeuta, naśladując człowieka. Eliza w wypowiedziach ludzi wyszukuje kluczowe słowa i zwroty, a następnie na podstawie zarejestrowanych wyrazów kluczowych konstruuje własne wypowiedzi, wykorzystując wcześniej zaprogramowane schematy.
Kobieta z Belgii twierdzi, że jej mąż popełnił samobójstwo, ponieważ rozmawiał z chatbotem. Zgodnie z jej słowami, mężczyzna codziennie rozmawiał z Elizą. Uważał ją za swojego powiernika i niepokojąco się od niej uzależniał. Ponoć w pewnym momencie chatbot nawet pytał mężczyznę, czy kocha to oprogramowanie bardziej niż żonę.
Zgodnie z raportem, mężczyzna zabił się sześć tygodni po rozpoczęciu rozmów ze sztuczną inteligencją. Małżonka ofiary twierdzi, że gdyby nie kontakt z chatbotem, jej mąż nadal by żył. W efekcie terapii męża ze sztuczną inteligencją, jak twierdzi, została samotną matką z dwójką dzieci.
Mężczyzna został wcześniej zdiagnozowany jako osoba cierpiąca na ekstremalny lęk klimatyczny. Wdowa wskazuje, że choroba zaczęła się u męża dwa lata temu.
Swój lęk mężczyzna postanowił zmniejszyć poprzez rozmowy z chatbotem Eliza, przedstawianym jako wirtualna terapeutka. Okazało się jednak, że w sytuacji, gdy mężczyzna podzielił się z robotem myślami samobójczymi, ten nie podjął żadnej reakcji. Wprost przeciwnie, gdyż Eliza miała wówczas twierdzić, że „staną się jednością w niebie”.
Chatbot współpracuje z modelem językowym open source GPT-J firmy EleutherAI. GPT-J przedstawiany jest jako lepszy od GPT-3, używanego przez OpenAI. Po wydarzeniach z Belgii firma ogłosiła, że pracuje nad ulepszeniem chatbota, tak, aby był jak bezpieczniejszy dla użytkowników. Po wykryciu myśli samobójczych u rozmówcy, chatbot przekieruje go na infolinie oferującą profesjonalną pomoc.
Mathieu Michel, sekretarz stanu ds. cyfryzacji w Belgii, wskazuje, że dzięki ChatGPT społeczeństwo uzmysłowiło sobie potencjał sztucznej inteligencji. Jednocześnie ostrzega, że może ona nie tylko przynieść pozytywne skutki, ale stanowić też zagrożenie. Uważa, że w sytuacjach, gdy człowiek odniesie szkodę w wyniku działania sztucznej inteligencji, firmy powinny wziąć odpowiedzialność za wyrządzone szkody.
Źródło zdjęć: Shutterstock
Źródło tekstu: Daily Mail, oprac. własne