DAJ CYNK

Nowa usługa Google uczy, jak się utopić. I nie, to nie żart

Mieszko Zagańczyk

Aplikacje

Google uczy, jak rozbić samolot. I nie, to nie żart

Google Bard to chatbot AI, który ma konkurować z popularnym ChatGPT. Po wpadce podczas pierwszego pokazu w lutym jest coraz gorzej. Bard jest pełen błędów, wręcz niebezpieczny dla życia, ale Google i tak dąży do jego premiery za wszelką cenę.

Fenomen chatbota ChatGPT przyspieszył rozwój popularnych usług AI, a dla Google ta część rynku stała się szczególnie ważna – odkąd ChatGPT trafił pod skrzydła Microsoftu, gigantowi z Mountain View grunt usuwa się spod nóg.

Żeby odzyskać traconą pozycję, Google rozwija swojego własnego chatbota AI o nazwie Bard. Wewnętrzne testy Google, podczas których zebrano opinie pracowników firmy, ujawnia, że Bard jest pełen błędów, wręcz niebezpieczny dla zdrowia i życia. Firma i tak chce go jednak wdrożyć w pogoni za zyskami i wzrostami.

Pierwszy sygnał, że coś jest nie tak, pojawił się podczas premierowego pokazu wczesnej wersji Barda w lutym. Wtedy chatbot Google publicznie podał fałszywą informację o teleskopie Webba. Niestety, od tego czasu jest jeszcze gorzej. 

Zobacz: ChatGPT zapłaci ci nawet 84 tys. zł. Reguły są jasne

Google Bard jest „godny pożałowania” i „gorszy niż bezużyteczny”

Bloomberg dotarł do wyników wewnętrznych testów Barda, prowadzonych przez zespół Google’a w marcu, porozmawiał też z 18 obecnymi i byłymi pracownikami firmy. Wyniki są zatrważające. 

Pracownicy Google wytknęli Bardowi szereg błędów. Opisując go, używają określeń jak  „godny pożałowania”, „gorszy niż bezużyteczny” czy „patologiczny kłamca”.

Padają też konkretne przykłady. Gdy jeden z pracowników pytał Barda o sugestie dotyczące lądowania samolotu, chatbot regularnie udzielał porad, które doprowadziłyby do katastrofy. Inny pytał się o tematy dotyczące nurkowania, a Bard udzielał mu odpowiedzi, które mogłyby doprowadzić do poważnych obrażeń lub śmierci.

Podobnych opinii było więcej, ale Google tłumaczy te błędy beitowym charakterem swojego chatbota i przekonuje, że na etapie rozwoju takie wpadki są naturalne. Według pracowników kierownictwo zdecydowało, że dopóki nazywa nowe produkty „eksperymentami”, użytkownicy wybaczą ich niedociągnięcia.

Jak jednak zwraca uwagę Bloomberg, z rozmów z pracownikami wynika, że Google nie da sobie czasu na dopracowanie chatbota i chce go uruchomić za wszelką cenę, nie dbając o etykę i wiarygodność swojego produktu. Gigant z Mountain View ma potężną motywację – traci ważną część rynku, patrząc jak inni tworzą nowe trendy i ciągną z tego zyski. Google określił ten stan jako „kod czerwony”.

Jak podaje Bloomberg, pracownicy działu Google zajmującego się kwestiami bezpieczeństwa i etyką nowych produktów usłyszeli, że mają nie przeszkadzać w rozwoju Barda ani nie próbowali utrudniać rozwoju jakiegokolwiek z narzędzi AI.

W odpowiedzi na pytania Bloomberga Google powiedział, że odpowiedzialna sztuczna inteligencja pozostaje najwyższym priorytetem w firmie. Przekonuje też, że inwestuje w zespoły odpowiedzialne nad wdrożeniem do technologii zasad Google dotyczących AI. Przeczy to jednak faktom – w styczniu podczas masowej fali zwolnień, zespół pracujący nad odpowiedzialną, etyczną stroną AI stracił trzech pracowników, w tym jednego z szefów. 

Zobacz: Google w panice. Decyzja Samsunga to początek domina, w tle ChatGPT
Zobacz: Czego boi się szef Google? Tak, zgadłeś

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Shutterstock

Źródło tekstu: Bloomberg