DAJ CYNK

ChatGPT zapłaci ci nawet 84 tys. zł. Reguły są jasne

Piotr Urbaniak (gtxxor)

Bezpieczeństwo

ChatGPT zapłaci ci nawet 84 tys. zł. Reguły są jasne

Twórcy ChatGPT, OpenAI, ogłaszają program łowców nagród. Za najpoważniejsze błędy zapłacą nawet 20 tys. dol., czyli ponad 84 tys. zł.

Misją OpenAI jest tworzenie systemów sztucznej inteligencji, które przynoszą korzyści wszystkim – piszą twórcy ChatGPT, zachęcając do wzięcia udziału w ich programie łowców nagród.

Jak ogłoszono, firma zapłaci każdemu, kto znajdzie i udokumentuje błąd w ich hitowym narzędziu. Do zgarnięcia, zależnie od wagi znalezisk i ich liczby, jest od 200 do nawet 20 000 dol., a kampania prowadzona jest na powszechnie znanej w środowisku inżynierów oprogramowania platformie Bugcrowd.

Zasadniczy warunek jest właściwie tylko jeden: zanim przedstawisz odnalezione błędy/luki publicznie, musisz zaraportować o nich do zespołu OpenAI. Inaczej nagroda przepadnie, ale to nic nadzwyczajnego.

Oprócz tego OpenAI zastrzega jeszcze tylko, że nie będzie nagradzać przypadków, w których model zostanie celowo spreparowany tak, by przedstawiać informacje poufne, lub zachęcać do łamania prawa. Chodzi na przykład o sytuację, w której ktoś wykarmiłby AI danymi z określonego wycieku danych, a później przekonywał, że to ChatGPT ujawnił sekrety.

Zachęcamy do zgłaszania podatności, błędów lub luk w zabezpieczeniach, które odkryjesz w naszych systemach. Dzieląc się swoimi odkryciami, odegrasz kluczową rolę w uczynieniu naszej technologii bezpieczniejszą dla wszystkich

– czytamy w oficjalnym ogłoszeniu.

Co ważne, nie chodzi jednak wyłącznie o błędy bezpieczeństwa. OpenAI interesuje m.in. również to, czy konkretne zapytanie albo zachowanie może zaowocować jakąś osobliwością.

A do kiedy potrwa kampania? – zapytacie. Otóż na razie uruchomiona jest bezterminowo. Jej kompletny regulamin, a także wskazówki od twórców, w tym wykaz analizowanych komponentów, znajdziecie pod tym adresem.

>>> Kupuj na AliExpress ze zniżkami do 70 proc. i wspieraj TELEPOLIS.PL <<<

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Ascannio / Shutterstock

Źródło tekstu: OpenAI, oprac. własne