ChatGPT coraz mniej bezpieczny. Potwierdza to były pracownik
Wygląda na to, że lider na rynku AI lubi wycierać sobie usta hasłami o bezpieczeństwie, ale rzeczywistość wygląda inaczej.

Amerykańskie OpenAI od dłuższego czasu konsekwentnie realizuje swoją ambitną wizję w dziedzinie sztucznej inteligencji, jednocześnie mierząc się z rosnącą konkurencją ze strony chińskiego DeepSeek. W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze.
OpenAI mówi o bezpieczeństwie, ale niekoniecznie je zapewnia
Niedawno OpenAI opublikowało dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań. Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności.



Publikacja jednak wzbudziła kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się tematyką bezpieczeństwa. Głośno wypowiedział się Miles Brundage, dawny szef działu polityki badawczej OpenAI, który zarzucił firmie "przepisywanie historii". Twierdzi on, że firma wcale nie wyolbrzymiała zagrożeń podczas udostępniania tego modelu i że podejście do ostrożności nie było nadmierne, lecz odpowiedzialne.
The bulk of this post is good + I applaud the folks who work on the substantive work it discusses.
— Miles Brundage (@Miles_Brundage) March 5, 2025
But I'm pretty annoyed/concerned by the "AGI in many steps rather than one giant leap" section, which rewrites the history of GPT-2 in a concerning way. https://t.co/IQOdKczJeT
Zdaniem Milesa Brundage’a nowe stanowisko OpenAI może sugerować, że wcześniejsze działania były zbyt zachowawcze. Według niego, firma próbuje teraz przedstawić przeszłe wydarzenia jako dowód ciągłego, rzekomo nadmiernie ostrożnego podejścia - co może umniejszać realnym wysiłkom, jakie rzeczywiście były podejmowane w kwestii bezpieczeństwa na wcześniejszych etapach rozwoju AI oraz LLM.
Krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach. Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami.