DAJ CYNK

Twórcy Stable Diffusion ustępują. Małe zwycięstwo artystów

Patryk Łobaza (BlackPrism)

Wydarzenia

Już teraz artyści będą mogli usunąć swoje obrazy z bazy danych Stability AI, firmy odpowiedzialnej za stworzenie i wyszkolenie sztucznej inteligencji Stable Diffusion.

W ostatnich miesiącach mogliśmy zobaczyć możliwości artystyczne sztucznej inteligencji. Podmioty odpowiedzialne za rozwój AI zaczęły udostępniać platformy, służące do tworzenia prac graficznych przez sztuczną inteligencję na zlecenie użytkowników. Niektóre z nich pozwalają tworzyć niesamowite dzieła sztuki na podstawie tekstu.

Jak to jednak bywa w przypadku sztucznej inteligencji, najpierw trzeba ją solidnie wyszkolić żeby stała się użyteczna. Twórcy AI korzystają z zasobów dostępnych w Internecie i rzadko kiedy pytają o zgodę właścicieli praw autorskich. Od początku artyści podchodzą sceptycznie do AI tworzących prace graficzne i nic dziwnego, w końcu jest to pewne zagrożenie dla ich kariery zarobkowej. Jednak teraz pojawiły się dodatkowe kontrowersje dotyczące praw autorskich

Twórcy AI utrzymują, że ich sztuczna inteligencja wyłącznie wzoruje się na pracach artystów, lecz niektóre dzieła są nie tylko łudząco podobne do twórczości oryginalnych autorów, lecz posiadają również ich podpis.

Artyści będą mogli usunąć swoje prace z bazy treningowej

Stability AI, twórcy Stable Diffusion planują pozwolić artystom na usunięcie swoich dzieł z treningowej bazy danych, z której korzysta sztuczna inteligencja w celach szkoleniowych. Odbędzie się to wraz z przyszłą premierą Stable Diffusion 3.0, choć nie podano dokładnie, na jakich zasadach miałoby się to odbywać i jak miałaby przebiegać weryfikacja praw autorskich. Wiadomo jednak, że w tym celu konieczne będzie stworzenie konta na platformie Have I Been Trained, wyszukanie obrazu i prośba o jego usunięcie.

Zobacz: Oto baterie przyszłości. Mogą działać czterokrotnie dłużej
Zobacz: Sensacja w Wielkopolsce, w tle szkielet

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Have I Been Trained / YouTube

Źródło tekstu: Ars Technica