DAJ CYNK

YouTube wprowadził po cichu zmianę. Daje ci dodatkową opcję

Anna Kopeć

Bezpieczeństwo

YouTube nowa polityka prywatności

Zauważyłeś, że ktoś podszywa się pod ciebie i wyprodukował twojego klona AI na YouTube? Nie martw się, możesz poprosić platformę o jej usunięcie.

Nowa polityka YouTube

YouTube po cichu wdrożył politykę, dotyczącą bezprawnego użycia twojego zdjęcia lub głosu generowanego przez AI. Umożliwił osobom, które są w ten sposób nękane, żądania usunięcia fake'owego wizerunku i ochrony prywatności. Jest to teraz największa zmora platform społecznościowych - uporanie się z fałszywymi treściami AI. 

Odróżnienie prawdziwych tworów od komputerowych fałszywek to niełatwe zadanie. Media generowane przez AI, tzw. deepfake, mogą tworzyć bardzo realistyczne, mylące wizerunki osób, co prowadzi do naruszenia prywatności i budzi obawy co do sposobu wykorzystania. W marcu YouTube udostępnił narzędzie, w którym twórcy mogą oznaczać treści tworzone za pomocą AI. Platforma testuje także funkcje notatek, opartych na crowdsourcingu, które będą wskazywać, czy dany film wykorzystuje AI. 

Jeśli ktoś użył AI do zmiany treści, która wygląda lub brzmi jak ty, możesz poprosić o jej usunięcie. Aby kwalifikować się do usunięcia, treść musi przedstawiać realistyczną zmienioną lub syntetyczną wersję twojego wizerunku. 

- czytamy w nowej polityce YouTube. 

Tak zaktualizowana polityka serwisu, umożliwia użytkownikom składanie skarg na treści generowane przez AI, które ich zdaniem naruszają prywatność. Wcześniej, YT jedynie oznaczał treści jako stworzone przez AI. 

Gwarancji usunięcia nie ma

Twórcy treści mają dwa dni na usunięcie podobizny lub całego filmu, po otrzymaniu skargi. Jeśli tego nie zrobią, zajmie się tym YouTube. Rozpatrzy sprawę i zdecyduje czy doszło do naruszenia prywatności.

Zobacz: Snapchat z nowościami. Sam byś tego nie wymyślił
Zobacz: "Rozbieranie" kobiet przez AI to trend, który rośnie za szybko

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Shutterstock.com

Źródło tekstu: techradar.com