DAJ CYNK

Jak zdemaskować sztuczną inteligencję? Wystarczy drobnostka

Karolina Mirosz (mkina)

Foto

Jak zdemaskować sztuczną inteligencję? Wystarczy drobnostka

Obrazy generowane przez sztuczną inteligencję są coraz częstsze w mediach społecznościowych. Mają jednak jeden mankament – dłonie postaci.

Sztuczna inteligencja coraz częściej wkracza w nasze codzienne życie. W związku z wszechobecnymi treściami generowanymi przez AI, ważna staje się umiejętność odróżniania treści generowanych przez sztuczną inteligencję od tych, które są dziełem człowieka.

W przypadku tekstów różne firmy pracują nad rozwiązaniem problemu. Istnieją również specjalne programy dostępne online, które specjalizują się w wykrywaniu fałszywych zdjęć generowanych przez sztuczną inteligencję. Jest jednak sposób prostszego poradzenia sobie z wykrywaniem zdjęć generowanych. Jak wskazują specjaliści, w celu ocenienia, czy zdjęcia są dziełem fotografa czy AI, wystarczy przyjrzeć się dłoniom postaci.

Znani ludzie wytworem sztucznej inteligencji

Sztuczna inteligencja wytwarza współcześnie bardzo wiarygodne zdjęcia. Najbardziej znanymi fotografiami, na które dało się nabrać wiele osób są zdjęcia z aresztowania Donalda Trumpa, Marka Zuckerberga na wybiegu podczas pokazu mody oraz papieża Franciszka w grubej, białej kurtce.

W zdjęciach wytworzonych z użyciem sztucznej inteligencji można znaleźć jednak pewne mankamenty. Jeśli masz wątpliwości co do autentyczności danego zdjęcia, pierwszym krokiem w celu oceny jego prawdziwości może być obserwacja rąk ludzi – radzą eksperci. Dowodzą tego wymienione wcześniej zdjęcia papieża Franciszka. Na jednym ze zdjęć widoczna jest niedokładność w odtworzeniu właśnie rąk.

Dłonie jako problematyczna część ciała

Powodem niedokładnego odwzorowywania rąk jest rodzaj danych, którymi AI była karmiona. Najczęściej obrazy i zdjęcia przedstawiające ludzi skupiają się na uwiecznieniu twarzy lub sylwetki. Dłonie są mało widoczne, zaciemnione albo schowane. Dotyczy to zwłaszcza fotografii grupowych.

Amelia Winger-Bearskin, profesor sztuki i sztucznej inteligencji na Uniwersytecie we Florydzie, wskazuje, że na obrazach, z których sztuczna inteligencja może czerpać dane, ręce są często niekompletne. Na fotografiach ludzie nierzadko trzymają jakiś przedmiot, albo wykonują nienaturalne gesty. Do tego dochodzi też kwestia rękawów. W rezultacie, dążąc do perfekcyjnego odtworzenia dłoni, AI musiałaby otrzymać bardzo ściśle wyselekcjonowany zbiór danych.

Obrazy generowane przez sztuczną inteligencję są coraz częstsze. Natrafić na nie można zwłaszcza w mediach społecznościowych, gdzie są rozpowszechniane z uwiarygadniającymi opisami. Sposobem na rozpoznanie fałszywych informacji mogą więc być zniekształcone dłonie, przynajmniej dopóki politycy nie wypracują rozwiązań wymuszających informowanie o braku autentyczności publikowanych fotografii.

Chcesz być na bieżąco? Obserwuj nas na Google News

Źródło zdjęć: Shutterstock

Źródło tekstu: www.presse-citron.net