W ostatnich miesiącach możemy być świadkami ogromnej popularyzacji rozwiązań opartych na sztucznej inteligencji. Jak grzyby po deszczu wyrastają nowe aplikacje i strony internetowe bazujące na AI. Mowa zapewne o nowym kierunku w świecie technologii na najbliższe lata. Tym samym coraz więcej firm zadaje sobie pytanie "Czy warto wdrożyć u nas sztuczną inteligencję?". Dzisiaj odpowiadamy na to i wiele więcej pytań.
Po dekadach rozwoju za zamkniętymi drzwiami sztuczna inteligencja (AI) stała się popularnym tematem w publicznym dyskursie. Możliwości usług takich jak ChatGPT czy DALL-E zainteresowały praktycznie wszystkich. AI ma jednak znacznie więcej do zaoferowania niż pisanie esejów na studia czy generowanie niesamowitej grafiki. Może mieć bowiem znaczny wpływ na biznes wzmacniając możliwości firm poprzez rozpoznawanie obrazów, przetwarzanie języków naturalnych czy systemy rekomendowania produktów. Dyrektorzy odpowiedzialni za infrastrukturę w firmach muszą teraz podjąć decyzję, jakie podejście przyjąć w rozwoju własnych aplikacji bazujących na AI, aby było to efektywne.
Potencjalne wykorzystanie AI jest bardzo szerokie. W sektorze motoryzacyjnym rozpoznawanie obrazów przez automatyczne systemy w samochodach umożliwia m.in. wykrywanie pieszych na drodze. Przetwarzanie języka naturalnego może z kolei uprościć obsługę pojazdu. W przemyśle systemy wizyjne mogą monitorować jakość i sugerować działania z tym związane. W sklepach rozliczenia mogą też być szybsze dzięki automatycznemu rozpoznawaniu produktów i klientów. Usługi finansowe mogą wykrywać anomalie w transakcjach, aby przeciwdziałać oszustwom. Wreszcie firmy medyczne mogą zwiększyć szybkość i poprawić dokładność diagnozy dzięki AI. Każdy rodzaj firm może także poprawić jakość i zakres swoich badań oraz ułatwić dostęp do istotnych danych wewnętrznych.
Istnieją dwie fazy cyklu uczenia maszynowego: trening i wnioskowanie. Faza treningowa polega na przyswajaniu wielkich ilości danych i implementacji AI w celu rozpoznawania wzorców i modeli. To wymaga bardzo wydajnych serwerów wyposażonych w najlepsze procesory i akceleratory, jak 4 generacja AMD EPYC i AMD Instinct. Faza wnioskowania polega na zastosowaniu wypracowanego modelu na rzeczywistych danych w celu określenia odpowiedniego działania. To może wymagać podobnego sprzętu, jak poprzedni etap, lub polegać na systemach wbudowanych, jak AMD Versal czy Zynq.
Efektywna aplikacja AI potrzebuje spójnego modelu, który można uzyskać tylko z bogatego zbioru danych. Choć gotowe narzędzia znacznie się poprawiły dzięki treningowi na bazie publicznie lub komercyjnie pozyskanych danych, to najbardziej wartościowe dane dla organizacji znajdują się w jej wnętrzu. Dlatego też rozwój wewnętrznych aplikacji jest konieczny i kluczowe jest korzystanie z najbardziej efektywnego ekosystemu sprzętu i oprogramowania.
Zobacz: AMD rozbił hegemonię Intela, teraz idzie po NVIDIA
Aplikacja bazująca na AI może zapewnić dokładniejsze raporty jeśli modele tworzone są w oparciu o wewnętrzne dane firmy. To umożliwi dostarczenie rezultatów, które lepiej przystają do oczekiwań w firmie. Im jednak większa powszechność AI tym połączenie rozwiązań bazujących na publicznych usługach SaaS (Software as a Service) i wewnętrznych aplikacjach może dać lepsze rezultaty. Kluczowe jest tu tylko zachowanie spójności w dostępie do danych używanych do treningu i wnioskowania. AMD Unified Inference Frontend (UIF) zapewnia jednolitą ścieżkę dostępu do standardów branżowych w dziedzinie AI, czyli np. Tensor Flow, PyTorch, WinML czy ONNX (Open Neural Network Exchange). One z kolei mogą być łatwo integrowane z systemami na bazie procesorów AMD EPYC, akceleratorów AMD Instinct z oprogramowaniem ROCm czy platform Vitis AI dla adaptacyjnych procesorów AMD Versal czy Zynq.
W czasie przygotowywania strategii inwestycji w aplikacje AI dyrektorzy muszą mieć pewność, że wydają pieniądze firmy w jak najbardziej efektywny sposób. Poprawa efektywności procesów, produktywność i wytrzymałość infrastruktury IT to podstawowe wyznaczniki tych korzyści. Konieczny jest też wybór jak najlepszej architektury rozwiązania, które da się szybko zaimplementować. To dlatego tak ważne jest mieć wybór różnych rozwiązań AI. Dyrektorzy będą także potrzebować oceniać wpływ aplikacji w toku cyklu jej życia, aby mieć pewność, że można ją bezpiecznie rozwijać, i że jest zgodna z rządowymi regulacjami dot. prywatności oraz wytycznymi takimi jak NIST. Wynika to z tego, że modele AI będą bazować na danych o wysokiej wrażliwości czy należących do kogoś, czy też jedno i drugie, a zatem poufność musi być chroniona tak, jak własność intelektualna. Kwestia kosztów związanych z tymi wszystkimi czynnikami sprawia, że dyrektorzy powinni inwestować w te przestrzenie, gdzie korzyści są pewne, długotrwałe i przekładają się na gruntowny wzrost produktywności.
Zobacz: Strach ma wielkie oczy, a artyści to debile
Niestety algorytmy leżące u podstaw modeli AI są zarówno wymagające czasowo, jak i drogie w budowie. Zależą one od dostępności coraz większych zbiorów danych oraz architektów AI, którzy mogą pracować na szerokim spektrum rozmaitych przypadków. To jest kolejny argument za korzystaniem ze spójnej i zunifikowanej platformy. Liczba parametrów dla modeli zwiększyła się od tysięcy do setek miliardów w ciągu dekady, co jest oszałamiającym, wykładniczym wzrostem. Trenowanie modelu z tak dużą liczbą parametrów wymaga odpowiednio dużego zbioru danych oraz odpowiedniego zarządzania nim. Fundamentalnym jest także chronienie danych przed jednostronnością, ponieważ może to wypaczyć wyniki. To właśnie ten problem spotkał się z regularną krytyką różnych implementacji AI trenowanych na publicznie dostępnych danych. Z kolei korygowanie tego wymaga dużego wysiłku. To wszystko potwierdza, że trenowanie modelu wymaga czasu i wydatków.
Najważniejsze osoby podejmujące decyzje w zakresie strategii inwestycji w firmowe aplikacje bazujące na AI to zespół dyrektorów. Muszą oni określić obszar, w jakim potrzebne jest AI, spisać potencjalne przypadki użycia, skategoryzować poziomy ryzyka, a następnie ocenić to, jak dojrzałego rozwiązania AI użyć wobec tak określonych wymagań. Jeśli takie rozwiązanie jest już dobrze sprawdzone i ma szeroką funkcjonalność, to niekoniecznie musi być potrzeba tworzenia specjalnej i od podstaw dostosowanej aplikacji. Tak czy inaczej wykorzystanie istniejących platform takich jak AMD UIF i zoptymalizowanych bibliotek jak AMD ZenDNN czy kompilatorów AMD ROCm HIP zapewnia dużą elastyczność i korzyści wypróbowanego i przetestowanego kodu, który można dostosować do specyfiki firmy. Tak powstała platforma będzie dobrze odpowiadać poziomowi inwestycji.
AI jest wciąż we wczesnej fazie wdrażania i ma za sobą już kilka generacji wzlotów i upadków. Jednak dzisiejsza AI obiecuje być początkiem etapu, który będzie polegał na ekstremalnie dużych modelach i zestawach danych. Ta faza rozwiązań AI bazująca na „big data” rozwija się teraz niezwykle dynamicznie czy to na poziomie wewnętrznie rozwijanych aplikacji czy to rozwiązań dostarczanych branżowo. To naczynia połączone. W miarę jak coraz większe wykorzystanie AI w biznesie przekłada się na coraz lepsze aplikacje, tak też powstają coraz lepsze struktury przekładające się na lepszą efektywność procesorów biznesowych. To z kolei przyspiesza jeszcze bardziej rozwój aplikacji zwiększając korzyści i zmniejszając koszty wdrożenia. W momencie, gdy korzyści przeważą nad kosztami w danej organizacji, to wtedy aplikacje AI powinny się pojawić w planach każdego dyrektora.
Tekst powstał na bazie pracy Matta Foley'a, dyrektora ds. inżynierii wdrożeń w regionie EMEA w AMD.
Źródło zdjęć: Telepolis / Lech Okoń, Shutterstock
Źródło tekstu: AMD