Po 5 latach mówię papa Apple. Było wygodnie, ale z problemami

Układy ARM Apple M1 były rewolucją, która zmieniła rynek raz na zawsze. Jednak da się robić poważne, komputerowe rzeczy z użyciem architektury procesorów kojarzonej do tej pory głównie z telefonami. Nie udało się to w tej skali nikomu, ale świat nie stoi w miejscu i czas iść dalej.

Lech Okoń (LuiN)
24
Udostępnij na fb
Udostępnij na X
Po 5 latach mówię papa Apple. Było wygodnie, ale z problemami

Trochę ponad 5 lat temu Apple zatrząsnął rynkiem

Zamiast wielkiego rozdzielenia składowych systemu i architektury x86, Apple wybrał własną ścieżkę. M1 integruje w sobie procesor CPU, GPU, pamięć RAM, kontrolery I/O i inne komponenty, co minimalizuje opóźnienia w wymianie danych między podzespołami.  Dodatkowym atutem było też zastosowanie procesu technologicznego 5 nm, wyprzedzającego Intela o lata świetlne.

Dalsza część tekstu pod wideo

I chyba największym zaskoczeniem dla wszystkich był fakt, że jesienna konferencja Apple’a, pomimo obiecywania cudów na kiju, okazała się w 100% prawdą. Obietnice Apple’a miały pokrycie do tego stopnia, że nawet aplikacje emulowane na M1 z architektury x86 działały wydajniej niż na procesorach Intela. No i nie uwierzyłem w to wszystko jedynie ja, przez co na dostawę maka mini czekałem ponad 2 miesiące.

Początkowe potknięcia w postaci problemów z łącznością Bluetooth szybko zostały wybaczone, bo oto komputer wielkości ułamka typowego peceta pracował wydajniej od wszystkiego, z czym miałem do czynienia, a nawet zaawansowany montaż filmów 4K nie powodował uruchomienia turbiny wentylatora. Przez pierwsze tygodnie musiałem wręcz ciągle włączać jakąś muzykę, bo absolutna cisza, jaką zaoferował komputer Apple’a, potrafiła przytłaczać.

Docenić należy też zaskakującą stabilność platformy, dość powiedzieć, że system przywróciłem w komputerze dopiero po 4 latach, bardziej dla uporządkowania plików niż z jakiejś konieczności. Systemy Mac nie wymagają też restartów, pracując nieprzerwanie miesiącami na jednej sesji. Obok montażu wideo, skrzydeł dostały też Lightroom i Photoshop. A szczególnie ten pierwszy w absurdalnie szybki sposób zarządzający biblioteką zdjęć liczącą blisko 200 tys. plików.

Od kilku tygodni główny komputer na Windowsa. Mam dość tracenia plików

Archiwizacja plików to dla mnie bardzo ważna rzecz i zarazem koszmar na maku. Finder kompletnie nie radzi sobie z kopiowaniem olbrzymich katalogów z plikami i jeszcze mógłbym mu to wybaczyć, gdyby nie fakt, że potrafi pokazać, że wszystko jest ok, liczba plików i ich pojemność zgadzają się w miejscu docelowym. Dopiero po czasie odkrywamy, że z backupu wypadł cały katalog dokumentów czy np. wadliwy manager plików usunął mi zdjęcia z 3,5 roku.

Po 5 latach mówię papa Apple. Było wygodnie, ale z problemami

Tak jak pisałem wyżej, archiwizacja plików jest dla mnie ważnym i właściwie ciągłym procesem. Korzystam z licznych dysków USB, macierzy SSD czy NAS-ów, czasem jednak trzeba zrobić jakiś wieloetapowy proces, jak np. wymiana dysku do backupu na większy i zaczynają się problemy. Np. szykując się do integracji 2 bibliotek Lightrooma, procesu, który miał trwać 1,5 godziny, system Apple’a do tego stopnia nieudolnie zarządzał plikami, że przegrzał dysk SSD i przez dobę myślałem, że nie odzyskam z niego niczego. Generalnie, na im większych zbiorach plików pracujesz, tym coraz bardziej tęsknisz do Windowsa.

Zdecydowaną większość utraconych plików w wyniku niedociągnięć platformy Apple’a udało mi się odzyskać. Raz z nieuwagi oznaczało to jednak niskopoziomowe odzyskiwanie danych z nienadpisanego dysku. Za późno zorientowałem się, że coś, co miało być backupem, ostatecznie usunęło z dysku cenne katalogi. I ja wiem, że zaraz zlecą się miłośnicy makówek i zaczną mówić o tym, że na wszystko jest aplikacja, z Rsync na czele, ale dlaczego pomimo nieudanego procesu kopiowania plików system twierdzi, że wszystko jest OK? To nie jest ani bezpieczne, ani nie powinno być normą. Dodam przy tym, że powyższe problemy odnotowałem zarówno na służącym od lat systemie, jak i potem na świeżej instalacji.

NUC zastąpił Maka Mini

Jeśli ktoś myśli, że Mac Mini to jakaś autorska konstrukcja na wyłączność Apple’a, to jest w błędzie. Na długo przed pierwszym Mini na rynku było zatrzęsienie tej wielkości i mniejszych komputerów. Kochają je korporacje czy branża digital signage. Te malutkie komputery można zamontować za monitorem, uzyskując dzięki temu wyjątkowo estetyczną przestrzeń roboczą, bez straszących pudeł i plątaniny przewodów.

I właśnie do takiej pracy biurowej wylądował u mnie asusowski NUC. Przed laty Intel sam produkował serię komputerów NUC, teraz przejął je Asus i odgraża się, że obok Intela można takie maleństwa z powodzeniem postawić też na AMD. Pomimo maleńkich rozmiarów, sprzęt potrafi oczarować mnogością portów i wyjść wideo. Nie zamyka też użytkownika w złotej klatce – możesz w prosty i tani sposób wymienić czy dołożyć dysk SSD, nic nie stoi też na przeszkodzie, by rozbudować pamięć RAM. Ba, w NUC-u Asusa dostęp do tych podzespołów nie wymaga nawet śrubokręta.

Po 5 latach mówię papa Apple. Było wygodnie, ale z problemami

Oznacza to, że możemy zaoszczędzić na początkowej specyfikacji, a gdy ta będzie jednak za słaba, nie musimy sprzedawać komputera, tylko możemy go prosto i tanio podrasować. W przypadku komputera Apple’a nie wyobrażałem sobie pracy bez przynajmniej 16 GB pamięci RAM i dysku 1 TB, co oznaczało tysiące złotych dopłaty i wywindowanie ceny 5 lat temu do blisko 7000 zł. I było to do czasu dobre, jednak każdy port USB był u mnie wiecznie zajęty, bo trzeba było podłączyć zewnętrzne dyski i macierze.

Urokliwe małe pudełko otoczyło się plątaniną kabli i dodatkowych „pudełek” z dyskami, hubów USB, czytników etc. Niemal wszystko to mogło znaleźć się we wnętrzu „normalnego” peceta, nie licząc kilku dysków backupowych. Z czasem jednak na zewnętrzne dyski zaczęły też wędrować biblioteki plików roboczych, no i oprócz tego, że było to niezbyt estetyczne, to na dokładkę stało się niezbyt bezpieczne.

Wracając jednak do NUC-a. Komputer po kilku tygodniach okazał się bardzo godnym kompanem do pracy biurowej, ale też podczas obróbki zdjęć w Photoshopie i Lightroomie. Po przewadze 5-letniego już Maca Mini nie było śladu, ale pamiętajmy, że najnowsza generacja sprzętu jest ponoć 2x wydajniejsza. Co jednak trzeba oddać makówce, miniPC z Windowsem nie jest bezgłośny przez 100% mojej pracy, tylko tak 90-95%, w zależności od złożoności zadań i ewentualnych instalacji programów, które nie wiedzieć czemu są dla Windowsa odwiecznym atakiem paniki.

Czego brakuje mi po przejściu na PC?

Przede wszystkim Spootlighta, czyli inteligentnej wyszukiwarki plików i aplikacji wywoływanej przez przyciśnięcie przycisków Command i Spacja. To uzależniające – zero klikania, wszystko jest pod ręką po kilku naciśnięciach przycisków. Ba, można tam też od ręki wprowadzać proste równania matematyczne, bez włączania kalkulatora. Przez ułamek sekundy brakowało mi skrótów do zrzutów ekranu, ale szybko zastąpiły je te windowsowe. Brakuje mi bardzo aplikacji Final Cut Pro X do montażu wideo, która oferuje niesamowitą prostotę obsługi i ekstremalną wydajność, ale już witam się ponownie z DaVinci Resolve.

Przez bite 5 lat marudziłem też na brak na makówkach aplikacji FastStone do błyskawicznego przeglądania plików zdjęć (w tym RAW) na pełnym ekranie, szybkiego ich organizowania i otwierania w Photoshopie. Po licznych aktualizacjach systemowej przeglądarki zdjęć zaczęło się z niej korzystać całkiem normalnie, ale powrót do darmowego FastStone zaliczam zdecydowanie na plus. Brakuje mi też trochę prostego instalowania aplikacji, gdzie na makach to w większości przypadków jedynie przeciągnięcie pojedynczej ikony aplikacji. No i jeszcze (choć coraz mniej) odczuwam brak przycisku TouchID na klawiaturze, którym autoryzowałem wszystko na Mac OS.

Chyba jednak najbardziej bałem się braku funkcji AirDrop. Używam jej do błyskawicznego przesyłania plików wideo z telefonu na komputer, celem późniejszego montażu. Rzecz jasna tym telefonem musi być Apple, a komputerem, no nie zgadniecie, też Apple. Już jednak podczas instalacji Windowsa system zapytał, czy nie chcę z nim sparować telefonu z Androidem i… nie jest to może idealnie to samo, ale w znacznej mierze czuję się kontent.

Wielu osobom trudno jest też przechodzić między klawiaturami Mac – PC, w których Ctrl/Cmd jest w innym miejscu. Sam takiego problemu nie miałem, pomyłki zdarzały się może przez 2 dni. Przy czym zaznaczę, że to nie tak, że korzystałem przez 5 lat wyłącznie z Maka – zawsze gdzieś był dodatkowy pecet, ale jako drugi komputer. Teraz sytuacja się odwraca, nie pozbywam się wciąż sprawnego MacBooka Air z M2, ale będzie on dopiero trzecim komputerem w użyciu, wyłącznie na wyjazdach.

1, 2 i dopiero Mac

Nie, malutki NUC nie będzie jedynym pecetem codziennego użytkowania. Wszystko to za sprawą dynamicznego rozwoju uczenia maszynowego zwanego sztuczną inteligencją. Do tego typu obliczeń wykorzystywane są układy GPU i dedykowane chipy NPU. Choćbym jednak wymaksował specyfikację nowego Mac Mini, Apple nie jest w stanie dogonić wydajności układów graficznych Nvidii, a już na pewno nie w relacji wydajności do ceny. Ok, kupując Mac Studio w maksymalnej specyfikacji z 512 GB zunifikowanego RAM-u i 80-rdzeniowym GPU można na nim pomieścić modele językowe o wielkości nawet ponad 600 mld parametrów, ale rozmawiamy o komputerze kosztującym blisko 50 tys. zł z dyskiem 1 TB i nawet 71,5 tys. zł w wersji z dyskiem 16 TB. Do eksperymentów z AI i zaglądania ukradkiem w przyszłość komputerów jest to zdecydowanie za drogo.

Tymczasem tzw. destylaty dużych modeli językowych to pestka nawet dla mobilnych układów graficznych Nvidia. Prywatny domowy czat od Nvidia, podobny do GPT można sobie pobrać ze strony producenta. A korzystając z takich agregatorów jak Ollama czy Pinokio bezpłatnie bawić się nie tylko tekstem, ale też generowaniem wysokiej jakości grafiki i wideo czy klonowaniem głosów lektorów.

Po 5 latach mówię papa Apple. Było wygodnie, ale z problemami

Chociaż producenci procesorów chwalą się mocą obliczeniową na poziomie 38 (Apple) czy 60 TOPS (AMD) w komputerach mobilnych, prawdziwa zabawa zaczyna się dopiero przy wykorzystaniu karty graficznej stworzonej z pozoru tylko do gier. Wartość TOPS podawana przez Nvidia dla 5070 Ti to 1406, a taki RTX 5090 to już astronomiczne 3352 TOPS. Do tego dołóżmy 32 GB szybkich pamięci GDDR7 i z łatwością pokonamy niejeden dociążony użytkownikami płatny serwer AI. Zresztą, nie bez powodu serwerownie sztucznej inteligencji zasilane są przez akceleratory Nvidii i AMD, a nie rozwiązania Apple’a.

Reasumując, obok energooszczędnego NUC-a do codziennej pracy biurowej, stanął komputer do eksperymentów z AI. Efekty tych eksperymentów to temat na kolejny artykuł. Tymczasem zaś – dzień dobry Windowsie, nawet nie wiesz, jak bardzo tęskniłem. Do makówki nie ma powrotu — do odwołania.