27 września, 2024
Następna fala sztucznej inteligencji to urządzenia mobilne thumbnail
Biznes

Następna fala sztucznej inteligencji to urządzenia mobilne

Według Mitcha Liu, dyrektora generalnego Theta Labs, sztuczna inteligencja wychodzi poza ramy gigantów technologicznych, a złożone zadania obliczeniowe przejmują codzienne smartfony.”, — informuje: www.coindesk.com

AI ma nienasycony apetyt na zasoby. Pochłania ogromne ilości energii i danych, szacunki 460 terawatogodzin w 2022 r., które według prognoz mają gwałtownie wzrosnąć do 2026 r. do wartości od 620 do 1050 TWh. Jednak najbardziej żarłoczne zapotrzebowanie dotyczy obliczeń: mocy obliczeniowej, która napędza szkolenie złożonych modeli, analizę ogromnych zestawów danych i wykonywanie wniosków na dużą skalę.

Ten głód obliczeniowy zmienił wiele naszych krajobrazów zawodowych. W 2024 r. globalny rynek sztucznej inteligencji przekroczyło 184 miliardy dolarówa prognozy sugerują, że do 2030 r. może przekroczyć 800 mld USD – wartość porównywalną z obecnym PKB Polski. ChatGPT, najbardziej znany produkt branży, osiągnął 100 milionów aktywnych użytkowników w ciągu zaledwie dwóch miesięcy od premiery w listopadzie 2022 r.

Jednak w miarę jak produkty AI, takie jak ChatGPT, mnożą się i rosną, nasze postrzeganie sposobu działania AI szybko staje się nieaktualne. Popularny obraz AI – z rozległymi centrami danych, ogromnymi rachunkami za energię i kontrolą gigantów technologicznych – nie mówi już wszystkiego. Ten pogląd doprowadził wielu do przekonania, że ​​znaczący rozwój AI jest wyłączną domeną dobrze finansowanych korporacji i dużych firm technologicznych.

Pojawia się nowa wizja AI, która bierze pod uwagę niewykorzystany potencjał naszych kieszeni. To podejście ma na celu demokratyzację AI poprzez wykorzystanie zbiorowej mocy miliardów smartfonów na całym świecie. Nasze urządzenia mobilne spędzają godziny bezczynnie każdego dnia, a ich możliwości przetwarzania pozostają uśpione. Wykorzystując ten ogromny rezerwuar niewykorzystanej mocy obliczeniowej, moglibyśmy zmienić krajobraz AI. Zamiast polegać wyłącznie na scentralizowanej infrastrukturze korporacyjnej, rozwój AI mógłby być napędzany przez globalną sieć codziennych urządzeń.

Niewykorzystany potencjał

Smartfony i tablety stanowią ogromne, w dużej mierze niewykorzystane źródło globalnej mocy obliczeniowej. 1,21 miliarda jednostek Przewiduje się, że sam start sprzedaży nastąpi w 2024 r., ale prawdziwy potencjał oferowanych przez to wolnych mocy obliczeniowych jest trudny do obliczenia.

Inicjatywy takie jak Theta EdgeCloud dla urządzeń mobilnych mają na celu wykorzystanie tej rozproszonej sieci konsumenckich procesorów graficznych do obliczeń AI. Ta zmiana z obliczeń scentralizowanych na przetwarzanie brzegowe to ewolucja techniczna, która jest w stanie całkowicie zmienić sposób, w jaki ludzie wchodzą w interakcje z modelami AI i je zasilają.

Dzięki lokalnemu przetwarzaniu danych na urządzeniach mobilnych branża może osiągnąć znacznie niższe opóźnienia, zwiększoną prywatność i mniejsze wykorzystanie przepustowości. To podejście jest szczególnie ważne w przypadku aplikacji w czasie rzeczywistym, takich jak autonomiczne pojazdy, rzeczywistość rozszerzona i spersonalizowani asystenci AI. Krawędź to miejsce, w którym pojawią się nowe przypadki użycia AI, zwłaszcza te do użytku osobistego. Nie tylko zasilanie tych programów stanie się bardziej przystępne cenowo na krawędzi, ale stanie się również bardziej reaktywne i konfigurowalne, co będzie korzystne zarówno dla konsumentów, jak i badaczy.

Łańcuchy bloków są zaprojektowane idealnie dla tego rozproszonego ekosystemu AI. Ich zdecentralizowana natura idealnie wpisuje się w cel wykorzystania bezczynnej mocy obliczeniowej milionów urządzeń na całym świecie. Wykorzystując technologię łańcucha bloków, możemy stworzyć bezpieczne, przejrzyste i zachęcające ramy do udostępniania zasobów obliczeniowych.

Kluczową innowacją jest tutaj użycie weryfikacji poza łańcuchem. Podczas gdy weryfikacja na łańcuchu tworzyłaby wąskie gardła w sieci milionów równoległych urządzeń, metody poza łańcuchem pozwalają tym urządzeniom na bezproblemową współpracę, niezależnie od indywidualnych problemów z łącznością. To podejście umożliwia stworzenie systemu bez zaufania, w którym właściciele urządzeń mogą przyczyniać się do rozwoju AI bez narażania swojego bezpieczeństwa lub prywatności.

Model ten opiera się na koncepcji „federacyjnego uczenia się”, rozproszonej metody uczenia maszynowego, która może skalować się do ogromnych ilości danych na urządzeniach mobilnych, jednocześnie chroniąc prywatność użytkowników. Blockchain zapewnia zarówno infrastrukturę dla tej sieci, jak i mechanizm nagradzania uczestników, zachęcając do szerokiego zaangażowania.

Synergia między blockchainem a edge AI sprzyja nowemu ekosystemowi, który jest bardziej odporny, wydajny i inkluzywny niż tradycyjne scentralizowane modele. Demokratyzuje rozwój AI, pozwalając jednostkom uczestniczyć w rewolucji AI i czerpać z niej korzyści bezpośrednio ze swoich urządzeń mobilnych.

Pokonywanie wyzwań technologicznych

Szkolenie i wnioskowanie AI można przeprowadzić na wielu typach GPU, w tym na konsumenckich GPU w urządzeniach mobilnych. Sprzęt, który napędza nasze urządzenia mobilne, stale się poprawia od czasu, gdy smartfony trafiły na rynek, i nic nie wskazuje na to, że miałby wyhamować. Wiodące w branży mobilne GPU, takie jak Apple A17 Pro i Qualcomm Adreno 750 (używane w zaawansowanych urządzeniach z Androidem, takich jak Samsung Galaxy i Google Pixel), na nowo definiują zadania AI, które można wykonać na urządzeniach mobilnych.

Teraz produkowane są nowe układy scalone znane jako Neural Processing Units (NPU), które są specjalnie zaprojektowane do obliczeń konsumenckich AI, umożliwiając przypadki użycia AI na urządzeniu, jednocześnie zarządzając ograniczeniami ciepła i mocy baterii urządzeń mobilnych. Dodaj inteligentny projekt systemu i architekturę, które mogą kierować zadania do optymalnego sprzętu dla tego zadania, a utworzony efekt sieciowy będzie niezwykle potężny.

Chociaż potencjał AI krawędziowej jest ogromny, nadal wiąże się z własnym zestawem wyzwań. Optymalizacja algorytmów AI dla różnorodnego zestawu sprzętu mobilnego, zapewnienie spójnej wydajności w różnych warunkach sieciowych, rozwiązywanie problemów z opóźnieniami i utrzymanie bezpieczeństwa to wszystko są krytyczne przeszkody. Jednak trwające badania nad AI i technologią mobilną stale rozwiązują te wyzwania, torując drogę, aby ta wizja stała się rzeczywistością.

Korporacje do społeczności

Jedną z największych skarg, i najbardziej sprawiedliwych, w odniesieniu do rozwoju AI jest niewiarygodna ilość energii, którą zużywa. Duże centra danych wymagają również ogromnych połaci ziemi na swoją infrastrukturę fizyczną i niewiarygodnych ilości energii, aby pozostać online. Model mobilny może złagodzić wiele z tych oddziaływań na środowisko, wykorzystując zapasowy procesor graficzny w istniejących urządzeniach – zamiast polegać na procesorze graficznym w scentralizowanych centrach danych – jest bardziej wydajny i będzie generował mniej emisji dwutlenku węgla. Potencjalnych oddziaływań w odniesieniu do naszego środowiska nie można przecenić.

Przejście na przetwarzanie brzegowe w AI zmieni również zasadniczo, kto może uczestniczyć we wspieraniu sieci AI i kto może na nich zarabiać. Korporacje będące właścicielami centrów danych nie będą już zamknięte w ogrodzie otoczonym murem. Zamiast tego bramy będą otwarte, a dostęp będzie powszechny dla indywidualnych programistów, małych firm, a nawet hobbystów, którzy będą mogli zarządzać sieciami AI.

Umożliwienie znacznie większej puli użytkowników i zwolenników umożliwi również szybszy i bardziej otwarty rozwój, pomagając ograniczyć szeroko omawiany i bardzo obawiany pomysł stagnacji w branży. Ten wzrost dostępności doprowadzi również do bardziej zróżnicowanych aplikacji, rozwiązując niszowe problemy i niedostatecznie obsługiwane społeczności, które w przeciwnym razie mogłyby zostać przeoczone.

Ekonomiczny wpływ tej zmiany będzie głęboki. Dzięki umożliwieniu osobom fizycznym i małym i średnim organizacjom monetyzacji bezczynnej mocy obliczeniowej ich urządzeń, nowe strumienie przychodów będą sięgać głęboko. Otwiera to również nowe rynki dla konsumenckiego sprzętu AI i oprogramowania zoptymalizowanego pod kątem krawędzi.

Przyszłość innowacji AI nie leży w budowaniu większych centrów danych, ale w wykorzystaniu mocy, która już istnieje w naszych kieszeniach i domach. Przenosząc uwagę na przetwarzanie brzegowe, może powstać bardziej inkluzywny, wydajny i innowacyjny ekosystem AI. To zdecentralizowane podejście nie tylko demokratyzuje AI, ale także jest zgodne z globalnymi celami zrównoważonego rozwoju, zapewniając, że korzyści płynące z AI są dostępne dla wszystkich, a nie tylko dla uprzywilejowanych nielicznych.

Uwaga: Poglądy wyrażone w tym artykule są poglądami autora i niekoniecznie odzwierciedlają poglądy firmy CoinDesk, Inc. ani jej właścicieli i podmiotów stowarzyszonych.

Redakcja: Benjamin Schiller.

Powiązane wiadomości

Bank UniCredit wraca na polski rynek

rmf24 .pl

„Kończy nam się czas”: Demokrata z Izby Reprezentantów USA wzywa do kompromisu w sprawie ustawy o stablecoinach

coindesk com

Produkcja w Nowym Jorku odbija: dostawy rosną, optymizm rośnie, wydatki kapitałowe spadają

fxempire com

Zostaw komentarz

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Zaakceptować Czytaj więcej