30 września, 2024
Czy kiedykolwiek możemy zaufać agentom AI? thumbnail
Biznes

Czy kiedykolwiek możemy zaufać agentom AI?

Zdecentralizowana sztuczna inteligencja pozwala nam zaufać agentom, którzy wkrótce zapełnią nasze cyfrowe życie, mówi Marko Stokic, szef AI w Oasis.”, — informuje: www.coindesk.com

Znany psycholog z Harvardu, BF Skinner, wyraził kiedyś opinię, że „prawdziwym problemem nie jest to, czy maszyny myślą, ale to, czy myślą ludzie”. Ta dowcipna obserwacja podkreśla niegdyś kluczową kwestię: że nasze zaufanie do technologii zależy od ludzkiej oceny. Nie powinniśmy się martwić inteligencją maszyn, ale mądrością i odpowiedzialnością tych, którzy ją kontrolują. Albo przynajmniej to był sprawa.

Ponieważ oprogramowanie takie jak ChatGPT stanowi obecnie integralną część wielu zawodów, spostrzeżenia Skinnera wydają się niemal osobliwe. Gwałtowny rozwój agentów AI – jednostek oprogramowania zdolnych postrzegać swoje otoczenie i podejmować działania, aby osiągnąć określone cele – zasadniczo zmienił paradygmat. Ci cyfrowi asystenci, którzy zrodzili się w wyniku boomu konsumenckiej sztucznej inteligencji na początku lat 20. XX wieku, obecnie przenikają nasze cyfrowe życie, obsługując zadania, od planowania spotkań po podejmowanie decyzji inwestycyjnych.

Kim są agenci AI?

Agenci AI znacznie różnią się od dużych modeli językowych (LLM), takich jak ChatGPT, pod względem zdolności do autonomicznego działania. Podczas gdy LLM głównie przetwarzają i generują tekst, agenci AI są projektowani tak, aby postrzegać swoje otoczenie, podejmować decyzje i podejmować działania, aby osiągnąć określone cele. Agenci ci łączą różne technologie sztucznej inteligencji, w tym przetwarzanie języka naturalnego, widzenie komputerowe i uczenie się przez wzmacnianie, umożliwiając im adaptację i uczenie się na podstawie swoich doświadczeń.

Ale w miarę jak agenci AI rozprzestrzeniają się i powtarzają, pojawia się także dokuczliwy niepokój. Czy kiedykolwiek będziemy mogli naprawdę zaufać tym cyfrowym podmiotom? Pytanie jest dalekie od akademickiego. Agenci AI działają w złożonych środowiskach, podejmując decyzje w oparciu o ogromne zbiory danych i skomplikowane algorytmy, których pełne zrozumienie nawet ich twórcy mają trudności. Ta wrodzona nieprzejrzystość rodzi nieufność. Kiedy agent AI zaleca leczenie lub przewiduje trendy rynkowe, jak możemy być pewni powodów jego wyborów?

Konsekwencje niewłaściwego zaufania do agentów AI mogą być tragiczne. Wyobraź sobie doradcę finansowego wykorzystującego sztuczną inteligencję, który nieumyślnie powoduje awarię rynków z powodu błędnie zinterpretowanego punktu danych, lub sztuczną inteligencję związaną z opieką zdrowotną, która zaleca nieprawidłowe leczenie w oparciu o stronnicze dane szkoleniowe. Potencjał szkód nie ogranicza się do poszczególnych sektorów; w miarę jak agenci sztucznej inteligencji stają się coraz bardziej zintegrowani z naszym codziennym życiem, ich wpływ rośnie wykładniczo. Błędny krok może mieć wpływ na społeczeństwo, wpływając na wszystko, od prywatności osobistej po globalną gospodarkę.

U podstaw tego deficytu zaufania leży fundamentalna kwestia: centralizacja. Opracowywanie i wdrażanie modeli sztucznej inteligencji było w dużej mierze zadaniem garstki gigantów technologicznych. Te scentralizowane modele sztucznej inteligencji działają jak czarne skrzynki, a ich procesy decyzyjne są ukryte przed publiczną kontrolą. Ten brak przejrzystości sprawia, że ​​praktycznie niemożliwe jest zaufanie ich decyzjom w operacjach o wysoką stawkę. Jak możemy polegać na agencie AI w zakresie dokonywania kluczowych wyborów, skoro nie możemy zrozumieć ani zweryfikować jego rozumowania?

Decentralizacja jako odpowiedź

Istnieje jednak rozwiązanie tych problemów: zdecentralizowana sztuczna inteligencja. Paradygmat oferujący ścieżkę do bardziej przejrzystych i godnych zaufania agentów AI. Podejście to wykorzystuje mocne strony technologii blockchain i innych zdecentralizowanych systemów do tworzenia modeli sztucznej inteligencji, które są nie tylko potężne, ale także odpowiedzialne.

Narzędzia do budowania zaufania do agentów AI już istnieją. Łańcuchy bloków mogą umożliwiać weryfikowalne obliczenia, zapewniając możliwość audytu i śledzenia działań AI. Każda decyzja podjęta przez agenta AI może zostać zarejestrowana w księdze publicznej, co zapewni niespotykaną dotąd przejrzystość. Jednocześnie zaawansowane techniki kryptograficzne, takie jak uczenie maszynowe w zaufanym środowisku wykonawczym (TeeML), mogą chronić wrażliwe dane i utrzymywać integralność modelu, zapewniając zarówno przejrzystość, jak i prywatność.

Ponieważ agenci sztucznej inteligencji coraz częściej działają w sąsiedztwie publicznych łańcuchów bloków lub bezpośrednio na nich, koncepcja weryfikowalności staje się kluczowa. Tradycyjne modele sztucznej inteligencji mogą mieć trudności z udowodnieniem integralności swoich operacji, ale agenci sztucznej inteligencji bazujący na blockchainie mogą zapewnić kryptograficzne gwarancje ich zachowania. Ta sprawdzalność to nie tylko szczegół techniczny; jest to podstawowy wymóg zaufania w środowiskach, w których stawka jest wysoka.

Poufne techniki obliczeniowe, w szczególności zaufane środowiska wykonawcze (TEE), oferują ważną warstwę pewności. TEE zapewniają bezpieczną enklawę, w której mogą odbywać się obliczenia AI, odizolowaną od potencjalnych zakłóceń. Technologia ta gwarantuje, że nawet operatorzy systemu AI nie będą mogli ingerować w proces decyzyjny agenta ani go szpiegować, co jeszcze bardziej zwiększa zaufanie.

Struktury takie jak Runtime Off-chain Logic (ROFL) sieci Oasis Network stanowią najnowocześniejsze podejście w tym podejściu, umożliwiając bezproblemową integrację weryfikowalnych obliczeń AI z możliwością kontroli i przejrzystością w łańcuchu. Takie innowacje poszerzają możliwości aplikacji opartych na sztucznej inteligencji, zachowując jednocześnie najwyższe standardy zaufania i przejrzystości.

W stronę godnej zaufania przyszłości opartej na sztucznej inteligencji

Droga do godnych zaufania agentów AI nie jest pozbawiona wyzwań. Utrzymują się przeszkody techniczne, a powszechne przyjęcie zdecentralizowanych systemów sztucznej inteligencji będzie wymagało zmiany zarówno praktyk branżowych, jak i zrozumienia społecznego. Jednak potencjalne nagrody są ogromne. Wyobraź sobie świat, w którym agenci AI podejmują krytyczne decyzje z zachowaniem pełnej przejrzystości, gdzie ich działania mogą być weryfikowane i kontrolowane przez każdego, a władza sztucznej inteligencji jest rozproszona, a nie skoncentrowana w rękach kilku korporacji.

Istnieje także szansa na odblokowanie znaczącego wzrostu gospodarczego. Jeden 2023 badanie z Pekinu wykazało, że 1% wzrost penetracji AI prowadzi do 14,2% wzrostu całkowitej produktywności czynników produkcji (TFP). Jednak większość badań nad produktywnością sztucznej inteligencji koncentruje się na ogólnych LLM, a nie na agentach AI. Autonomiczni agenci sztucznej inteligencji, zdolni do niezależnego wykonywania wielu zadań, mogliby potencjalnie zapewnić większy wzrost produktywności. Godni zaufania i podlegający kontroli agenci sztucznej inteligencji byliby prawdopodobnie jeszcze bardziej skuteczni.

Być może nadszedł czas, aby zaktualizować słynny cytat Skinnera. Prawdziwym problemem nie jest już to, czy maszyny myślą, ale to, czy możemy ufać ich myślom. Dzięki zdecentralizowanej sztucznej inteligencji i blockchainowi mamy narzędzia do budowania tego zaufania. Pytanie teraz brzmi, czy mamy mądrość, aby z nich skorzystać.

Uwaga: poglądy wyrażone w tej kolumnie są poglądami autora i niekoniecznie odzwierciedlają poglądy CoinDesk, Inc. lub jej właścicieli i podmiotów stowarzyszonych.

Pod redakcją Benjamina Schillera.

Ujawnienie

Należy pamiętać, że nasz

polityka prywatności,

warunki korzystania,

ciastka,

I

nie sprzedawaj moich danych osobowych

został zaktualizowany

.

CoinDesk jest

wielokrotnie nagradzany

media zajmujące się branżą kryptowalut. Jej dziennikarze przestrzegają m.in

ścisły zestaw zasad redakcyjnych.

W listopadzie 2023 r

przejęto CoinDesk

przez grupę Bullish, właściciela

Zwyżkowy,

regulowana giełda aktywów cyfrowych. Grupa Bullish jest większościowym właścicielem firmy

Blok.jeden; obie firmy mają

zainteresowania

w różnych przedsiębiorstwach zajmujących się blockchainem i aktywami cyfrowymi oraz w znaczących portfelach aktywów cyfrowych, w tym bitcoinów.

CoinDesk działa jako niezależna spółka zależna z komitetem redakcyjnym, którego zadaniem jest ochrona niezależności dziennikarskiej. Pracownicy CoinDesk, w tym dziennikarze, mogą otrzymać opcje w grupie Bullish w ramach swojego wynagrodzenia.

Marko Stokić
Marko Stokic jest dyrektorem AI w Fundacji Oasis Protocol, gdzie współpracuje z zespołem skupionym na tworzeniu najnowocześniejszych aplikacji AI zintegrowanych z technologią blockchain. Mając doświadczenie biznesowe, zainteresowanie Marko kryptowalutami zostało zapoczątkowane przez Bitcoin w 2017 r. i pogłębiło się dzięki jego doświadczeniom podczas krachu na rynku w 2018 r.

Powiązane wiadomości

Swyridenko o zastrzeżeniach ekonomicznych, wsparciu biznesu i reformie Kodeksu pracy. Wywiad

business ua

Platforma bankowa OpenPayd zatrudnia dwóch starszych dyrektorów od brokera Crypto Prime Broker FalconX

coindesk com

Budżet. Minister Katarzyna Pełczyńska-Nałęcz: Przyjęliśmy poprawki

polsat news

Zostaw komentarz

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Zaakceptować Czytaj więcej