Allora: Samodoskonaląca się zdecentralizowana infrastruktura AI
Allora buduje sieć inferencji syntetyzującej wyniki z wielu modeli AI w celu zwiększenia precyzji przewidywań. Protokół wykorzystuje mechanizmy wagowe i oceny s
To nie jest porada finansowa. DYOR.
Read full report
- Wstęp Od momentu pojawienia się generatywnej sztucznej inteligencji reprezentowanej przez ChatGPT, technologia AI szybko się rozwija przy zwiększonym udziale korporacji i inwestycjach w branżę AI. Współczesne systemy AI wykazują doskonałą wydajność nie tylko w generowaniu konkretnych wyników, ale także w przetwarzaniu dużych zbiorów danych, rozpoznawaniu wzorców, analizie statystycznej i modelowaniu predykcyjnym, co prowadzi do szerszego adopcji AI w różnych branżach.
JPMorgan Chase: Zatrudnił ponad 600 inżynierów ML oraz opracował/wdrożył ponad 400 przypadków użycia technologii AI, w tym handel algorytmiczny, przewidywanie oszustw i prognozowanie przepływów pieniężnych. Walmart: Analizuje historię sprzedaży sezonowej i regionalnej, aby przewidzieć popyt na produkty i zoptymalizować zapasy. Ford: Analizuje dane z czujników pojazdów, aby przewidzieć awarie części i powiadamiać klientów, zapobiegając wypadkom spowodowanym przez usterki.
Ostatnio obserwuje się rosnący trend łączenia ekosystemów blockchain z AI, a szczególną uwagę zwraca się na sektor DeFAI, gdzie protokoły DeFi są łączone z AI. Ponadto, coraz częściej bezpośrednio wdraża się AI w mechanizmy operacyjne protokołów, co umożliwia skuteczne przewidywanie i zarządzanie ryzykiem protokołów DeFi oraz wprowadza nowe rodzaje usług produktów finansowych, które wcześniej były niedostępne.
🔎 Aby uzyskać szczegółowe informacje na temat integracji AI w protokołach DeFi, należy zapoznać się z artykułem "Intelligent DeFi: AI Redesigning the Blueprint of DeFi".
Budowanie modeli AI wyspecjalizowanych w konkretnych funkcjach pozostaje obecnie zmonopolizowane przez duże korporacje i specjalistów AI ze względu na wysokie bariery wejścia, w tym ogromne ilości danych treningowych i specjalistyczną technologię AI. W rezultacie inne branże i małe startupy napotykają znaczące trudności w adopcji AI, a zdecentralizowane aplikacje (dApps) w ekosystemie blockchain nie są zwolnione z tych ograniczeń. Ponadto, ponieważ dApps muszą zachowywać podstawową wartość "zaufania" (trustlessness) – czyli nie wymagania zaufania do stron trzecich – rozwój zdecentralizowanej infrastruktury AI jest konieczny, aby więcej protokołów mogło wiarygodnie adoptować AI i świadczyć usługi, którym użytkownicy mogą zaufać. Na tym tle Allora ma na celu wdrożenie samodoskonalącej się zdecentralizowanej infrastruktury AI i wspieranie dApps oraz startupów pragnących bezpiecznie zintegrować AI ze swoimi usługami.
- Allora, Zdecentralizowana Sieć Syntezy Inferencji Allora to zdecentralizowana sieć inferencji, która przewiduje i dostarcza przyszłe wartości dla konkretnych tematów zgłaszanych przez różne podmioty. Istnieją dwa główne podejścia do wdrażania zdecentralizowanej inferencji AI:
Pojedynczy model / Przetwarzanie rozproszone: Budowanie zdecentralizowanego, pojedynczego modelu AI poprzez przeprowadzanie procesów treningu i inferencji w sposób rozproszony. Wiele modeli / Synteza inferencji: Zbieranie wyników inferencji z wielu wstępnie wytrenowanych modeli AI i ich synteza w celu uzyskania pojedynczego wyniku inferencji.
Między tymi podejściami Allora stosuje metodę wielu modeli / syntezy inferencji, w której operatorzy modeli AI swobodnie uczestniczą w sieci Allora, aby wykonać inferencję dla prognoz żądanych w konkretnych tematach, a protokół dostarcza zgłaszającym pojedynczy wynik prognozy zsyntezowany z wartości inferencji wyznaczonych przez tych operatorów. Podczas syntezy wartości inferencji z modeli AI, Allora nie po prostu uśrednia wartości wyznaczone przez każdy model, ale wyprowadza wartości inferencji przypisując wagi do każdego modelu. Następnie Allora porównuje rzeczywistą wartość wyniku dla danego tematu z wartościami wyznaczonymi przez każdy model i wykonuje samodoskonalenie w celu zwiększenia dokładności inferencji, przyznając wyższe wagi i incentywy modelom, które wyznaczają wartości inferencji zbliżone do rzeczywistej wartości wyniku. Dzięki temu podejściu Allora może wykonywać inferencję bardziej wyspecjalizowaną w konkretnych tematach niż zdecentralizowane AI zbudowane przy użyciu metody modelu / przetwarzania rozproszonego.
Aby zachęcić więcej modeli AI do uczestnictwa w protokole, Allora udostępnia open-source'owy framework Allora MDK (Model Development Kit), aby pomóc każdemu w łatwym budowaniu, wdrażaniu i wykorzystywaniu modeli AI. Dodatkowo Allora udostępnia dwa SDK – Allora Network Python i TypeScript SDK – użytkownikom, którzy chcą korzystać z danych inferencji Allora, zapewniając środowisko, w którym mogą łatwo zintegrować i wykorzystać dane dostarczane przez Allora w swoich usługach. W ten sposób Allora ma na celu funkcjonowanie jako warstwa pośrednia łącząca modele AI z usługami/protokołami potrzebującymi danych inferencji, zapewniając operatorom modeli AI możliwości generowania przychodów za pośrednictwem modeli AI, jednocześnie umacniając swoją pozycję jako infrastruktury dostarczającej nieobciążone dane potrzebne usługom/protokołom. Przyjrzyjmy się szczegółowej architekturze protokołu Allora, aby zrozumieć, jak działa Allora i jakie posiada wyróżniające się cechy.
-
- Architektura Protokołu W Allorze każdy może skonfigurować i wdrożyć konkretne tematy, a w procesie wykonywania inferencji i wyprowadzania końcowych wartości inferencji dla wdrożonych tematów uczestniczą cztery podmioty:
Konsumenci (Consumers): Podmioty płacące opłaty za żądanie inferencji w konkretnych tematach. Robotnicy (Workers): Podmioty operujące modelami AI przy użyciu własnych baz danych i wykonujące inferencję żądaną przez konsumentów w konkretnych tematach. Reputery (Reputers): Podmioty oceniające poprzez porównywanie danych wyznaczonych przez robotników z wartościami rzeczywistymi. Walidatorzy (Validators): Podmioty operujące węzłami sieci Allora, przetwarzające i rejestrujące transakcje generowane przez każdy uczestniczący podmiot.
Sieć Allora posiada strukturę, która oddziela podmioty wykonujące inferencję, oceniające i walidujące, a w jej centrum znajduje się token sieciowy ALLO jest używany jako opłaty za żądania inferencji i incentywy za wykonanie inferencji, płynnie łącząc uczestników sieci, a także jest stakowany w celu zapewnienia bezpieczeństwa. Patrząc na protokół Allora z perspektywy funkcjonalnej, szczegółowo zbadamy role każdej warstwy – warstwy konsumpcji inferencji, warstwy syntezy inferencji i warstwy konsensusu – oraz interakcje między uczestnikami.
-
-
- Warstwa Konsumpcji Inferencji Warstwa konsumpcji inferencji obsługuje interakcje między uczestnikami protokołu a protokołem Allora, w tym tworzenie tematów, zarządzanie uczestnikami tematów i żądania inferencji. Użytkownicy chcący utworzyć temat mogą wchodzić w interakcję z systemem zarządzania tematami i inferencją Allora, Topic Coordinator, płacąc określoną ilość $ALLO i konfigurując zestaw reguł definiujących to, co chcą wywnioskować, wraz ze sposobem weryfikacji rzeczywistych wyników i oceny wartości inferencji wyznaczonych przez robotników.
-
Gdy temat zostanie utworzony, pracownicy i reputerzy mogą zarejestrować się jako uczestnicy wnioskowania dla tego tematu, uiszczając opłaty rejestracyjne w tokenach ALLO w temacie, narażając się na cięcie aktywów za złośliwą walidację wyników. Po utworzeniu tematów i zarejestrowaniu pracowników oraz reputerów, konsumenci mogą żądać wnioskowań, płacąc $ALLO za temat, a pracownicy i reputerzy otrzymują te opłaty za żądania tematu jako wynagrodzenie za wyprowadzanie wartości wnioskowania.
2. 1. 2. Warstwa prognoz i syntezy
Warstwa prognoz i syntezy to główna warstwa Allora służąca do generowania zdecentralizowanych wnioskowań, gdzie pracownicy wykonują wnioskowania, reputerzy oceniają wydajność, a ustawianie wag i synteza wnioskowań mają miejsce na podstawie tych ocen. Pracownicy w sieci Allora nie tylko przesyłają wartości wnioskowań dla tematów żądanych przez konsumentów, ale również oceniają dokładność wnioskowań innych pracowników i wyprowadzają Prognozowane Straty na podstawie tych ocen. Te prognozowane straty są odzwierciedlane w obliczeniach wag potrzebnych do syntezy wnioskowań, a pracownicy otrzymują wyższe incentywy zarówno wtedy, gdy ich wnioskowania są dokładne, jak i wtedy, gdy dokładnie przewidują dokładność wnioskowań innych pracowników. Dzięki tej strukturze Allora może wyprowadzić wagi syntezy wnioskowań uwzględniające różne sytuacje kontekstowe, a nie tylko przeszłą wydajność pracowników.
Przewidywanie dokładności wnioskowań przez pracowników dla świadomości kontekstowej; Źródło: Dokumentacja Allora
Na przykład, w temacie przewidującym cenę Bitcoina za godzinę, załóżmy następujące założenia dotyczące pracowników A i B:
- Pracownik A: Ma wysoką średnią dokładność wnioskowania wynoszącą 90%, ale wykazuje zmniejszoną dokładność w warunkach zmienności rynku.
- Pracownik B: Ma średnią dokładność wnioskowania wynoszącą 80%, ale utrzymuje względną wysoką dokładność w warunkach zmienności rynku.
Jeśli rynek jest obecnie wysoce zmienny, a wielu pracowników przewiduje, że "Pracownik B będzie miał tylko około 5% błędu w tej prognozie ze względu na jego siłę w sytuacjach zmiennych", przewidując jednocześnie, że "Oczekuje się, że Pracownik A będzie miał około 15% błędu w tej zmiennej sytuacji", Allora przydzieli wyższą wagę wnioskowaniu Pracownika B dla tej prognozy, mimo jego niższej średniej wydajności historycznej. Koordynator Tematu syntetyzuje wnioskowania, używając ostatecznych wag wyprowadzonych przez ten proces, i dostarcza konsumentowi ostateczną wartość wnioskowania. Dodatkowo, w trakcie tego procesu obliczane i dostarczane są przedziały ufności na podstawie rozkładu wartości wnioskowań przesłanych przez pracowników.
Następnie reputerzy porównują rzeczywiste wyniki z ostatecznymi wartościami wnioskowań, aby ocenić wydajność wnioskowań każdego pracownika i dokładność w przewidywaniu dokładności wnioskowań innych pracowników, dostosowując wagi pracowników poprzez konsensus w oparciu o udziały stakingowe. Allora przeprowadza syntezę i ocenę wnioskowań za pomocą tej metody, a w szczególności struktura "świadomości kontekstowej", w której każdy pracownik ocenia dokładność wnioskowań innych pracowników, przyczynia się do poprawy dokładności wnioskowań, umożliwiając Allora wyprowadzanie wartości wnioskowań zoptymalizowanych dla każdej sytuacji. Ponadto, wraz z akumulacją danych o wydajności wnioskowań pracowników, funkcja świadomości kontekstowej działa bardziej wydajnie, pozwalając funkcji wnioskowania Allora na samodoskonalenie się bardziej skutecznie.
Proces syntezy wnioskowań Allora; Źródło: Dokumentacja Allora
Warstwa konsensusu Allora to miejsce, gdzie odbywają się obliczenia wag tematów, dystrybucja nagród sieciowych i rejestrowanie aktywności uczestników, zbudowana na Cosmos SDK z mechanizmami konsensusu opartymi na CometBFT i DPoS (Delegated Proof of Stake). Użytkownicy mogą uczestniczyć w sieci Allora jako walidatorzy, blokując tokeny ALLO do walidatorów.
Dodatkowo, Allora posiada inflacyjne incentywy ALLO trafia do pracowników i reputerów uczestniczących w wnioskowaniu tematów, a pozostałe 25% do walidatorów. Te inflacyjne incentywy ustają po raz ostatnim, gdy wszystkie $ALLO zostaną wyemitowane, i podążają za strukturą, w której odblokowane ilości stopniowo się zmniejszają o połowę. Gdy 75% inflacyjnego incentywu jest dystrybuowane do pracowników i reputerów, stosunek dystrybucji jest determinowany nie tylko przez wydajność pracownika i udziały stakingowe reputera, ale także przez wagę tematu. Waga tematu jest obliczana na podstawie kwot stakingu reputerów uczestniczących w temacie i przychodów z opłat, tym samym motywując do ciągłego udziału pracowników i reputerów w tematach o wysokim popycie i stabilności.
3. Od on-chain do różnych branż
3. 1. Allora zbliża się do startu Mainnet
Allora ustanowiła Fundację Allora 10 stycznia 2025 roku i przyspiesza w kierunku startu mainnet po zakończeniu publicznego testnetu z udziałem ponad 300 000 pracowników. Na dzień 6 lutego prowadzą konkurs Allora Model Forge Competition w celu wyłonienia twórców modeli AI dla sieci Allora po uruchomieniu mainnetu.
Kategorie konkursu Allora Model Forge Competition; Źródło: Konkurs Allora Model Forge Competition
Dodatkowo, Allora nawiązuje partnerstwa z różnymi projektami przed startem mainnet. Kluczowe projekty partnerskie i funkcjonalności, które Allora im zapewnia, są następujące:
- Plume: Dostarczanie kanałów cenowych RWA w sieci Plume, prognozy APY w czasie rzeczywistym i przewidywanie ryzyka.
- Story Protocol: Dostarczanie oceny wartości IP i potencjalnych wglądów, kanały cenowe dla płynnych aktywów on-chain, wnioskowania Allora dla DeFi opartego na Story Protocol.
- Monad: Dostarczanie kanałów cenowych dla płynnych aktywów on-chain, wnioskowania Allora dla DeFi opartego na Monad.
- 0xScope: Wsparcie rozwoju asystenta aktywności on-chain AI Jarvis przy użyciu możliwości świadomości kontekstowej Allora.
- Virtuals Protocol: Zwiększanie wydajności agentów poprzez integrację wnioskowań Allora z frameworkiem G. A. M. E Virtual Protocol.
- Eliza OS (dawniej ai16z): Zwiększanie wydajności agentów poprzez integrację wnioskowań Allora z frameworkiem Eliza Eliza OS.
Obecnie partnerstwa Allora koncentrują się głównie na projektach AI/krypto, co odzwierciedla dwa kluczowe czynniki: 1) wysoki popyt na zdecentralizowane wnioskowania ze strony projektów opartych na kryptowalutach oraz 2) łatwy dostęp do danych on-chain niezbędnych dla modeli AI do wykonania wymaganych wnioskowań. Na wczesny etap startu mainnet oczekuje się, że Allora przydzieli znaczne nagrody inflacyjne w celu przyciągnięcia uczestników.
Aby zachęcić do ciągłej aktywności uczestników przyciągniętych tymi nagrodami inflacyjnymi, Allora musi utrzymać odpowiednią wartość tokena ALLO, jak i długoterminowej zdolności do zabezpieczenia stabilnych przychodów z opłat dzięki popytowi na wnioskowanie.
4. Wnioski
W miarę postępu technologii AI i dowodzenia jej użyteczności, wdrażanie i stosowanie wnioskowania AI aktywnie postępuje w większości branż. Jednak zasobochłonny charakter przyjęcia AI poszerza lukę konkurencyjną między dużymi korporacjami, które pomyślnie wdrożyły AI, a mniejszymi firmami, które nie są w stanie tego zrobić. W tym środowisku popyt na możliwości Allory – dostarczającej zoptymalizowanych tematowo wnioskowań i samodoskonalącej się dokładności danych poprzez decentralizację – jest oczekiwany, że będzie stopniowo rósł.
Allora ma na celu stać się powszechnie przyjętą zdecentralizowaną infrastrukturą wnioskowania we wszystkich branżach, ale realizacja tej wizji wymaga udowodnienia zarówno skuteczności funkcjonalnej, jak i zrównoważenia. Aby to wykazać, Allora musi zabezpieczyć wystarczającą liczbę pracowników i oceniających (reputers) od początkowego uruchomienia głównej sieci oraz zapewnić zrównoważone zachęty dla tych uczestników sieci.
Jeśli Allora pomyślnie sprosta tym wyzwaniom i osiągnie przyjęcie w różnych branżach, nie tylko zademonstruje potencjał blockchaina jako niezbędnej infrastruktury AI, ale także posłuży jako kluczowy przykład pokazujący, w jaki sposób połączenie AI i blockchaina – dwóch technologii prowadzących w obecnej branży IT – może dostarczyć rzeczywistej wartości ludzkości.
Bibliografia
Allora Whitepaper Allora Docs Allora Blog
