Allora: Gedecentraliseerde AI-inferentie via synthese

Het Allora-netwerk synthetiseert inferenties van meerdere AI-modellen om nauwkeurige voorspellingswaarden te genereren zonder afhankelijk te zijn van één partij

12 jan 2026Coincexpost

Geen financieel advies. DYOR.

Read full report
  1. Inleiding

Sinds de opkomst van generatieve AI, vertegenwoordigd door ChatGPT, evolueert AI-technologie snel met toegenomen bedrijfsdeelname en investeringen in de AI-industrie. Recente AI toont uitstekende prestaties niet alleen in het genereren van specifieke outputs, maar ook in grootschalige gegevensverwerking, patroonherkenning, statistische analyse en voorspellende modellering. Dit leidt tot een bredere adoptie van AI in diverse sectoren. JPMorgan Chase: Heeft meer dan 600 ML-ingenieurs in dienst genomen en meer dan 400 AI-gebruiksgevallen ontwikkeld/geïmplementeerd, waaronder algoritmisch handel, fraudepredictie en kasstroomprognoses. Walmart: Analyseert seizoensgebonden en regionale verkoopgeschiedenis om productvraag te voorspellen en voorraad te optimaliseren. Ford: Analyseert voertuigsensorgegevens om onderdelengebreken te voorspellen en klanten te waarschuwen, waardoor ongelukken door defecte onderdelen worden voorkomen. Recentelijk is er een groeiende trend om blockchain-ecosystemen te combineren met AI, waarbij bijzondere aandacht uitgaat naar de DeFAI-sector, waarin DeFi-protocollen worden gecombineerd met AI. Bovendien neemt het aantal gevallen toe waarin AI direct wordt opgenomen in de werking van protocollen. Dit maakt efficiënte risicopredictie en -beheer van DeFi-protocollen mogelijk en introduceert nieuwe soorten financiële productdiensten die eerder niet beschikbaar waren.

🔎 Voor gedetailleerde informatie over AI-integratie in DeFi-protocollen kunt u het artikel "Intelligent DeFi: AI Redesigning the Blueprint of DeFi" raadplegen.

Het bouwen van AI-modellen die gespecialiseerd zijn in specifieke functies is echter momenteel nog steeds het domein van grote bedrijven en AI-specialisten vanwege hoge drempels, waaronder enorme hoeveelheden trainingsdata en gespecialiseerde AI-technologie. Als gevolg daarvan hebben andere industrieën en kleine start-ups aanzienlijke moeite met het adopteren van AI, en dApps in het blockchain-ecosysteem zijn niet vrij van deze beperkingen. Daarnaast moeten dApps de kernwaarde van "vertrouweloosheid" handhaven – het niet vereisen van vertrouwen in derden – wat de ontwikkeling van gedecentraliseerde AI-infrastructuur noodzakelijk maakt. Hierdoor kunnen meer protocollen AI op een betrouwbare manier adopteren en diensten bieden die gebruikers kunnen vertrouwen. Tegen deze achtergrond stelt Allora zich ten doel een zelfverbeterende gedecentraliseerde AI-infrastructuur te implementeren en dApps en start-ups te ondersteunen die AI veilig in hun diensten willen integreren.

  1. Allora, Een Gedecentraliseerd Inferentie-Synthese Netwerk

Allora is een gedecentraliseerd inferentienetwerk dat toekomstige waarden voorspelt en levert voor specifieke onderwerpen die door verschillende entiteiten worden aangevraagd. Er zijn twee hoofdbenaderingen voor het implementeren van gedecentraliseerde AI-inferentie: Enkel Model/Gedistribueerde Verwerking: Het bouwen van een gedecentraliseerd enkel AI-model door modeltraining en inferentieprocessen op een gedistribueerde manier uit te voeren. Multi-Model/Inferentie-Synthese: Het verzamelen van inferentieresultaten van meerdere vooraf getrainde AI-modellen en deze synthetiseren om één enkel inferentieresultaat te produceren. Tussen deze twee benaderingen kiest Allora voor de multi-model/inferentie-synthese methode. Hierbij nemen AI-modelbeheerders vrijwillig deel aan het Allora-netwerk om inferentie uit te voeren voor voorspellingen die over specifieke onderwerpen worden gevraagd. Het protocol verstrekt vervolgens aan de aanvragers één enkel voorspellingsresultaat dat is gesynthetiseerd uit de inferentiewaarden die door deze beheerders zijn afgeleid. Bij het synthetiseren van inferentiewaarden van AI-modellen, gebruikt Allora niet simpelweg het gemiddelde van de door elk model afgeleide waarden, maar leidt het waarden af door gewichten toe te kennen aan elk model. Vervolgens vergelijkt Allora de werkelijke resultaatwaarde voor dat onderwerp met de waarden die door elk model zijn afgeleid. Het voert zelfverbetering uit door hogere gewichten en incentives toe te kennen aan modellen die inferentiewaarden afleiden die dicht bij de werkelijke resultaatwaarde liggen, waardoor de nauwkeurigheid van de inferentie toeneemt. Door deze aanpak kan Allora inferentie uitvoeren die gespecialiseerder is voor specifieke onderwerpen dan gedecentraliseerde AI die is gebouwd met de model/gedistribueerde verwerkingsmethode.

Om meer AI-modellen aan te moedigen deel te nemen aan het protocol, stelt Allora het open-source framework Allora MDK (Model Development Kit) beschikbaar om iedereen te helpen AI-modellen te bouwen en deze eenvoudig te implementeren en te gebruiken. Daarnaast biedt Allora twee SDK's aan – de Allora Network Python en TypeScript SDK – aan gebruikers die de inferentiegegevens van Allora willen gebruiken. Dit biedt een omgeving waarin ze de door Allora verstrekte gegevens eenvoudig kunnen integreren en gebruiken in hun diensten. Hierbij streeft Allora ernaar te functioneren als een middelste laag die AI-modellen verbindt met diensten/protocollen die inferentiegegevens nodig hebben. Het biedt AI-modelbeheerders kansen om inkomsten te genereren via AI-modellen en vestigt zich als een infrastructuur die de onpartijdige gegevens levert die diensten/protocollen nodig hebben. Laten we de gedetailleerde protocolarchitectuur van Allora bekijken om te begrijpen hoe Allora werkt en wat de onderscheidende kenmerken zijn.

    1. Protocolarchitectuur

In Allora kan iedereen specifieke onderwerpen opzetten en implementeren. Vier deelnemende entiteiten zijn betrokken bij het proces van het uitvoeren van inferentie en het afleiden van de uiteindelijke inferentiewaarden voor geïmplementeerde onderwerpen: Consumenten: Entiteiten die kosten betalen om inferentie aan te vragen voor specifieke onderwerpen. Workers: Entiteiten die AI-modellen beheren met behulp van hun databases en de door consumenten aangevraagde inferentie voor specifieke onderwerpen uitvoeren. Reputers: Entiteiten die evalueren door de door workers afgeleide gegevens te vergelijken met werkelijke waarden. Validators: Entiteiten die Allora-netwerkknooppunten beheren, transacties die door elke deelnemende entiteit worden gegenereerd verwerken en vastleggen. Het Allora-netwerk heeft een structuur die de entiteiten voor inferentie-uitvoering, evaluatie en validatie scheidt, met het netwerktoken ALLOalscentraalpunt.ALLO als centraal punt. ALLO wordt gebruikt als kosten voor inferentieaanvragen en incentives voor inferentie-uitvoering. Het verbindt netwerkdeelnemers soepel en wordt ook gestaked om de beveiliging te waarborgen. Als we naar het Allora-protocol kijken vanuit een functioneel perspectief, zullen we de rollen van elke laag – de inferentie-consumptielaag, de inferentie-syntheselaag en de consensuslaag – en de interacties tussen deelnemers gedetailleerd onderzoeken.

      1. Inferentie-consumptielaag

De inferentie-consumptielaag handelt de interacties af tussen protocoldeelnemers en het Allora-protocol, inclusief het aanmaken van onderwerpen, het beheer van onderwerpparticipanten en inferentieverzoeken. Gebruikers die een onderwerp willen aanmaken, kunnen communiceren met het beheersysteem voor onderwerpen en inferentie van Allora, de Topic Coordinator, door een bepaald bedrag aan $ALLO te betalen en een regelset in te stellen. Deze regelset definieert wat ze willen afleiden, samen met hoe ze werkelijke resultaten verifiëren en de door workers afgeleide inferentiewaarden evalueren.

Zodra een topic is aangemaakt, kunnen workers en reputers zich registreren als deelnemers aan de inferentie voor dat topic door registratiekosten te betalen in ALLOtokens.ReputersmoetendaarnaasteenbepaaldbedragaanALLO tokens. Reputers moeten daarnaast een bepaald bedrag aan ALLO inzetten op het topic, waardoor ze blootstaan aan 'slashing' van activa voor kwaadwillende validatie van resultaten. Nadat topics zijn aangemaakt en workers en reputers zijn geregistreerd, kunnen consumenten inferenties aanvragen door $ALLO te betalen aan het topic; workers en reputers ontvangen deze aanvraagkosten als compensatie voor het afleiden van inferentiewaarden.

2. 1. 2. Forecast & Synthesis Layer

De forecast en synthese-laag is de kernlaag van Allora voor het genereren van gedecentraliseerde inferenties. Hier voeren workers inferenties uit, evalueren reputers de prestaties en vinden gewichtstoewijzing en inferentie-synthese plaats op basis van deze evaluaties. Workers in het Allora-netwerk leveren niet alleen inferentiewaarden in voor topics die door consumenten zijn aangevraagd, maar ze evalueren ook de nauwkeurigheid van de inferenties van andere workers en leiden 'Forecasted Losses' af op basis van deze evaluaties. Deze voorspelde verliezen worden meegenomen in de gewichtsberekeningen die nodig zijn voor inferentie-synthese, en workers ontvangen hogere incentives zowel wanneer hun inferenties nauwkeurig zijn als wanneer ze nauwkeurig de inferentienauwkeurigheid van andere workers voorspellen. Door deze structuur kan Allora synthesegewichten voor inferenties afleiden die rekening houden met verschillende contextuele situaties, en niet alleen met de eerdere prestaties van workers.

Workers' inference accuracy prediction for context awareness; Bron: Allora Docs

Stel bijvoorbeeld dat we een topic hebben waarin de prijs van Bitcoin een uur later wordt voorspeld. We nemen het volgende aan over workers A en B:

  • Worker A: Heeft een hoge gemiddelde inferentienauwkeurigheid van 90%, maar vertoont verminderde nauwkeurigheid bij volatiele marktomstandigheden.
  • Worker B: Heeft een gemiddelde inferentienauwkeurigheid van 80%, maar behoudt relatief hoge nauwkeurigheid bij volatiele marktomstandigheden.

Als de huidige markt zeer volatiel is en meerdere workers voorspellen dat 'Worker B slechts ongeveer 5% fout zal hebben in deze voorspelling vanwege hun kracht in volatiele situaties', terwijl ze voorspellen dat 'Worker B verwacht wordt ongeveer 15% fout te hebben in deze volatiele situatie', zal Allora een hoger gewicht toewijzen aan de inferentie van Worker B voor deze voorspelling ondanks hun lagere gemiddelde historische prestaties. De Topic Coordinator synthetiseert inferenties met behulp van de eindgewichten die via dit proces zijn afgeleid en biedt de uiteindelijke inferentiewaarde aan de consument. Daarnaast worden tijdens dit proces 'betrouwbaarheidsintervallen' berekend en aangeboden op basis van de verdeling van de door workers ingediende inferentiewaarden.

Vervolgens vergelijken reputers de werkelijke resultaten met de uiteindelijke inferentiewaarden om de inferentieprestaties van elke worker en de nauwkeurigheid van het voorspellen van de inferentienauwkeurigheid van andere workers te evalueren. Ze passen de gewichten van workers aan via consensus op basis van ingezette aandelen. Allora voert inferentie-synthese en evaluatie uit via deze methode. Met name de structuur van 'contextbewustzijn', waarbij elke worker de inferentienauwkeurigheid van andere workers evalueert, draagt bij aan het verbeteren van de inferentienauwkeurigheid doordat Allora inferentiewaarden kan afleiden die zijn geoptimaliseerd voor elke situatie. Bovendien, naarmate de prestatiegegevens van de inferenties van workers zich ophopen, functioneert de contextbewustzijnfunctie efficiënter, waardoor de inferentiefunctie van Allora zich effectiever zelf kan verbeteren.

Allora's inference synthesis process; Bron: Allora Docs

De consensuslaag van Allora is waar berekeningen van topicgewichten, distributie van netwerkbeloningen en registratie van deelnemersactiviteiten plaatsvinden. Deze is gebouwd op de Cosmos SDK met CometBFT en DPoS (Delegated Proof of Stake) op basis van consensusmechanismen. Gebruikers kunnen deelnemen aan het Allora-netwerk als validators door ALLOtokensintezettenennodesteexploiteren.ZeontvangentransactiekostendiedoorAlloradeelnemerswordeningediendalsvergoedingvoorhetexploiterenvanhetnetwerkenhetwaarborgenvandebeveiliging.Zelfszondernodesteexploiteren,kunnengebruikersdezeincentivesindirectontvangendoorhunALLO tokens in te zetten en nodes te exploiteren. Ze ontvangen transactiekosten die door Allora-deelnemers worden ingediend als vergoeding voor het exploiteren van het netwerk en het waarborgen van de beveiliging. Zelfs zonder nodes te exploiteren, kunnen gebruikers deze incentives indirect ontvangen door hun ALLO te delegeren aan validators. Daarnaast beschikt Allora over inflatie-incentives voor ALLOdiewordenverdeeldovernetwerkdeelnemers.75ALLO die worden verdeeld over netwerkdeelnemers. 75% van de nieuw vrijgemaakte en gedistribueerde ALLO gaat naar workers en reputers die deelnemen aan topic-inferenties, en de resterende 25% naar validators. Deze inflatie-incentives stoppen zodra alle $ALLO is uitgegeven en volgen een structuur waarbij de vrijgemaakte hoeveelheden geleidelijk halveren. Wanneer de 75% inflatie-incentive wordt verdeeld over workers en reputers, wordt de verhouding bepaald niet alleen door de prestaties van workers en de inzet van reputers, maar ook door het 'topicgewicht'. Topicgewicht wordt berekend op basis van de inzetbedragen van reputers die deelnemen aan het topic en de omzet uit kosten, waardoor er een incentive is voor voortdurende deelname van workers en reputers aan topics met hoge vraag en stabiliteit.

3. Van On-chain naar Diverse Industrieën

3. 1. Allora nadert Mainnet Launch

Allora richtte op 10 januari 2025 de Allora Foundation op en accelereert richting de lancering van het mainnet na het voltooien van een openbare testnet met meer dan 300.000 deelnemende workers. Per 6 februari voeren ze de Allora Model Forge Competition uit om AI-modelcreators te selecteren voor het Allora-netwerk na de lancering van het mainnet.

Allora Model Forge Competition categories; Bron: Allora Model Forge Competition

Daarnaast gaat Allora partnerschappen aan met diverse projecten voorafgaand aan de lancering van het mainnet. De belangrijkste partnerprojecten en de functionaliteiten die Allora aan hen biedt, zijn als volgt:

  • Plume: Het leveren van RWA-prijsfeeds op het Plume-netwerk, real-time APY- en risicovoorspelling.
  • Story Protocol: Het leveren van IP-waardering en potentiële inzichten, prijsfeeds voor illiquide on-chain activa, Allora-inferentie voor Story Protocol-gebaseerde DeFi.
  • Monad: Het leveren van prijsfeeds voor illiquide on-chain activa, Allora-inferentie voor Monad-gebaseerde DeFi.
  • 0xScope: Ondersteuning bij de ontwikkeling van on-chain activiteiten-assistent AI Jarvis met behulp van de contextbewustzijnscapaciteiten van Allora.
  • Virtuals Protocol: Het verbeteren van de prestaties van agents door het integreren van Allora-inferentie met het G.A.M.E.-framework van Virtual Protocol.
  • Eliza OS (voorheen ai16z): Het verbeteren van de prestaties van agents door het integreren van Allora-inferentie met het Eliza-framework van Eliza OS.

Momenteel zijn de partnerschappen van Allora voornamelijk gericht op AI/crypto-projecten. Dit weerspiegelt twee belangrijke factoren: 1) een hoge vraag naar gedecentraliseerde inferentie van crypto-gebaseerde projecten, en 2) gemakkelijke toegang tot on-chain gegevens die noodzakelijk zijn voor AI-modellen om de vereiste inferenties uit te voeren. Voor de vroege lancering van het mainnet wordt verwacht dat Allora aanzienlijke inflatiebeloningen toewijst om deelnemers aan te trekken.

Om voortdurende activiteit te stimuleren van deelnemers die door deze inflatiebeloningen worden aangetrokken, moet Allora een passende waarde behouden voor ALLO.Aangezieninflatiebeloningenechterindeloopvandetijdgeleidelijkafnemen,isdelangetermijnuitdaginghetgenererenvanvoldoendenetwerktransactiekostenviatoenemendeinferentievraagomvoortdurendeprotocollendeelnametebelonen.Omhetpotentie¨lesuccesvanAlloratebeoordelen,ishetdaaromcruciaalomzoweldestrategievoorwaardestijgingvanALLO. Aangezien inflatiebeloningen echter in de loop van de tijd geleidelijk afnemen, is de langetermijnuitdaging het genereren van voldoende netwerktransactiekosten via toenemende inferentievraag om voortdurende protocollendeelname te belonen. Om het potentiële succes van Allora te beoordelen, is het daarom cruciaal om zowel de strategie voor waardestijging van ALLO op de korte termijn als het langetermijnvermogen om stabele inkomsten uit vergoedingen te waarborgen via inferentievraag nauwlettend in de gaten te houden.

4. Conclusie

Naarmate AI-technologie vordert en haar nut bewijst, neemt de adoptie en implementatie van AI-inferentie actief toe in de meeste industrieën. Het resource-intensieve karakter van AI-adoptie vergroot echter de competitieve kloof tussen grote corporaties die AI succesvol hebben geïmplementeerd en kleinere bedrijven die dit niet kunnen. In deze omgeving wordt verwacht dat de vraag naar de mogelijkheden van Allora – het leveren van themageoptimaliseerde inferenties en zelfverbeterende data-nauwkeurigheid via decentralisatie – geleidelijk zal toenemen. Allora streeft ernaar een breed geadopteerde gedecentraliseerde inferentie-infrastructuur te worden in alle sectoren, maar het realiseren van deze visie vereist het bewijzen van zowel functionele effectiviteit als duurzaamheid. Om dit aan te tonen, moet Allora voldoende workers en reputers veiligstellen vanaf de lancering van de mainnet en zorgen voor duurzame prikkels voor deze netwerkdeelnemers. Als Allora deze uitdagingen succesvol aanpakt en adoptie in verschillende industrieën bereikt, zal dit niet alleen het potentieel van blockchain als essentiële AI-infrastructuur aantonen, maar ook dienen als een belangrijk voorbeeld van hoe de combinatie van AI en blockchain – twee technologieën die momenteel de IT-industrie leiden – echte waarde voor de mensheid kan bieden.

Referenties

Allora Whitepaper Allora Docs Allora Blog

Exchanges

Top exchanges — handmatig geselecteerd voor traders

Allora: Gedecentraliseerde AI-inferentie via synthese