Desentralisert AI: Seks operatører under radaren som omkobler databehandling, personvern og eierskap Web3 har ingen mangel på støy, men arbeidet som betyr noe skjer der team løser gjenstridige infrastrukturhull: • Verifiserbar databehandling, • Datasuverenitet, og • Tilpassede insentiver. Nedenfor er en feltguide til seks slike byggere hvis trekkraft allerede antyder neste trinnendring for AI. 👇 --- Numerai (@numerai ): Crowd Intelligence, Collateralized San Franciscos Numerai gjør en global datavitenskapsturnering til et live hedgefond. Bidragsytere sender inn krypterte spådommer og satser $NMR. Protokollen samler dem i en enkelt metamodell og dimensjonerer automatisk posisjoner i amerikanske aksjer. Utbetalinger sporer PnL i den virkelige verden, mens dårlige modeller mister innsatsen sin, og skaper det grunnlegger @richardcraib kaller «skin-in-the-math». Numerai har nå samlet inn omtrent 32,8 millioner dollar, med over 150 millioner dollar i staket NMR, og deler ut sekssifrede summer i ukentlige belønninger til tusenvis av pseudonyme kvanter. --- Gensyn (@gensynai ): Bevis på læring i skyskala GPU-markedene er forvrengt, men Gensyn omgår veisperringene ved å rekruttere inaktiv maskinvare og verifisere arbeidet med optimistiske kontroller og null-kunnskap "proof-of-learning". Utviklere sender inn en opplæringsjobb, jevnaldrende gjør de tunge løftene, og korrekthet avgjøres på kjeden før betalingen er klarert. London-mannskapet banket omtrent 43 millioner dollar fra a16z-krypto og andre og sikter mot LLM-finjustering, der databehandling er både knapp og dyr. --- MyShell (@myshell_ai ): Brukereide agenter som digitale varer MyShell gir skapere et kodefritt studio for å bygge stemmeassistenter, spill-NPC-er eller produktivitetsroboter, og deretter pakke dem som NFT-er og tjene $SHELL token-royalties når andre distribuerer eller remikser dem. Prosjektet har tiltrukket seg over 1 millioner+ brukere og 16.6 millioner dollar i finansiering, som et forbrukervendt lag for personlig AI som er bærbar på tvers av apper. Ingen API-nøkkel, ingen portvokter. --- (@flock_io ): Føderert læring for personvernbevarende modeller I sektorer der data aldri kan forlate enheten, for eksempel sykehus eller smartfabrikksensorer, orkestrerer FLock småspråksmodelltrening på tvers av tusenvis av noder. Hver oppdatering verifiseres med ZK-bevis før den bygges inn i den globale modellen, og bidragsytere tjener $FLO tokens i forhold til bevist nytteverdi. En ny runde på 3 millioner dollar ledet av DCG bringer den totale finansieringen til 11 millioner dollar og støtter piloter innen medisinsk bildebehandling og industriell IoT. --- Ritual (@ritualnet ): En suveren L1 for AI-arbeidsbelastninger Ritual bygger et lag 1 der modeller lever som smarte kontrakter, versjonerte, styrbare og oppgraderbare via token-stemmegivning. Eksekutorer utenfor kjeden håndterer den tunge matematikken, mater resultatene tilbake på kjeden og samler inn gebyrer. Designet lover feilisolering hvis en modell ikke fungerer, slik at styringen kan rulle den tilbake uten å stoppe nettverket. Investorer har støttet tesen med en serie A på 25 millioner dollar. --- Sahara AI (@SaharaLabsAI): Agenter med delt minne Sahara distribuerer autonome agenter på et peer-to-peer-substrat og lagrer deres utviklende kunnskapsgrafer på kjeden, slik at ethvert resonnementtrinn kan revideres. Bidragsytere som laster opp fakta av høy kvalitet tjener tokenbelønninger, forbedrer grafen og agentene som er avhengige av den. Selskapet har sikret seg rundt 49 millioner dollar, inkludert en Pantera-ledet serie A, og kjører tidlige forsyningskjedeanalysepiloter der ugjennomsiktige leverandørdata tidligere stoppet AI-adopsjonen. --- Strategiske signaler • Kostnadspress over hype: Hvert prosjekt bøyer enhetsøkonomien i sin favør. @numerai ved å eksternalisere FoU, @gensynai ved å arbitrere ubrukt silisium, @flock_io ved å eliminere datamigreringskostnader. • Verifiserbarhet som vollgrav: Nullkunnskapsattestering, innsats eller revisjonslogger på kjeden konverterer tillit til matematikk, og fraråder kopikatter uten lignende forskningsdybde. • Composable Edges: @myshell_ai agent-NFT-er kan plugges rett inn i Rituals utførelseslag eller konsumere data fra Saharas grafer, i en stabel der herkomst reiser med modellen. --- Risikologg Token-insentivstandarder, gjennomstrømningsgrenser for bevis og en etablert sky klar til å matche priser er alle store. Sikringen: Tilbake team hvis veikart gradvis migrerer fra off-chain til on-chain primitive, og som måler suksess i løste forretningsproblemer, ikke tokendiagrammer. --- Takeaway Desentralisert AI kommer ikke med én flaggskipkjede. Det vil sive inn gjennom praktiske gevinster som billigere treningssykluser, crowd-sourcede alfasignaler og personvernbevarende distribusjoner. Byggherrene ovenfor selger allerede disse gevinstene. Spor beregningene deres, ikke memene deres, og du vil se kurven før den blir konsensus. Takk for at du leste!
AI-sentralisering vs desentralisering: Hva er verdt å spille? Se for deg to arenaer: den ene domineres av teknologigiganter som driver massive datasentre, trener grensemodeller og setter reglene. Den andre distribuerer databehandling, data og beslutningstaking på tvers av millioner av gruvearbeidere, edge-enheter og åpne fellesskap. Hvor du velger å bygge eller investere avhenger av hvilken arena du tror vil fange den neste bølgen av verdi, eller om den virkelige muligheten ligger i å bygge bro over begge. --- Hva sentralisering og desentralisering betyr i AI Sentralisert AI finnes først og fremst i hyperskala skyplattformer som AWS, Azure og Google Cloud, som kontrollerer flertallet av GPU-klynger og har en andel på 68 % av det globale skymarkedet. Disse leverandørene trener store modeller, holder vekter lukket eller under restriktive lisenser (som sett med OpenAI og Anthropic), og bruker proprietære datasett og eksklusive datapartnerskap. Styring er vanligvis selskapsmessig og styres av styrer, aksjonærer og nasjonale regulatorer. På den annen side distribuerer desentralisert AI beregning gjennom peer-to-peer GPU-markeder, som @akashnet_ og @rendernetwork, samt inferensnettverk på kjeden som @bittensor_. Disse nettverkene tar sikte på å desentralisere både opplæring og slutning. --- Hvorfor sentralisering fortsatt dominerer Det er strukturelle årsaker til at sentralisert AI fortsetter å lede. Å trene en grensemodell, for eksempel en flerspråklig modell med 2 billioner parametere, krever over 500 millioner dollar i maskinvare, elektrisitet og menneskelig kapital. Svært få enheter kan finansiere og gjennomføre slike forpliktelser. I tillegg stiller regulatoriske forpliktelser som US Executive Order on AI og EU AI Act strenge krav rundt red-teaming, sikkerhetsrapporter og åpenhet. Å møte disse kravene skaper en samsvarsgrav som favoriserer ressurssterke etablerte aktører. Sentralisering gir også mulighet for strammere sikkerhetsovervåking og livssyklusstyring på tvers av opplærings- og distribusjonsfaser. --- Sentraliserte modellsprekker Likevel har denne dominansen sårbarheter. Det er økende bekymring for konsentrasjonsrisiko. I Europa har ledere fra 44 store selskaper advart regulatorer om at EUs AI Act utilsiktet kan forsterke amerikanske skymonopoler og begrense regional AI-utvikling. Eksportkontroller, spesielt USA-ledede GPU-restriksjoner, begrenser hvem som kan få tilgang til avansert databehandling, og oppmuntrer land og utviklere til å se mot desentraliserte eller åpne alternativer. I tillegg har API-priser for proprietære modeller sett flere økninger siden 2024. Disse monopolleiene motiverer utviklere til å vurdere rimeligere, åpne eller desentraliserte løsninger. --- Desentralisert AI Vi har databehandlingsmarkeder på kjeden som Akash, Render og @ionet som gjør det mulig for GPU-eiere å leie ut ubrukt kapasitet til AI-arbeidsbelastninger. Disse plattformene utvides nå til å støtte AMD GPUer og jobber med bevis på arbeidsbelastningsnivå for å garantere ytelse. Bittensor stimulerer validatorer og modellløpere gjennom $TAO token. Føderert læring blir stadig mer populært, hovedsakelig innen helsevesen og finans, ved å muliggjøre samarbeidsopplæring uten å flytte sensitive rådata. Proof-of-inference og nullkunnskapsmaskinlæring muliggjør verifiserbare modellutdata selv når de kjører på ikke-klarert maskinvare. Dette er grunnleggende trinn for desentraliserte, tillitsløse API-er for kunstig intelligens. --- Hvor den økonomiske muligheten ligger På kort sikt (i dag til 18 måneder) er fokuset på applikasjonslagsinfrastruktur. Verktøy som lar bedrifter enkelt bytte mellom OpenAI, Anthropic, Mistral eller lokale modeller med åpen vekt vil være verdifulle. På samme måte får finjusterte studioer som tilbyr regulatoriske versjoner av åpne modeller under bedrifts-SLAer gjennomslag. På mellomlang sikt (18 måneder til 5 år) vil desentraliserte GPU-nettverk spiralere inn ettersom tokenprisene deres gjenspeiler faktisk bruk. I mellomtiden vil undernettverk i Bittensor-stil fokusert på spesialiserte oppgaver, som risikoscoring eller proteinfolding, skalere effektivt gjennom nettverkseffekter. På lang sikt (5+ år) vil edge AI sannsynligvis dominere. Telefoner, biler og IoT-enheter vil kjøre lokale LLM-er som er opplært gjennom føderert læring, noe som reduserer ventetid og skyavhengighet. Dataeierskapsprotokoller vil også dukke opp, slik at brukere kan tjene mikroroyalties ettersom enhetene deres bidrar med gradienter til globale modelloppdateringer. --- Hvordan identifisere vinnerne Prosjekter som sannsynligvis vil lykkes, vil ha en sterk teknisk vollgrav, og løse problemer rundt båndbredde, verifisering eller personvern på en måte som gir forbedringer i størrelsesordener. Økonomiske svinghjul må være godt utformet. Høyere bruk bør finansiere bedre infrastruktur og bidragsytere, ikke bare subsidiere gratispassasjerer. Styring er avgjørende. Token-stemmegivning alene er skjør, se i stedet etter råd med flere interessenter, progressive desentraliseringsveier eller token-modeller med to klasser. Til slutt, økosystem er viktig. Protokoller som integreres tidlig med utviklerverktøykjeder, vil forsterke adopsjonen raskere. --- Strategiske spill For investorer kan det være lurt å sikre seg og holde eksponering mot både sentraliserte APIer (for stabil avkastning) og desentraliserte tokens (for asymmetrisk oppside). For byggere er abstraksjonslag som tillater sanntidsveksling mellom sentraliserte og desentraliserte endepunkter, basert på ventetid, kostnad eller samsvar, en mulighet med høy innflytelse. De mest verdifulle mulighetene ligger kanskje ikke ved polene, men i bindevevet: protokoller, orkestreringslag og kryptografiske bevis som lar arbeidsbelastninger rute fritt innenfor både sentraliserte og desentraliserte systemer. Takk for at du leste!
Vis originalen
2,14k
18
Innholdet på denne siden er levert av tredjeparter. Med mindre annet er oppgitt, er ikke OKX forfatteren av de siterte artikkelen(e) og krever ingen opphavsrett til materialet. Innholdet er kun gitt for informasjonsformål og representerer ikke synspunktene til OKX. Det er ikke ment å være en anbefaling av noe slag og bør ikke betraktes som investeringsråd eller en oppfordring om å kjøpe eller selge digitale aktiva. I den grad generativ AI brukes til å gi sammendrag eller annen informasjon, kan slikt AI-generert innhold være unøyaktig eller inkonsekvent. Vennligst les den koblede artikkelen for mer detaljer og informasjon. OKX er ikke ansvarlig for innhold som er vert på tredjeparts nettsteder. Beholdning av digitale aktiva, inkludert stablecoins og NFT-er, innebærer en høy grad av risiko og kan svinge mye. Du bør nøye vurdere om handel eller innehav av digitale aktiva passer for deg i lys av din økonomiske tilstand.