Fremtiden utover LLM-er: Hvorfor er små modeller og gode data nøkkelen? 】 I løpet av de siste to årene har LLM-er (store språkmodeller) blitt synonymt med AI-verdenen, med alle fra GPT til Claude, Gemini til Llama, som konkurrerer om antall parametere, fremvekst og slutningsgrenser. Men etter hvert som teknologivanviddet kommer tilbake til kjølighet, dukker det opp en ny trend – der små språkmodeller (SLM-er) og data av høy kvalitet blir det virkelige fokuset i neste fase av AI-utviklingen. Denne artikkelen vil ta en ny titt på nøkkelrollen som OpenLedger spiller i denne trenden og tenke på konkurrerende kryptovalutaer i "post-LLM-æraen". 1. Flaskehalsen til store modeller: ikke jo større parametere, jo bedre Det er ingen tvil om at store modeller har innledet en ny æra av AI. Men etter hvert som LLM-er stables og utvides ytterligere, blir flere flaskehalser mer tydelige: (1) Slutningskostnaden er for høy: store modeller krever generelt dyre dataressurser, som ikke er egnet for edge-distribusjon eller høyfrekvente samtaler; (2) Langsom responshastighet: spesielt i komplekse resonnementer eller lange kontekstbehandlingsscenarier er det forsinkelser og ineffektivitet; (3) Dilemmaet med "gjennomsnittlig": store modeller forfølger allsidighet, men mangler evnen til å reagere nøyaktig på vertikale domeneproblemer; (4) Data er ikke sporbare: Dataene som brukes i modelltreningsprosessen er ofte blandet, med skjevheter, misbruk og ugjennomsiktighet. Disse problemene begrenser ikke bare den storstilte implementeringen av LLM-er, men gir også et gjennombrudd for SLM og datadrevne innovasjonssystemer. For det andre, fordelene med den lille modellæraen: lett, profesjonell, kontrollerbar Fremveksten av SLM er ikke tilfeldig, men en refleksjon over den uøkonomiske og upålitelige naturen til store modeller. I flere virkelige scenarier har SLM følgende fordeler: (1) Tilpassbar: Den kan finjusteres rundt spesifikke oppgaver (som kundeservice, transaksjoner, oversettelse, etc.), og ytelsen er mer fokusert; (2) Lav kostnad: Inferensoverhead er mindre, og den er egnet for distribusjon på lokale, mobiltelefoner eller kantnoder. (3) Sterk kontrollerbarhet: opplæringsprosessen er kortere, og datakilden som brukes kan registreres tydelig, noe som bidrar til sporbarhet og samsvar; (4) Desentralisert distribusjon: Det er lettere å bygge inn i Web3-miljøet for å danne et nettverk av kallbare og reviderbare modeller på kjeden. Denne trenden er også dypt på linje med OpenLedgers designfilosofi. 3. OpenLedgers posisjon: Gjenoppfinne modellparadigmet med "gode data". OpenLedger konkurrerer ikke direkte med modelllaget av LLM-er, men velger å refaktorere datasystemer nedenfra og opp for å betjene fremveksten av SLM. Kjernelogikken er: (1) Gjør data "verdifulle": Gjennom PoA-mekanismen og Datanets-nettverket gir den pålitelige, sporbare og omsettelige dataressurser for AI-modeller; (2) Oppmuntre til modellåpenhet: Betalbar AI-modus gjør det mulig å påkalle SLM og koble til oppgaver, og inntektene fordeles i henhold til bruk; (3) Insentiver for reelle bidrag: Gjennom omdømmesystemet og insentivmekanismen er interessene til dataprodusenter, modellutviklere og innringere bundet. Dette betyr at OpenLedger bygger et åpent økosystem rundt "liten modell + gode data", som gir et strukturelt supplement for post-LLM-æraen. For det fjerde, fremtidsbildet: fra "stort og omfattende" til "lite og spesialisert" Det er forutsigbart at fremtiden til AI ikke vil være en modell som passer alle, men et nettverk av "miniatyrintelligente enheter" som dreier seg om scenarier. Disse små modellene vil: (1) Koble til datakilder av høy kvalitet, i stedet for å stole på å fange opp Internett-støy; (2) verifisere opplæringsprosessen og anropshistorikken gjennom on-chain-mekanismen for å øke troverdigheten; (3) Kobling med forskjellige applikasjonsprotokoller (DeFi, GameFi, sosiale nettverk, etc.) for å bygge et AI-drevet Web3-verktøylag. OpenLedger bygger infrastrukturen for denne trenden: det er ikke i volumparametrene, men i volumet «dataverdigjenkjenningsmekanisme» og «insentivdistribusjonsmodell», som i hovedsak er en offentlig plattform som gir en pålitelig jord for AI-modeller. OpenLedgers ambisjon er ikke å lage den neste GPT, men å gi den underliggende støtten for dataflyten, omdømmegjenkjenning og insentiver for neste generasjon SLM-er. Utenfor det gamle paradigmet om "parametere er makt", prøver den å svare på et mer grunnleggende spørsmål: «Hvem kan gi troverdig grunnlag for fremtiden til AI?» I en ny syklus der modeller ikke lenger er allmektige og data er kritiske, er OpenLedger ved riktig narrativ vendepunkt. @OpenledgerHQ @cookiedotfun #OpenLedger #COOKIE #全面拆解OpenLedger系列
Vis originalen
10,79k
50
Innholdet på denne siden er levert av tredjeparter. Med mindre annet er oppgitt, er ikke OKX forfatteren av de siterte artikkelen(e) og krever ingen opphavsrett til materialet. Innholdet er kun gitt for informasjonsformål og representerer ikke synspunktene til OKX. Det er ikke ment å være en anbefaling av noe slag og bør ikke betraktes som investeringsråd eller en oppfordring om å kjøpe eller selge digitale aktiva. I den grad generativ AI brukes til å gi sammendrag eller annen informasjon, kan slikt AI-generert innhold være unøyaktig eller inkonsekvent. Vennligst les den koblede artikkelen for mer detaljer og informasjon. OKX er ikke ansvarlig for innhold som er vert på tredjeparts nettsteder. Beholdning av digitale aktiva, inkludert stablecoins og NFT-er, innebærer en høy grad av risiko og kan svinge mye. Du bør nøye vurdere om handel eller innehav av digitale aktiva passer for deg i lys av din økonomiske tilstand.