Framtiden bortom LLM: Varför är små modeller och bra data nyckeln? 】 Under de senaste två åren har LLM:er (large language models) blivit synonyma med AI-världen, där alla från GPT till Claude, Gemini till Llama, tävlar om antalet parametrar, emergens och inferensgränser. Men i takt med att teknikhysterin återgår till att svalna växer en ny trend fram – där små språkmodeller (SLM) och data av hög kvalitet blir det verkliga fokuset för nästa fas i AI-utvecklingen. Den här artikeln kommer att ta en ny titt på den nyckelroll som OpenLedger spelar i denna trend och tänka på konkurrerande kryptovalutor i "post-LLM-eran". 1. Flaskhalsen för stora modeller: ju större parametrar, desto bättre Det råder ingen tvekan om att stora modeller har inlett en ny era av AI. Men i takt med att LLM:er staplas och utökas ytterligare blir flera flaskhalsar mer uppenbara: (1) Inferenskostnaden är för hög: stora modeller kräver i allmänhet dyra datorresurser, som inte är lämpliga för gränsdistribution eller högfrekventa anrop; (2) Långsam svarshastighet: särskilt i komplexa resonemang eller scenarier med lång kontextbearbetning finns det förseningar och ineffektivitet; (3) Dilemmat med "genomsnittet": stora modeller strävar efter mångsidighet men saknar förmågan att exakt svara på vertikala domänproblem; (4) Data är inte spårbara: De data som används i modellträningsprocessen är ofta blandade, med bias, missbruk och opacitet. Dessa problem begränsar inte bara den storskaliga implementeringen av LLM, utan ger också ett genombrott för SLM och datadrivna innovationssystem. För det andra, fördelarna med den lilla modelleran: lätt, professionell, kontrollerbar Uppkomsten av SLM är inte en tillfällighet, utan en återspegling av den oekonomiska och opålitliga karaktären hos stora modeller. I flera verkliga scenarier uppvisar SLM följande fördelar: (1) Anpassningsbar: Den kan finjusteras kring specifika uppgifter (som kundservice, transaktioner, översättning, etc.), och prestandan är mer fokuserad; (2) Låg kostnad: Slutsatsdragningskostnaderna är mindre och lämpar sig för distribution på lokala, mobiltelefoner eller gränsnoder. (3) Stark kontrollerbarhet: utbildningsprocessen är kortare och den datakälla som används kan registreras tydligt, vilket bidrar till spårbarhet och efterlevnad. (4) Decentraliserad distribution: Det är lättare att bädda in i Web3-miljön för att bilda ett nätverk av anropsbara och granskningsbara modeller i kedjan. Denna trend är också djupt i linje med OpenLedgers designfilosofi. 3. OpenLedgers position: Att återuppfinna modellparadigmet med "bra data". OpenLedger konkurrerar inte direkt med modelllagret för LLM, utan väljer att omstrukturera datasystem från botten och upp för att tjäna framväxten av SLM. Dess kärnlogik är: (1) Gör data "värdefulla": Genom PoA-mekanismen och Datanets-nätverket tillhandahåller den pålitliga, spårbara och handelsbara datatillgångar för AI-modeller; (2) Uppmuntra modellens öppenhet: Payable AI-läget gör det möjligt att anropa SLM och koppla det till uppgifter, och intäkterna fördelas enligt användning; (3) Incitament för verkliga bidrag: Genom ryktessystemet och incitamentsmekanismen är dataproducenters, modellutvecklares och uppringares intressen bundna. Detta innebär att OpenLedger bygger ett öppet ekosystem kring "liten modell + bra data", vilket ger ett strukturellt komplement för post-LLM-eran. För det fjärde, framtidsbilden: från "stor och heltäckande" till "liten och specialiserad" Det är förutsägbart att framtiden för AI inte kommer att vara en modell som passar alla, utan ett nätverk av "intelligenta miniatyrenheter" som kretsar kring scenarier. Dessa små modeller kommer att: (1) Anslut till datakällor av hög kvalitet, snarare än att förlita dig på att fånga internetbrus; (2) verifiera utbildningsprocessen och samtalshistoriken genom on-chain-mekanismen för att öka trovärdigheten; (3) Koppling till olika applikationsprotokoll (DeFi, GameFi, sociala nätverk, etc.) för att bygga ett AI-drivet Web3-verktygslager. OpenLedger bygger infrastrukturen för denna trend: det ligger inte i volymparametrarna, utan i volymens "mekanism för igenkänning av datavärde" och "incitamentdistributionsmodell", som i huvudsak är en offentlig plattform som ger en pålitlig jordmån för AI-modeller. OpenLedgers ambition är inte att göra nästa GPT, utan att tillhandahålla det underliggande stödet för dataflödet, ryktesigenkänning och incitament för nästa generations SLM:er. Utanför det gamla paradigmet "parametrar är makt" försöker den svara på en mer grundläggande fråga: "Vem kan ge en trovärdig grund för AI:s framtid?" I en ny cykel där modeller inte längre är allsmäktiga och data är avgörande, är OpenLedger vid rätt narrativ brytpunkt. @OpenledgerHQ @cookiedotfun #OpenLedger #COOKIE #全面拆解OpenLedger系列
Visa original
10,81 tn
50
Innehållet på den här sidan tillhandahålls av tredje part. Om inte annat anges är OKX inte författare till den eller de artiklar som citeras och hämtar inte någon upphovsrätt till materialet. Innehållet tillhandahålls endast i informationssyfte och representerar inte OKX:s åsikter. Det är inte avsett att vara ett godkännande av något slag och bör inte betraktas som investeringsrådgivning eller en uppmaning att köpa eller sälja digitala tillgångar. I den mån generativ AI används för att tillhandahålla sammanfattningar eller annan information kan sådant AI-genererat innehåll vara felaktigt eller inkonsekvent. Läs den länkade artikeln för mer detaljer och information. OKX ansvarar inte för innehåll som finns på tredje parts webbplatser. Innehav av digitala tillgångar, inklusive stabila kryptovalutor och NFT:er, innebär en hög grad av risk och kan fluktuera kraftigt. Du bör noga överväga om handel med eller innehav av digitala tillgångar är lämpligt för dig mot bakgrund av din ekonomiska situation.