Tulevaisuus LLM:n jälkeen: miksi pienet mallit ja hyvä data ovat avainasemassa? 】 Viimeisen kahden vuoden aikana LLM:istä (suurista kielimalleista) on tullut synonyymejä tekoälymaailmalle, ja kaikki GPT:stä Claudeen, Kaksosista laamaan kilpailevat parametrien määrästä, emergenssistä ja päättelyrajoista. Mutta kun teknologiavimma palaa jäähtymään, on syntymässä uusi trendi, jossa pienistä kielimalleista (SLM) ja korkealaatuisesta datasta on tulossa tekoälyn evoluution seuraavan vaiheen todellinen painopiste. Tässä artikkelissa tarkastellaan tuoreella tavalla OpenLedgerin keskeistä roolia tässä trendissä ja pohditaan kilpailevia kryptovaluuttoja "LLM:n jälkeisellä aikakaudella". 1. Suurten mallien pullonkaula: ei mitä suuremmat parametrit, sitä parempi Ei ole epäilystäkään siitä, että suuret mallit ovat aloittaneet tekoälyn uuden aikakauden. Kuitenkin, kun LLM:iä pinotaan ja laajennetaan edelleen, useat pullonkaulat tulevat selvemmiksi: (1) Päättelykustannukset ovat liian korkeat: suuret mallit vaativat yleensä kalliita laskentaresursseja, jotka eivät sovellu reunan käyttöönottoon tai korkeataajuisiin puheluihin; (2) Hidas vastausnopeus: erityisesti monimutkaisissa päättely- tai pitkäkestoisissa kontekstinkäsittelyskenaarioissa on viiveitä ja tehottomuutta; (3) "Keskimääräisen" dilemma: suuret mallit tavoittelevat monipuolisuutta, mutta niillä ei ole kykyä vastata tarkasti vertikaalisiin alueongelmiin; (4) Tiedot eivät ole jäljitettävissä: Mallin koulutusprosessissa käytetyt tiedot ovat usein ristiriitaisia, ja niissä on puolueellisuutta, väärinkäyttöä ja läpinäkymättömyyttä. Nämä ongelmat eivät ainoastaan rajoita LLM:ien laajamittaista käyttöönottoa, vaan tarjoavat myös läpimurron SLM:lle ja datavetoisille innovaatiojärjestelmille. Toiseksi pienen mallin aikakauden edut: kevyt, ammattimainen, hallittava SLM:n nousu ei ole sattumaa, vaan heijastus suurten mallien epätaloudellisesta ja epäluotettavasta luonteesta. Useissa todellisissa skenaarioissa SLM:llä on seuraavat edut: (1) Muokattavissa: Sitä voidaan hienosäätää tiettyjen tehtävien ympärille (kuten asiakaspalvelu, tapahtumat, käännös jne.), ja suorituskyky on keskittyneempi; (2) Alhaiset kustannukset: Päättelykustannukset ovat pienemmät, ja ne soveltuvat käyttöön paikallisissa, matkapuhelimissa tai reunasolmuissa. (3) Vahva hallittavuus: koulutusprosessi on lyhyempi ja käytetty tietolähde voidaan kirjata selkeästi, mikä edistää jäljitettävyyttä ja vaatimustenmukaisuutta. (4) Hajautettu käyttöönotto: Web3-ympäristöön on helpompi upottaa kutsuttavien ja tarkastettavien mallien verkoston muodostamiseksi ketjuun. Tämä suuntaus on myös syvästi linjassa OpenLedgerin suunnittelufilosofian kanssa. 3. OpenLedgerin kanta: Malliparadigman keksiminen uudelleen "hyvän datan" avulla. OpenLedger ei kilpaile suoraan LLM:ien mallikerroksen kanssa, vaan päättää refaktoroida tietojärjestelmät alhaalta ylöspäin palvellakseen SLM:n nousua. Sen ydinlogiikka on: (1) Tee datasta "arvokasta": PoA-mekanismin ja Datanets-verkon kautta se tarjoaa luotettavaa, jäljitettävää ja vaihdettavaa dataomaisuutta tekoälymalleille; (2) Kannusta mallin avoimuutta: Maksullinen tekoälytila mahdollistaa SLM:n kutsumisen ja yhdistämisen tehtäviin, ja tulot jaetaan käytön mukaan; (3) Kannustimet todellisiin panoksiin: Mainejärjestelmän ja kannustinmekanismin kautta datan tuottajien, mallien kehittäjien ja soittajien edut ovat sidottuja. Tämä tarkoittaa, että OpenLedger rakentaa avointa ekosysteemiä "pienen mallin + hyvän datan" ympärille, mikä tarjoaa rakenteellisen täydennyksen LLM:n jälkeiselle aikakaudelle. Neljänneksi tulevaisuuskuva: "suuresta ja kattavasta" "pieneen ja erikoistuneeseen" On odotettavissa, että tekoälyn tulevaisuus ei ole yhden koon malli, vaan "pienoisälykkäiden yksiköiden" verkosto, joka pyörii skenaarioiden ympärillä. Nämä pienet mallit: (1) Muodosta yhteys korkealaatuisiin tietolähteisiin sen sijaan, että luottaisit Internet-kohinan sieppaamiseen; (2) tarkistaa koulutusprosessi ja puheluhistoria ketjun sisäisen mekanismin avulla uskottavuuden lisäämiseksi; (3) Yhdistäminen eri sovellusprotokolliin (DeFi, GameFi, sosiaalinen verkostoituminen jne.) tekoälypohjaisen Web3-työkalukerroksen rakentamiseksi. OpenLedger rakentaa infrastruktuuria tälle trendille: se ei ole volyymiparametreissa, vaan volyymin "data-arvon tunnistusmekanismissa" ja "kannustimien jakelumallissa", joka on pohjimmiltaan julkinen alusta, joka tarjoaa luotettavan maaperän tekoälymalleille. OpenLedgerin tavoitteena ei ole tehdä seuraavaa GPT:tä, vaan tarjota taustalla olevaa tukea tiedonkululle, maineen tunnistamiselle ja kannustimia seuraavan sukupolven SLM:ille. Vanhan "parametrit ovat valtaa" -paradigman ulkopuolella se yrittää vastata perustavanlaatuisempaan kysymykseen: "Kuka voi tarjota uskottavan pohjan tekoälyn tulevaisuudelle?" Uudessa syklissä, jossa mallit eivät ole enää kaikkivoipia ja data on kriittistä, OpenLedger on oikeassa narratiivin käännekohdassa. @OpenledgerHQ @cookiedotfun #OpenLedger #COOKIE #全面拆解OpenLedger系列
Näytä alkuperäinen
10,81 t.
50
Tällä sivulla näytettävä sisältö on kolmansien osapuolten tarjoamaa. Ellei toisin mainita, OKX ei ole lainatun artikkelin / lainattujen artikkelien kirjoittaja, eikä OKX väitä olevansa materiaalin tekijänoikeuksien haltija. Sisältö on tarkoitettu vain tiedoksi, eikä se edusta OKX:n näkemyksiä. Sitä ei ole tarkoitettu minkäänlaiseksi suositukseksi, eikä sitä tule pitää sijoitusneuvontana tai kehotuksena ostaa tai myydä digitaalisia varoja. Siltä osin kuin yhteenvetojen tai muiden tietojen tuottamiseen käytetään generatiivista tekoälyä, tällainen tekoälyn tuottama sisältö voi olla epätarkkaa tai epäjohdonmukaista. Lue aiheesta lisätietoa linkitetystä artikkelista. OKX ei ole vastuussa kolmansien osapuolten sivustojen sisällöstä. Digitaalisten varojen, kuten vakaakolikoiden ja NFT:iden, omistukseen liittyy suuri riski, ja niiden arvo voi vaihdella merkittävästi. Sinun tulee huolellisesti harkita, sopiiko digitaalisten varojen treidaus tai omistus sinulle taloudellisessa tilanteessasi.