Майбутнє за межами LLM: чому маленькі моделі та якісні дані є ключовими? 】
За останні два роки LLM (великі мовні моделі) стали синонімами світу штучного інтелекту, коли всі, від GPT до Claude, від Gemini до Llama, змагаються за кількість параметрів, межі випливності та висновків. Але в міру того, як технологічне божевілля повертається до охолодження, з'являється нова тенденція, коли невеликі мовні моделі (SLM) і високоякісні дані стають справжнім фокусом наступного етапу еволюції штучного інтелекту.
У цій статті ми по-новому розглянемо ключову роль, яку OpenLedger відіграє в цій тенденції, і поміркуємо про конкуруючі криптовалюти в «епоху після LLM».
1. Вузьке місце великих моделей: не чим більше параметри, тим краще
Немає сумнівів, що великі моделі відкрили нову еру штучного інтелекту. Однак у міру того, як LLM все більше складаються та розширюються, численні вузькі місця стають більш очевидними:
(1) Вартість висновків занадто висока: великі моделі, як правило, вимагають дорогих обчислювальних ресурсів, які не підходять для розгортання на периферії або високочастотних дзвінків;
(2) Повільна швидкість реакції: особливо в складних міркуваннях або сценаріях з довгою обробкою контексту спостерігаються затримки та неефективність;
(3) Дилема «середнього»: великі моделі прагнуть до універсальності, але їм не вистачає здатності точно реагувати на проблеми вертикальної області;
(4) Дані неможливо відстежити: дані, що використовуються в процесі навчання моделі, часто змішані, з упередженістю, зловживаннями та непрозорістю.
Ці проблеми не тільки обмежують широкомасштабне впровадження LLM, але й забезпечують прорив для SLM та інноваційних систем, керованих даними.
По-друге, переваги епохи малих моделей: легкий, професійний, керований
Поява SLM не випадкова, а відображення неекономічності та ненадійності великих моделей. У кількох реальних сценаріях SLM демонструє такі переваги:
(1) Настроюється: його можна точно налаштувати для конкретних завдань (таких як обслуговування клієнтів, транзакції, переклад тощо), а продуктивність є більш цілеспрямованою;
(2) Низька вартість: накладні витрати на висновок менші, і вони підходять для розгортання на локальних, мобільних телефонах або периферійних вузлах.
(3) Сильна керованість: процес навчання коротший, а використовуване джерело даних може бути чітко записано, що сприяє простежуваності та відповідності;
(4) Децентралізоване розгортання: Легше вбудовувати в середовище Web3, щоб сформувати мережу моделей, які можна викликати та перевірити, у ланцюжку.
Ця тенденція також глибоко узгоджується з філософією дизайну OpenLedger.
3. Позиція OpenLedger: Переосмислення парадигми моделі за допомогою «хороших даних».
OpenLedger не конкурує безпосередньо з модельним рівнем LLM, але вирішує рефакторингувати системи даних знизу вгору, щоб служити зростанню SLM. Його основна логіка така:
(1) Зробіть дані «цінними»: за допомогою механізму PoA та мережі Datanets він надає надійні, відстежувані та торгові активи даних для моделей штучного інтелекту;
(2) Заохочуйте відкритість моделі: режим платного штучного інтелекту дозволяє використовувати SLM і підключати його до завдань, а дохід розподіляється відповідно до використання;
(3) Заохочення за реальний внесок: Через систему репутації та механізм заохочення пов'язані інтереси виробників даних, розробників моделей та тих, хто телефонує.
Це означає, що OpenLedger будує відкриту екосистему навколо «маленька модель + хороші дані», що є структурним доповненням для епохи після LLM.
По-четверте, майбутня картина: від «великої і всеосяжної» до «маленької і спеціалізованої»
Можна передбачити, що майбутнє штучного інтелекту буде не універсальною моделлю, а мережею «мініатюрних інтелектуальних одиниць», які обертаються навколо сценаріїв. Ці невеликі моделі будуть:
(1) Підключайтеся до високоякісних джерел даних, а не покладайтеся на уловлювання шуму в Інтернеті;
(2) перевіряти процес навчання та історію дзвінків за допомогою ончейн-механізму для підвищення довіри;
(3) Зв'язок з різними прикладними протоколами (DeFi, GameFi, соціальні мережі тощо) для створення рівня інструментів Web3 на основі штучного інтелекту.
OpenLedger будує інфраструктуру під цей тренд: справа не в параметрах обсягу, а в обсязі «механізм розпізнавання значень даних» і «модель розподілу стимулів», яка по суті є публічною платформою, що забезпечує надійний грунт для моделей ШІ.
Амбіції OpenLedger полягають не в тому, щоб створити наступний GPT, а в тому, щоб забезпечити базову підтримку для потоку даних, визнання репутації та стимули для наступного покоління SLM. Поза старою парадигмою «параметри є сила», вона намагається відповісти на більш фундаментальне питання:
«Хто може забезпечити надійну основу для майбутнього штучного інтелекту?»
У новому циклі, коли моделі більше не є всемогутніми, а дані мають вирішальне значення, OpenLedger знаходиться в правильній точці перегину.
@OpenledgerHQ @cookiedotfun #OpenLedger #COOKIE #全面拆解OpenLedger系列
Показати оригінал
10,8 тис.
50
Вміст на цій сторінці надається третіми сторонами. Якщо не вказано інше, OKX не є автором цитованих статей і не претендує на авторські права на матеріали. Вміст надається виключно з інформаційною метою і не відображає поглядів OKX. Він не є схваленням жодних дій і не має розглядатися як інвестиційна порада або заохочення купувати чи продавати цифрові активи. Короткий виклад вмісту чи інша інформація, створена генеративним ШІ, можуть бути неточними або суперечливими. Прочитайте статтю за посиланням, щоб дізнатися більше. OKX не несе відповідальності за вміст, розміщений на сторонніх сайтах. Утримування цифрових активів, зокрема стейблкоїнів і NFT, пов’язане з високим ризиком, а вартість таких активів може сильно коливатися. Перш ніж торгувати цифровими активами або утримувати їх, ретельно оцініть свій фінансовий стан.