Interpretacja natywnego dużego modelu językowego Web3 ASI-1 Mini
Odkryj QBio, medyczne narzędzie oparte na sztucznej inteligencji, które koncentruje się na klasyfikacji gęstości piersi i przejrzystym generowaniu raportów. Prześlij zdjęcie rentgenowskie, które w ciągu kilku minut powie Ci, czy gęstość piersi wynosi A, B, C czy D, wraz ze szczegółowym raportem wyjaśniającym proces podejmowania decyzji.
Opracowany przez Fetch and Hybrid, QBio to tylko przystawka, a prawdziwą gwiazdą jest ASI-1 Mini.
Fetch to bardzo stary projekt, w latach, gdy Defi zajmowało uwagę całego rynku, Fetch skupiał się na AI + Crypto, a także skupiał się na rozwoju i zastosowaniu ogólnej technologii wielomodelowego Agenta.
Co to jest ASI-1 Mini
W lutym tego roku Fetch uruchomił pierwszy na świecie natywny dla Web3 duży model językowy (LLM) - ASI-1 Mini. Co to jest Web3 Native? Mówiąc prościej, bezproblemowo integruje się z blockchainem, umożliwiając nie tylko korzystanie ze sztucznej inteligencji, ale także inwestowanie, szkolenie i posiadanie sztucznej inteligencji za pośrednictwem tokenów $FET i portfeli ASI.
Czym dokładnie jest ASI-1 Mini?
Jest to duży model językowy przeznaczony dla agentowej sztucznej inteligencji, który może koordynować wielu agentów sztucznej inteligencji i obsługiwać złożone, wieloetapowe zadania.
Na przykład agent wnioskowania ASI stojący za QBio jest częścią ASI-1 Mini. Nie tylko klasyfikuje gęstość piersi, ale także wyjaśnia proces podejmowania decyzji i rozwiązuje problem "czarnej skrzynki" sztucznej inteligencji. Co więcej, ASI-1 Mini potrzebuje do działania tylko dwóch procesorów graficznych, w porównaniu z innymi LLM (takimi jak DeepSeek, który wymaga 16 procesorów graficznych H100), koszt jest bardzo niski, odpowiedni dla ostrożnych instytucji do korzystania z
ASI-1 Mini Jak dokładnie
ASI-1 Mini jest innowacyjny Wydajność ASI-1 Mini jest porównywalna z wydajnością wiodących LLM, ale koszt sprzętu jest znacznie obniżony, Oferuje dynamiczne wzorce wnioskowania i zaawansowane możliwości adaptacyjne, które umożliwiają bardziej efektywne i kontekstowe podejmowanie decyzji.
MoM i MoA
to akronimy, więc nie bój się, to proste: Mieszanina Modeli (MoM), Mieszanina Agentów (MoA).
Wyobraź sobie zespół ekspertów w dziedzinie sztucznej inteligencji, z których każdy skupia się na innym zadaniu, jedwabistym i bezproblemowym. , co nie tylko poprawia efektywność, ale także sprawia, że proces decyzyjny jest bardziej przejrzysty. Na przykład w analizie obrazów medycznych MoM może wybrać jeden model, który specjalizuje się w rozpoznawaniu obrazów, a drugi, który specjalizuje się w generowaniu tekstu, a MoA koordynuje dane wyjściowe obu modeli, aby zapewnić, że raport końcowy jest zarówno dokładny, jak i łatwy do odczytania.
Przejrzystość i rozszerzalnośćTradycyjne
LLM mają tendencję do bycia "czarnymi skrzynkami", w których zadajesz im pytania, a oni udzielają ci odpowiedzi, ale dlaczego na to odpowiedzieli, przepraszam, bez komentarza. ASI-1 Mini jest inny, a dzięki ciągłemu, wieloetapowemu rozumowaniu może powiedzieć, że wybrałem tę odpowiedź z tych powodów, zwłaszcza w dziedzinie medycyny, co jest kluczowe.
ASI-1 Mini będzie miał okno kontekstowe do 10 milionów tokenów, będzie obsługiwał możliwości multimodalne (np. przetwarzanie obrazu i wideo), a w przyszłości wprowadzi na rynek serię modeli Cortex, koncentrując się na najnowocześniejszych dziedzinach, takich jak robotyka i biotechnologia.
Wydajność sprzętowaPodczas
gdy inne LLM wymagają wysokich kosztów sprzętu, ASI-1 Mini wymaga do działania tylko dwóch procesorów graficznych. Oznacza to, że nawet mała klinika może sobie na to pozwolić, bez potrzeby posiadania centrum danych za milion dolarów.
Dlaczego jest tak wydajny? Ponieważ ASI-1 Mini został zaprojektowany zgodnie z filozofią "mniej znaczy więcej". Optymalizuje algorytm i strukturę modelu, aby zmaksymalizować wykorzystanie ograniczonych zasobów obliczeniowych. W przeciwieństwie do tego, inne LLM mają tendencję do dążenia do modeli na większą skalę, co skutkuje znacznym zużyciem zasobów.
Sterowany przez społecznośćW przeciwieństwie do
innych dużych modeli językowych, ASI-1 Mini jest kierowany przez społeczność poprzez zdecentralizowane szkolenie. ASI-1 Mini to wielopoziomowy produkt freemium dla posiadaczy $FET, którzy mogą połączyć się z portfelem Web3, aby odblokować pełną funkcjonalność. Im więcej tokenów FET trzymasz w swoim portfelu, tym bardziej możesz zgłębić możliwości modelu.
Ten model napędzany przez społeczność, podobnie jak crowdfunding, to nic innego jak szkolenie i walidacja sztucznej inteligencji, zaawansowanej technologii, już nie tylko dla elity, ale dla wszystkich, którzy mogą w niej uczestniczyć.
Dzisiaj, gdy LLM są stosunkowo dojrzałe, dlaczego musisz budować ASI-1 Mini samodzielnie? Jest łatwy do zrozumienia i wypełnia lukę, w której Web3 łączy się ze sztuczną inteligencją.
Obecnie LLM (takie jak ChatGPT i Grok) obsługują głównie scentralizowane środowiska, a ASI-1 Mini jest pierwszym LLM zaprojektowanym dla zdecentralizowanych ekosystemów. Nie tylko sprawia, że sztuczna inteligencja jest bardziej przejrzysta i wydajna, ale także pozwala członkom społeczności bezpośrednio czerpać korzyści z rozwoju sztucznej inteligencji.
Pojawienie się ASI-1 Mini oznacza transformację sztucznej inteligencji z "czarnej skrzynki" do "przejrzystości", z "scentralizowanej" do "zdecentralizowanej" i z "narzędzia" do "aktywa". Może odgrywać rolę nie tylko w dziedzinie medycyny (takiej jak QBio), ale także w wielu dziedzinach, takich jak finanse, prawo i badania naukowe.
W tym miesiącu Fetch nawiązał współpracę z Rivalz, aby zintegrować ASI-1 Mini z systemem Agentic Data Coordination System (ADCS) firmy Rivalz w celu wnioskowania AI w łańcuchu. Dzięki tej współpracy zdecentralizowane aplikacje mogą uzyskać dostęp do zaawansowanych możliwości wnioskowania AI bezpośrednio w łańcuchu bloków.
Tradycyjne środowiska blockchain są ograniczone zasobami, a inteligentne kontrakty mogą obsługiwać tylko lekkie zadania, często za pośrednictwem wyroczni w celu uzyskania prostych danych (takich jak ceny) i nie mogą bezpośrednio uruchamiać złożonych modeli sztucznej inteligencji. ADCS doskonale rozwiązuje ten problem, ponieważ złożone obliczenia do wnioskowania AI są wykonywane poza łańcuchem, a wyniki są bezpiecznie zwracane do łańcucha bloków, zapewniając decentralizację i zaufanie.