Interpretação do modelo de linguagem grande nativa Web3 ASI-1 Mini
Descubra o QBio, uma ferramenta de IA médica que se concentra na classificação da densidade mamária e na geração transparente de relatórios. Carregue um raio-X que lhe dirá em poucos minutos se a densidade da mama é A, B, C ou D, juntamente com um relatório detalhado explicando o processo de tomada de decisão.
Desenvolvido pela Fetch and Hybrid, o QBio é apenas um aperitivo, e a verdadeira estrela é o ASI-1 Mini.
O Fetch é um projeto muito antigo, nos anos em que o Defi ocupou a atenção de todo o mercado, a Fetch focou-se na IA + Crypto, e tem vindo a focar-se no desenvolvimento e aplicação de tecnologia geral de Agente multi-modelo.
O que é o ASI-1 Mini
Em fevereiro deste ano, a Fetch lançou o primeiro modelo de linguagem grande (LLM) nativo da Web3 do mundo - ASI-1 Mini. O que é Web3 Native? Simplificando, ele se integra perfeitamente com o blockchain, permitindo que você não apenas use IA, mas também invista, treine e possua IA por meio de tokens $FET e carteiras ASI.
Então, o que é exatamente o ASI-1 Mini?
É um modelo de linguagem grande projetado para IA agente, que pode coordenar vários agentes de IA e lidar com tarefas complexas de várias etapas.
Por exemplo, o agente de inferência ASI por trás do QBio faz parte do ASI-1 Mini. Não só classifica a densidade mamária, mas também explica o processo de tomada de decisão e resolve o "problema da caixa preta" da IA. Além disso, o ASI-1 Mini só precisa de duas GPUs para funcionar, em comparação com outros LLMs (como o DeepSeek, que requer 16 GPUs H100), o custo é muito baixo, adequado para instituições cuidadosas usarem
o ASI-1 Mini Como exatamente o
ASI-1 Mini é inovador O desempenho do ASI-1 Mini é comparável ao dos principais LLMs, mas o custo de hardware é significativamente reduzido, Apresenta padrões de inferência dinâmica e capacidades adaptativas avançadas para uma tomada de decisão mais eficiente e consciente do contexto.
MoM e MoA
são siglas, então não tenha medo, é simples: Mistura de Modelos (MoM), Mistura de Agentes (MoA).
Imagine uma equipe de especialistas em IA, cada um focado em uma tarefa diferente, sedosa e perfeita. , o que não só melhora a eficiência, mas também torna o processo de tomada de decisão mais transparente. Por exemplo, na análise de imagens médicas, o MoM pode escolher um modelo especializado em reconhecimento de imagem e outro especializado em geração de texto, e o MoA coordena a saída dos dois modelos para garantir que o relatório final seja preciso e fácil de ler.
Transparência e extensibilidadeOs
LLMs tradicionais tendem a ser "caixas pretas" onde você faz perguntas e eles lhe dão respostas, mas por que eles responderam isso, desculpe, nenhum comentário. O ASI-1 Mini é diferente, e com um raciocínio contínuo de várias etapas, pode dizer que escolhi esta resposta por esses motivos, especialmente na área médica, que é crucial.
O ASI-1 Mini terá uma janela de contexto de até 10 milhões de tokens, suportará recursos multimodais (por exemplo, processamento de imagem e vídeo) e lançará uma série de modelos Cortex no futuro, com foco em campos de ponta, como robótica e biotecnologia.
Eficiência
dehardwareEnquanto outros LLMs exigem altos custos de hardware, o ASI-1 Mini requer apenas duas GPUs para ser executado. Isso significa que mesmo uma pequena clínica pode pagar por isso, sem a necessidade de um data center milionário.
Por que é tão eficiente? Porque o ASI-1 Mini foi concebido com a filosofia de "menos é mais". Ele otimiza o algoritmo e a estrutura do modelo para maximizar o uso de recursos de computação limitados. Em contraste, outros LLMs tendem a buscar modelos de maior escala, resultando em um consumo significativo de recursos.
Orientado para a comunidadeAo contrário de
outros grandes modelos linguísticos, o ASI-1 Mini é orientado pela comunidade através de formação descentralizada. ASI-1 Mini é um produto freemium em camadas para titulares de $FET que podem se conectar a uma carteira Web3 para desbloquear todas as funcionalidades. Quanto mais tokens FET você tiver em sua carteira, mais você poderá explorar as capacidades do modelo.
Esse modelo voltado para a comunidade, como o crowdfunding, nada mais é do que treinar e validar inteligência artificial, alta tecnologia, não mais apenas para a elite, mas para todos participarem.
Hoje, quando os LLMs estão relativamente maduros, por que você precisa construir um ASI-1 Mini sozinho? É fácil de entender e preenche a lacuna em que a Web3 converge com a IA.
Atualmente, LLMs (como ChatGPT e Grok) atendem principalmente ambientes centralizados, e o ASI-1 Mini é o primeiro LLM projetado para ecossistemas descentralizados. Não só torna a IA mais transparente e eficiente, mas também permite que os membros da comunidade se beneficiem diretamente do crescimento da IA.
O surgimento do ASI-1 Mini marca a transformação da IA de "caixa preta" para "transparência", de "centralizada" para "descentralizada" e de "ferramenta" para "ativo". Pode desempenhar um papel não só no campo médico (como QBio), mas também em muitos campos, como finanças, direito e pesquisa científica.
Este mês, a Fetch fez uma parceria com a Rivalz para integrar o ASI-1 Mini ao Agentic Data Coordination System (ADCS) da Rivalz para inferência de IA on-chain. Com essa colaboração, os aplicativos descentralizados podem acessar recursos avançados de inferência de IA diretamente no blockchain.
Os ambientes tradicionais de blockchain são limitados em recursos, e os contratos inteligentes só podem lidar com tarefas leves, muitas vezes por meio de oráculos para obter dados simples (como preços), e não podem executar diretamente modelos complexos de IA. O ADCS resolve esse problema perfeitamente, com cálculos complexos para inferência de IA sendo feitos off-chain, e os resultados são devolvidos com segurança ao blockchain, garantindo descentralização e confiança.