Interpretando o modelo de linguagem grande nativa da Web3 ASI-1 Mini
Descubra o QBio, uma ferramenta de IA médica que se concentra na classificação da densidade mamária e na geração de relatórios transparentes. Carregue um raio-X que lhe dirá em minutos se a densidade da mama é A, B, C ou D, juntamente com um relatório detalhado explicando o processo de tomada de decisão.
Desenvolvido pela Fetch e Hybrid, o QBio é apenas um aperitivo, e a verdadeira estrela é o ASI-1 Mini.
Fetch é um projeto muito antigo, nos anos em que Defi ocupou a atenção de todo o mercado, Fetch focou em AI + Crypto, e tem focado no desenvolvimento e aplicação de tecnologia geral de agente multimodelo.
O que é ASI-1 Mini
Em fevereiro deste ano, a Fetch lançou o primeiro modelo de linguagem grande (LLM) nativo da Web3 do mundo - ASI-1 Mini. O que é Web3 Native? Simplificando, ele se integra perfeitamente ao blockchain, permitindo que você não apenas use IA, mas também invista, treine e possua IA por meio de tokens $FET e carteiras ASI.
Então, o que exatamente é o ASI-1 Mini?
É um grande modelo de linguagem projetado para IA agente, que pode coordenar vários agentes de IA e lidar com tarefas complexas de várias etapas.
Por exemplo, o agente de inferência ASI por trás do QBio faz parte do ASI-1 Mini. Ele não apenas classifica a densidade mamária, mas também explica o processo de tomada de decisão e resolve o "problema da caixa preta" da IA. Além do mais, o ASI-1 Mini precisa apenas de duas GPUs para funcionar, em comparação com outros LLMs (como o DeepSeek, que requer 16 GPUs H100), o custo é muito baixo, adequado para instituições cuidadosas usarem
o ASI-1 Mini Como exatamente o
ASI-1 Mini é inovador O desempenho do ASI-1 Mini é comparável ao dos principais LLMs, mas o custo do hardware é significativamente reduzido, Ele apresenta padrões de inferência dinâmica e recursos adaptativos avançados para uma tomada de decisão mais eficiente e sensível ao contexto.
MoM e MoA
são siglas, então não tenha medo, é simples: Mistura de Modelos (MoM), Mistura de Agentes (MoA).
Imagine uma equipe de especialistas em IA, cada um focado em uma tarefa diferente, sedosa e perfeita. , o que não só melhora a eficiência, mas também torna o processo de tomada de decisão mais transparente. Por exemplo, na análise de imagens médicas, o MoM pode escolher um modelo especializado em reconhecimento de imagem e outro especializado em geração de texto, e o MoA coordena a saída dos dois modelos para garantir que o relatório final seja preciso e fácil de ler.
Transparência e extensibilidadeOs
LLMs tradicionais tendem a ser "caixas pretas" onde você faz perguntas e eles lhe dão respostas, mas por que eles responderam a isso, desculpe, sem comentários. O ASI-1 Mini é diferente e, com raciocínio contínuo em várias etapas, pode dizer que escolhi essa resposta por esses motivos, principalmente na área médica, que é crucial.
O ASI-1 Mini terá uma janela de contexto de até 10 milhões de tokens, suportará recursos multimodais (por exemplo, processamento de imagem e vídeo) e lançará uma série de modelos Cortex no futuro, com foco em campos de ponta, como robótica e biotecnologia.
Eficiência de
hardwareEnquanto outros LLMs exigem altos custos de hardware, o ASI-1 Mini requer apenas duas GPUs para funcionar. Isso significa que mesmo uma pequena clínica pode pagar, sem a necessidade de um data center de um milhão de dólares.
Por que é tão eficiente? Porque o ASI-1 Mini foi projetado com a filosofia de "menos é mais". Ele otimiza o algoritmo e a estrutura do modelo para maximizar o uso de recursos de computação limitados. Em contraste, outros LLMs tendem a buscar modelos de maior escala, resultando em um consumo significativo de recursos.
Orientado para a comunidadeAo contrário de
outros grandes modelos de linguagem, o ASI-1 Mini é voltado para a comunidade por meio de treinamento descentralizado. O ASI-1 Mini é um produto freemium em camadas para titulares de $FET que podem se conectar a uma carteira Web3 para desbloquear a funcionalidade completa. Quanto mais tokens FET você mantiver em sua carteira, mais poderá explorar os recursos do modelo.
Esse modelo voltado para a comunidade, como o crowdfunding, nada mais é do que treinar e validar inteligência artificial, alta tecnologia, não mais apenas para a elite, mas para que todos participem.
Hoje, quando os LLMs estão relativamente maduros, por que você precisa construir um ASI-1 Mini sozinho? É fácil de entender e preenche a lacuna em que a Web3 converge com a IA.
Atualmente, os LLMs (como ChatGPT e Grok) atendem principalmente a ambientes centralizados, e o ASI-1 Mini é o primeiro LLM projetado para ecossistemas descentralizados. Isso não apenas torna a IA mais transparente e eficiente, mas também permite que os membros da comunidade se beneficiem diretamente do crescimento da IA.
O surgimento do ASI-1 Mini marca a transformação da IA de "caixa preta" para "transparência", de "centralizada" para "descentralizada" e de "ferramenta" para "ativo". Pode desempenhar um papel não apenas na área médica (como o QBio), mas também em muitos campos, como finanças, direito e pesquisa científica.
Este mês, a Fetch fez parceria com a Rivalz para integrar o ASI-1 Mini ao Sistema de Coordenação de Dados Agênticos (ADCS) da Rivalz para inferência de IA on-chain. Com essa colaboração, aplicativos descentralizados podem acessar recursos avançados de inferência de IA diretamente no blockchain.
Os ambientes tradicionais de blockchain têm recursos limitados e os contratos inteligentes só podem lidar com tarefas leves, geralmente por meio de oráculos para obter dados simples (como preços), e não podem executar diretamente modelos complexos de IA. O ADCS resolve esse problema perfeitamente, com cálculos complexos para inferência de IA sendo feitos off-chain, e os resultados são devolvidos com segurança ao blockchain, garantindo descentralização e confiança.