0G Labs acaba de realizar um feito impressionante no mundo da IA —
num ambiente de rede comum com "apenas 1Gbps" de velocidade, sim, mesmo na velocidade do WiFi do seu escritório, conseguiu treinar com sucesso o primeiro modelo LLM distribuído do mundo com 100 bilhões de parâmetros.
Isso pode muito bem revolucionar o panorama da indústria de IA:
O treinamento de IA, a partir de agora, não será mais exclusivo do "clube dos supercomputadores".
Agora, pequenas e médias empresas, equipes de startups e até laboratórios universitários podem usar seus próprios dispositivos para participar do treinamento.
A tecnologia chave por trás disso é chamada DiLoCoX (estrutura de treinamento de baixa comunicação),
com a ideia central: através da "tolerância à latência de comunicação", "compressão adaptativa de gradiente" e "paralelismo em pipeline"
transformar o treinamento de grandes modelos, que antes dependia extremamente de largura de banda e hardware,
numa tarefa distribuída que "também pode funcionar em redes comuns".
A velocidade de treinamento aumentou 300 vezes em comparação com antes,
e o custo da infraestrutura foi reduzido em 95%.
O mais importante é que este sistema criado pela 0G é completamente descentralizado.
Ele não depende de nenhum gigante único, não precisa da permissão de fornecedores de nuvem,
basta estar conectado à rede, qualquer um pode se tornar um nó de treinamento de IA.
Os dados são sempre armazenados localmente, e a sincronização do modelo é totalmente transparente em toda a cadeia.
Para realizar essa transformação, a 0G Labs está colaborando com empresas, operadoras e desenvolvedores em todo o mundo para criar uma "rede de treinamento de IA descentralizada".
O poder computacional de IA, que depende das regras de jogo dos gigantes centralizados, @0G_labs está reescrevendo.
@0g_CN @Galxe #Starboard #0G #Yaps #KaitoAI
@KaitoAI

Uma grande mudança nas fundações da IA está em andamento, e a 0G Labs está liderando isso.
O último artigo de @sandy_carter na @Forbes captura a mais recente descoberta da @0G_Research: a 0G treina o maior LLM distribuído até agora - mais de 100B de parâmetros.
Mergulhe →

7,76 mil
79
O conteúdo apresentado nesta página é fornecido por terceiros. Salvo indicação em contrário, a OKX não é o autor dos artigos citados e não reivindica quaisquer direitos de autor nos materiais. O conteúdo é fornecido apenas para fins informativos e não representa a opinião da OKX. Não se destina a ser um endosso de qualquer tipo e não deve ser considerado conselho de investimento ou uma solicitação para comprar ou vender ativos digitais. Na medida em que a IA generativa é utilizada para fornecer resumos ou outras informações, esse mesmo conteúdo gerado por IA pode ser impreciso ou inconsistente. Leia o artigo associado para obter mais detalhes e informações. A OKX não é responsável pelo conteúdo apresentado nos sites de terceiros. As detenções de ativos digitais, incluindo criptomoedas estáveis e NFTs, envolvem um nível de risco elevado e podem sofrer grandes flutuações. Deve considerar cuidadosamente se o trading ou a detenção de ativos digitais é adequado para si à luz da sua condição financeira.