0G Labs vient de réaliser un exploit qui a choqué le monde de l'IA —
Dans un environnement réseau ordinaire avec une "vitesse de 1 Gbps", oui, même avec la vitesse de votre WiFi de bureau, ils ont réussi à entraîner le premier modèle LLM distribué au monde avec 1000 milliards de paramètres.
Cela pourrait bien bouleverser le paysage industriel de l'IA :
L'entraînement de l'IA n'est plus réservé au "club des supercalculateurs".
Désormais, les PME, les équipes de startups, et même les laboratoires universitaires peuvent participer à l'entraînement avec leurs propres équipements.
La technologie clé derrière cela s'appelle DiLoCoX (cadre d'entraînement à faible communication),
L'idée principale : grâce à la "tolérance à la latence de communication", "compression de gradient adaptative" et "parallélisme en pipeline"
transformer l'entraînement de grands modèles, qui dépendait auparavant énormément de la bande passante et du matériel,
en une tâche distribuée qui peut fonctionner sur un "réseau ordinaire".
La vitesse d'entraînement a été multipliée par 300 par rapport à avant,
et le coût des infrastructures a été réduit de 95 %.
Le plus important, c'est que ce système développé par 0G est entièrement décentralisé.
Il ne dépend d'aucun géant unique, ne nécessite pas l'autorisation de fournisseurs de cloud,
il suffit de se connecter à Internet, tout le monde peut devenir un nœud d'entraînement IA.
Les données sont toujours stockées localement, et la synchronisation des modèles est totalement transparente sur toute la chaîne.
Pour réaliser cette transformation, 0G Labs collabore avec des entreprises, des opérateurs et des développeurs à l'échelle mondiale pour créer un "réseau d'entraînement IA décentralisé".
La puissance de calcul de l'IA dépend des règles du jeu des géants centralisés, @0G_labs est en train de réécrire cela.
@0g_CN @Galxe #Starboard #0G #Yaps #KaitoAI
@KaitoAI

Un changement majeur dans les fondements de l'IA est en cours, et 0G Labs est à la tête de ce mouvement.
Le dernier article de @sandy_carter sur @Forbes capture la dernière avancée de @0G_Research : 0G entraîne le plus grand LLM distribué à ce jour - plus de 100 milliards de paramètres.
Plongez-y →

7,77 k
79
Le contenu de cette page est fourni par des tiers. Sauf indication contraire, OKX n’est pas l’auteur du ou des articles cités et ne revendique aucun droit d’auteur sur le contenu. Le contenu est fourni à titre d’information uniquement et ne représente pas les opinions d’OKX. Il ne s’agit pas d’une approbation de quelque nature que ce soit et ne doit pas être considéré comme un conseil en investissement ou une sollicitation d’achat ou de vente d’actifs numériques. Dans la mesure où l’IA générative est utilisée pour fournir des résumés ou d’autres informations, ce contenu généré par IA peut être inexact ou incohérent. Veuillez lire l’article associé pour obtenir davantage de détails et d’informations. OKX n’est pas responsable du contenu hébergé sur des sites tiers. La détention d’actifs numériques, y compris les stablecoins et les NFT, implique un niveau de risque élevé et leur valeur peut considérablement fluctuer. Examinez soigneusement votre situation financière pour déterminer si le trading ou la détention d’actifs numériques vous convient.