LES 12 ÉTAPES QUI ALIMENTENT LE BOOM DE L’INFÉRENCE PAR L’IA
1. $ASML conçoit et fabrique des machines de photolithographie avancées, essentielles aux puces de nouvelle génération, ce qui $TSM permet de fabriquer les accélérateurs d’IA qui pilotent la construction mondiale de l’inférence.
2. $ARM licencie des architectures à faible consommation et à haut rendement qui deviennent essentielles pour l’inférence à la périphérie, dans les appareils d’IA mobiles et dans les environnements à énergie limitée.
3. $NVDA domine la pile d’inférence avec ses GPU de pointe, CUDA et NVLink, tandis que $AMD GPU MI300 se disputent la part de marché des inférences sur les marchés du cloud et de l’entreprise.
4. $MU fournit des solutions DRAM et NAND à large bande passante, essentielles pour les charges de travail d’inférence nécessitant un accès rapide à la mémoire et une faible latence dans les centres de données d’IA.
5. $AVGO alimente la mise en réseau et l’interconnexion à l’échelle de l’IA, tandis que $MRVL et $ALAB entraînent un mouvement de données à très faible latence et à haut débit entre les processeurs d’inférence et les pools de mémoire, un goulot d’étranglement critique à mesure que l’inférence évolue.
6. $AMZN, $MSFT, $GOOGL, $NBIS $DOCN s’efforcent de proposer une infrastructure cloud optimisée pour l’inférence, avec des instances d’inférence dédiées, des accélérateurs et des modèles de tarification qui remodèlent l’économie de l’IA dans le cloud.
7. $IBM construit des plateformes d’IA d’entreprise (watsonx) conçues pour déployer, gouverner et faire évoluer l’inférence LLM dans les secteurs réglementés, avec un fort impact sur la confiance, la sécurité et l’explicabilité de l’IA.
8. $BOX permet un stockage et une récupération sécurisés et conformes des données d’entreprise, une couche critique pour les flux de travail d’inférence basés sur RAG et les pipelines de connaissances des agents d’IA.
9. $PLTR évolue vers la couche opérationnelle de l’IA, où les données d’entreprise rencontrent les pipelines d’inférence pour obtenir des résultats critiques dans les domaines de la défense, de la santé et au-delà.
10. $CRM et $NOW intègrent profondément l’inférence dans les logiciels d’entreprise, automatisant la prise de décision, optimisant l’engagement des clients et rationalisant les flux de travail informatiques en temps réel.
11. $DELL est en train de devenir un fournisseur clé d’infrastructure d’inférence d’IA sur site, fournissant des serveurs, du stockage et des appliances de périphérie optimisés pour l’IA aux entreprises qui construisent des piles d’IA souveraines et hybrides.
12. $CRWD, $ZS, $PANW $RBRK sécurisent la pile d’inférence de l’IA, protégeant ainsi les pipelines de données, les points de terminaison des modèles et les processus de décision basés sur l’IA contre les cybermenaces émergentes.
Afficher l’original195
115,34 k
Le contenu de cette page est fourni par des tiers. Sauf indication contraire, OKX n’est pas l’auteur du ou des articles cités et ne revendique aucun droit d’auteur sur le contenu. Le contenu est fourni à titre d’information uniquement et ne représente pas les opinions d’OKX. Il ne s’agit pas d’une approbation de quelque nature que ce soit et ne doit pas être considéré comme un conseil en investissement ou une sollicitation d’achat ou de vente d’actifs numériques. Dans la mesure où l’IA générative est utilisée pour fournir des résumés ou d’autres informations, ce contenu généré par IA peut être inexact ou incohérent. Veuillez lire l’article associé pour obtenir davantage de détails et d’informations. OKX n’est pas responsable du contenu hébergé sur des sites tiers. La détention d’actifs numériques, y compris les stablecoins et les NFT, implique un niveau de risque élevé et leur valeur peut considérablement fluctuer. Examinez soigneusement votre situation financière pour déterminer si le trading ou la détention d’actifs numériques vous convient.