BitcoinWorld Les puces IA de Google dévoilées : lancement des TPU 8t et 8i pour défier la domination de Nvidia Dans une démarche stratégique visant à capter une plus grande part du marché de l'intelligence artificielle en plein essorBitcoinWorld Les puces IA de Google dévoilées : lancement des TPU 8t et 8i pour défier la domination de Nvidia Dans une démarche stratégique visant à capter une plus grande part du marché de l'intelligence artificielle en plein essor

Les puces IA de Google dévoilées : lancement des TPU 8t et 8i pour défier la domination de Nvidia

2026/04/23 02:50
Temps de lecture : 8 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

BitcoinWorld

Les puces IA de Google dévoilées : lancement des TPU 8t et 8i pour défier la domination de Nvidia

Dans une démarche stratégique visant à conquérir une plus grande part du marché de l'intelligence artificielle en plein essor, Google Cloud a annoncé le lancement de ses puces IA personnalisées de huitième génération le mercredi 30 avril, à San Francisco, en Californie. La société a dévoilé une approche bifurquée, introduisant deux puces spécialisées : le TPU 8t pour l'entraînement des modèles d'IA et le TPU 8i pour les charges de travail d'inférence. Ce développement marque la poussée la plus significative de Google pour offrir aux entreprises une alternative puissante et rentable aux GPU standard de l'industrie de Nvidia, même si le géant de la recherche maintient que son partenariat avec le leader des puces est plus solide que jamais.

Les puces IA de Google : une stratégie à double approche pour l'entraînement et l'inférence

La décision de Google de diviser son Tensor Processing Unit (TPU) de huitième génération en deux modèles distincts représente une évolution majeure dans sa stratégie matérielle. Historiquement, les TPU géraient à la fois l'entraînement et l'inférence, mais la demande explosive en calcul IA spécialisé a conduit à ce changement architectural. Le TPU 8t est conçu spécifiquement pour le processus computationnellement intensif d'entraînement des grands modèles de langage et d'autres systèmes d'IA. À l'inverse, le TPU 8i est optimisé pour l'inférence, qui est le processus en cours d'exécution des modèles entraînés pour générer des réponses aux requêtes des utilisateurs.

Selon les benchmarks de performance de Google, les nouvelles puces offrent des améliorations substantielles par rapport à leurs prédécesseurs. La société affirme que le TPU 8t offre jusqu'à 3x plus de rapidité pour l'entraînement des modèles d'IA et une amélioration de 80 % des performances par dollar. De plus, l'ingénierie de Google permet désormais à plus d'un million de TPU de travailler ensemble dans un seul et vaste cluster. Cette échelle permet l'entraînement de modèles frontière de nouvelle génération qui étaient auparavant impossibles à réaliser. L'avantage pour les clients cloud est une puissance de calcul nettement accrue pour une consommation d'énergie et des coûts moindres.

La course aux puces des hyperscalers s'intensifie

L'annonce de Google la positionne fermement dans la tendance plus large des grands fournisseurs de cloud qui développent du silicium personnalisé. Amazon Web Services (AWS) dispose de ses puces Graviton et Trainium, tandis que Microsoft Azure développe ses accélérateurs Maia. Ce mouvement, souvent appelé la « course aux puces des hyperscalers », est motivé par le désir d'un meilleur contrôle de la chaîne d'approvisionnement, l'optimisation des performances pour des stacks logiciels spécifiques et l'amélioration des marges de coûts. Cependant, les analystes avertissent que ce n'est pas un jeu à somme nulle contre Nvidia.

« Le discours des "hyperscalers contre Nvidia" est souvent exagéré », explique Patrick Moore, un analyste reconnu du marché des puces. « Ces entreprises construisent une capacité supplémentaire et optimisent pour leurs propres écosystèmes. Elles ne visent pas à remplacer complètement Nvidia, surtout à court terme. » Moore avait prédit en 2016 que le premier TPU de Google pourrait menacer Nvidia et Intel, une prévision qui s'est avérée prématurée puisque la capitalisation boursière de Nvidia a depuis lors grimpé à près de 5 000 milliards de dollars. La réalité actuelle est plus symbiotique. Google, par exemple, a confirmé qu'il proposera la prochaine puce Vera Rubin de Nvidia dans son cloud plus tard cette année.

Un avenir collaboratif, pas combatif

En fait, Google souligne sa collaboration en cours avec Nvidia. Les deux géants technologiques conçoivent conjointement des solutions de réseau informatique pour que les systèmes basés sur Nvidia fonctionnent plus efficacement sur l'infrastructure Google Cloud. Un projet clé implique l'amélioration de Falcon, une technologie de réseau basée sur des logiciels que Google a créée et mise en open source en 2023. Cette collaboration souligne un constat essentiel pour l'industrie : la croissance des services cloud d'IA élargit le marché total adressable pour tout silicium performant, qu'il porte la marque Nvidia ou celle d'un fournisseur cloud.

La logique financière est claire. À mesure que les entreprises migrent de plus en plus leurs charges de travail d'IA vers le cloud, la demande en calcul explose. Les fournisseurs cloud peuvent alors orienter certaines charges de travail optimisées vers leurs puces personnalisées tout en offrant la large compatibilité des GPU Nvidia pour d'autres. Ce modèle hybride leur permet d'améliorer la rentabilité sur certaines charges de travail tout en maintenant un choix total pour les clients. Pour Nvidia, chaque nouvelle application d'IA hébergée sur Google Cloud représente un client potentiel pour son équipement réseau, ses licences logicielles et, dans de nombreux cas, ses GPU.

Analyse des performances et de l'impact sur le marché

Les spécifications techniques des nouveaux TPU de Google suggèrent un rétrécissement de l'écart de performance avec les GPU de premier plan. L'accent mis sur le rapport performance/prix et l'efficacité énergétique répond à deux principaux points de douleur pour les entreprises qui développent leur IA : la flambée des coûts et l'impact environnemental. La capacité de Google à relier plus d'un million de TPU remet également directement en question l'un des principaux avantages de Nvidia : sa technologie NVLink leader du marché pour connecter un grand nombre de GPU.

Principaux avantages des nouveaux TPU de Google :

  • Spécialisation : Des puces dédiées à l'entraînement (TPU 8t) et à l'inférence (TPU 8i) optimisées pour des tâches spécifiques.
  • Efficacité des coûts : Une amélioration de 80 % des performances par dollar peut considérablement abaisser la barrière à l'entrée pour les projets d'IA.
  • Échelle : Les clusters d'un million de puces permettent l'entraînement de modèles d'IA sans précédent.
  • Intégration : Intégration logicielle approfondie avec les frameworks IA de Google comme TensorFlow et JAX.

Néanmoins, l'écosystème de Nvidia, en particulier sa plateforme logicielle CUDA, reste un avantage concurrentiel redoutable. Des millions de développeurs d'IA sont formés sur CUDA, et d'innombrables applications y sont construites. Bien que les puces de Google prennent en charge les frameworks populaires, la nécessité de potentiellement porter des applications crée des frictions. La bataille à long terme pourrait être moins une question de vitesse brute des transistors et davantage une question de savoir quelle plateforme offre la solution globale la plus convaincante pour les développeurs et les entreprises.

Conclusion

Le lancement par Google du TPU 8t et du TPU 8i marque un moment charnière dans l'évolution de l'infrastructure IA. Cela témoigne de l'engagement sérieux de la société à rivaliser dans l'arène matérielle IA à enjeux élevés, offrant aux entreprises de nouvelles puces IA Google puissantes pour des tâches spécialisées. Cependant, l'annonce renforce également la nature complexe et collaborative de l'industrie des semi-conducteurs moderne. Plutôt qu'une attaque frontale, Google exécute une stratégie sophistiquée à double voie : faire avancer son silicium propriétaire tout en approfondissant son partenariat avec Nvidia. Cette approche garantit que Google Cloud peut répondre à la plus large gamme possible de charges de travail d'IA, des celles optimisées pour ses TPU personnalisés à celles nécessitant la norme universelle des GPU Nvidia. Les grands gagnants seront probablement les entreprises, qui bénéficieront d'une concurrence accrue, de plus de choix et d'une innovation continue en matière de performances et de coûts.

FAQs

Q1 : Quelle est la différence entre les puces TPU 8t et TPU 8i de Google ?
Le TPU 8t est conçu spécifiquement pour l'entraînement des modèles d'IA — le processus consistant à former un modèle à l'aide de vastes ensembles de données. Le TPU 8i est optimisé pour l'inférence, qui est le processus d'utilisation d'un modèle entraîné pour effectuer des prédictions ou générer des réponses en temps réel.

Q2 : Google Cloud va-t-il cesser de proposer des GPU Nvidia ?
Non. Google a explicitement déclaré qu'il ne remplace pas Nvidia. La société a confirmé qu'elle proposera les GPU Vera Rubin de nouvelle génération de Nvidia dans son cloud plus tard cette année et collabore activement avec Nvidia sur la technologie réseau.

Q3 : Comment les nouvelles puces IA de Google se comparent-elles aux versions TPU précédentes ?
Google affirme que les nouveaux TPU de huitième génération offrent jusqu'à 3x plus de rapidité d'entraînement et une amélioration de 80 % des performances par dollar par rapport aux générations précédentes. Ils prennent également en charge des clusters de plus d'un million de puces, permettant un entraînement de modèles à plus grande échelle.

Q4 : Pourquoi les fournisseurs cloud comme Google construisent-ils leurs propres puces IA ?
Les fournisseurs cloud développent du silicium personnalisé pour optimiser les performances pour leurs logiciels et services spécifiques, obtenir un meilleur contrôle de leur chaîne d'approvisionnement, améliorer l'efficacité des coûts et différencier leurs offres dans un marché concurrentiel.

Q5 : Qu'est-ce que cela signifie pour l'avenir de Nvidia ?
Bien que les puces personnalisées des hyperscalers représentent une concurrence, la croissance globale du marché de l'IA élargit la demande pour tous les calculs haute performance. L'écosystème logiciel robuste de Nvidia (CUDA) et l'innovation continue signifient qu'il est susceptible de rester une force dominante, même lorsqu'il collabore avec des entreprises développant du silicium alternatif.

Cet article Les puces IA de Google dévoilées : lancement des TPU 8t et 8i pour défier la domination de Nvidia est apparu en premier sur BitcoinWorld.

Opportunité de marché
Logo de Movement
Cours Movement(MOVE)
$0.0185
$0.0185$0.0185
-0.91%
USD
Graphique du prix de Movement (MOVE) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.

0 frais + 12 % de TAEG

0 frais + 12 % de TAEG0 frais + 12 % de TAEG

Nouveaux utilisateurs : TAEG 600 %. Durée limitée !