NVIDIA Blackwell : la puissance de l’IA à l’ère du billion de paramètres (AIN)
Nvidia annonce la plate-forme Blackwell
NVIDIA a annoncé l’arrivée de la plateforme NVIDIA Blackwell, marquant ainsi le début d’une nouvelle ère de calcul. Cette nouvelle plateforme comprend le nouveau GPU Blackwell, des technologies de liaison NVLink et de résilience, permettant la création de modèles d’IA à grande échelle de trillions de paramètres. Les nouvelles technologies de Tensor Cores et du compilateur TensorRT-LLM réduisent les coûts et la consommation d’énergie de l’inférence LLM jusqu’à 25 fois par rapport à son prédécesseur.
La plateforme Blackwell est conçue pour accélérer les avancées dans divers domaines tels que le traitement des données, la simulation d’ingénierie, la conception électronique, la conception assistée par ordinateur et la conception de médicaments assistée par ordinateur. NVIDIA prévoit une adoption généralisée de la plateforme Blackwell par tous les principaux fournisseurs de cloud, fabricants de serveurs et principales entreprises d’IA.
La puce superpuissante NVIDIA GB200 Grace Blackwell relie deux GPU NVIDIA B200 Tensor Core à la CPU NVIDIA Grace via une connexion chip-to-chip NVLink ultra basse consommation de 900 Go/s. Ces systèmes alimentés par GB200 peuvent être connectés avec les plates-formes de réseau avancées NVIDIA Quantum-X800 InfiniBand et Spectrum™-X800 Ethernet, qui offrent un réseau rapide jusqu’à 800 Gb/s.
Le GB200 est un composant clé du système NVIDIA GB200 NVL72, un système en rack multi-noeuds et refroidi par liquide conçu pour les charges de travail informatiques les plus intensives. Il combine 36 Superchips Grace Blackwell, comprenant 72 GPU Blackwell et 36 CPUs Grace interconnectés par NVLink de cinquième génération. Le GB200 NVL72 offre jusqu’à 30 fois de performances supplémentaires par rapport au même nombre de GPU NVIDIA H100 Tensor Core pour les charges de travail d’inférence LLM, tout en réduisant les coûts et la consommation d’énergie jusqu’à 25 fois.
Cette plateforme agit comme un seul GPU avec 1,4 exaflops de performances d’IA et 30 To de mémoire rapide, et sert de bloc de construction pour le tout nouveau DGX SuperPOD. De plus, NVIDIA propose le HGX B200, une carte serveur qui relie huit GPU B200 via NVLink pour prendre en charge des plateformes d’IA génératives basées sur x86. Le HGX B200 prend en charge des vitesses de réseau jusqu’à 400 Gb/s via les plates-formes de réseau InfiniBand Quantum-2 et Ethernet Spectrum-X de NVIDIA.
La plateforme est nommée en l’honneur de David Harold Blackwell, un mathématicien spécialisé dans la théorie des jeux et les statistiques. Le nouvel architecture GPU Blackwell comprend six technologies révolutionnaires, notamment le moteur de transformation de deuxième génération, le NVLink de cinquième génération et le moteur de fiabilité RAS. Ces technologies permettent de soutenir des modèles d’IA à l’échelle de trillions de paramètres et offrent des performances et une efficacité énergétique inégalées.
Les produits basés sur Blackwell, prévus pour plus tard cette année, incluront des instances cloud proposées par des partenaires tels que AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure. De plus, un réseau croissant de fabricants de logiciels, y compris Ansys, Cadence et Synopsys, utilisera les processeurs basés sur Blackwell pour accélérer leurs logiciels de conception et de simulation, permettant ainsi d’apporter des produits sur le marché plus rapidement et à moindre coût.
Nvidia annonce le projet GROOT qui vise à révolutionner la robotique
NVIDIA a annoncé aujourd’hui le projet GR00T, un modèle de fondation polyvalent pour les robots humanoïdes, ainsi que des améliorations majeures de la plateforme robotique NVIDIA Isaac. Le projet GR00T vise à fournir des modèles de base pour les robots humanoïdes, capables de comprendre le langage naturel et d’imiter les mouvements humains. Ces robots seront conçus pour naviguer, s’adapter et interagir avec le monde réel de manière autonome. Pour accompagner ce projet, NVIDIA a également dévoilé le nouvel ordinateur Jetson Thor, spécialement conçu pour les robots humanoïdes, offrant des performances optimisées et une intégration simplifiée.
Jetson Thor est équipé d’un système sur puce (SoC) basé sur l’architecture NVIDIA Thor, comprenant un GPU de nouvelle génération offrant une performance de 800 téraflops en virgule flottante. Cette architecture modulaire optimisée pour la performance et la puissance permettra aux robots équipés de Jetson Thor d’effectuer des tâches complexes et d’interagir en toute sécurité avec leur environnement. NVIDIA a également annoncé des mises à jour majeures de la plateforme Isaac, comprenant des outils pour l’apprentissage par renforcement et la coordination des charges de travail de développement de robots sur des environnements de calcul hétérogènes.
Ces améliorations permettront aux développeurs de robots d’accéder à des outils avancés pour la simulation et l’infrastructure de flux de travail en IA, ainsi qu’à des modèles d’IA générative pour les aider à former et à déployer leurs robots plus efficacement.
SceneScript, une nouvelle approche pour la reconstruction de scène 3D
META a annoncé aujourd’hui la sortie de SceneScript, une méthode novatrice pour reconstruire des environnements et représenter la disposition des espaces physiques en 3D. Conçu pour être compact, complet et interprétable, SceneScript utilise l’apprentissage automatique de bout en bout pour inférer directement la géométrie d’une pièce à partir de données visuelles brutes. Plutôt que de se reposer sur des règles pré-définies, cette approche permet à SceneScript de créer des représentations de scènes physiques avec une précision accrue, même dans des environnements complexes ou avec des géométries inhabituelles.
La formation de SceneScript a été réalisée en simulation à l’aide de l’ensemble de données Aria Synthetic Environments, qui est disponible à des fins académiques. Cette approche a permis à l’équipe de recherches de Reality Labs de contourner les défis liés à la collecte de données dans des environnements physiques tout en préservant la confidentialité. En utilisant des données synthétiques, SceneScript a été formé à reconnaître et à interpréter une variété de scènes intérieures, lui permettant ainsi de généraliser ses capacités à des environnements réels.
Grâce à sa capacité à décrire les scènes physiques avec précision, SceneScript ouvre la voie à une multitude de cas d’utilisation potentiels pour les futurs casques de réalité augmentée (AR). Par exemple, il pourrait être utilisé pour générer des cartes nécessaires à la navigation étape par étape pour les personnes malvoyantes ou pour fournir des réponses rapides à des requêtes complexes liées à l’espace physique. Cette avancée représente une étape importante sur la voie des lunettes AR véritablement intégrées, capable de combler le fossé entre le monde physique et numérique.
xAI publie Grok-1
Le 17 mars 2024, xAI a annoncé la publication publique des poids et de l’architecture de son modèle Mixture-of-Experts, Grok-1, composé de 314 milliards de paramètres. Ce modèle, entraîné à partir de zéro par xAI, n’est pas optimisé pour une tâche spécifique et ne bénéficie d’aucun affinement pour des applications telles que le dialogue. Les poids et l’architecture sont mis à disposition sous la licence Apache 2.0, permettant ainsi aux utilisateurs d’accéder au modèle de base et de l’utiliser selon leurs besoins.
Grok-1 est un modèle MoE (Mixture of Experts) composé de 314 milliards de paramètres, avec 25 % des poids actifs sur un jeton donné. Il a été entraîné à partir de zéro en octobre 2023 par xAI, utilisant une pile d’entraînement personnalisée basée sur JAX et Rust. Le modèle utilise un tokenizer SentencePiece avec 131 072 jetons et prend en charge des fonctionnalités telles que les embeddings rotatifs (RoPE), l’activation sharding et la quantification sur 8 bits.
Les poids du modèle Grok-1 peuvent être téléchargés via un client torrent ou directement depuis HuggingFace 🤗 Hub. Pour utiliser le modèle, les utilisateurs peuvent suivre les instructions fournies sur le dépôt GitHub de xAI. Il convient de noter que, en raison de sa taille importante (314 milliards de paramètres), le modèle nécessite une machine avec suffisamment de mémoire GPU pour être testé avec le code d’exemple fourni.
Test