L'IA (Intelligence Artificielle) a fait des progrès spectaculaires au cours des dernières décennies, s'intégrant dans presque tous les aspects de notre vie quotidienne. Qu'il s'agisse des assistants vocaux (Chatbots), des recommandations personnalisées sur les plateformes de streaming, des véhicules autonomes ou des diagnostics médicaux avancés, l'IA révolutionne notre façon de vivre, de travailler et d'interagir avec le monde.
Une Plateforme IA d'envergure, notamment lorsqu'elle est basée sur le "Deep Learning" (Apprentissage Profond), exige une puissance de calcul massive, des volumes de stockage énormes et des réseaux de communication extrêmement performants. Cela implique des infrastructures imposantes, telles que des Centres de Données (Data Centers) gigantesques, abritant des serveurs organisés en grappes (Clusters), occupant de vastes surfaces au sol et souvent interconnectés. Ces infrastructures constituent la seule solution pour répondre aux besoins de calcul intensif, de stockage massif, de redondance, de sécurité et d’évolutivité.

- La complexité croissante des Modèles IA, nécessitant toujours plus de Ressources Informatiques (puissance de calcul, volumes de stockage et réseaux de communication).
- La taille souvent démesurée des infrastructures nécessaires à la mise en place de telles solutions. Il s'agit dans la plupart des cas d'immenses "Data Centers", hébergeant différents types de serveurs et autres unités de traitement de très hautes performances, consommant d'importantes quantités d’électricité et d’eau, notamment pour le refroidissement des équipements.
C'est précisément ce double aspect que ce petit article se propose de contempler, et cela sous la forme de deux parties distinctes:
- La première (basiquement tout le texte qui suit) décrit de façon relativement détaillée les ressources informatiques requises pour mettre en place une Plateforme IA d'envergure.
- La deuxième (prochainement publiée sur ce même Blog) fournit une description des deux défis majeurs posés (la consommation énergétique de ces infrastructures et leur impact environnemental) avec une présentation de quelques solutions envisageables pour concilier l’essor de l’IA avec la préservation de l’environnement.
Ressources de type "Puissance de Calcul"
Les Modèles d’IA modernes, comportant souvent des milliards de paramètres (1), nécessitent des supercalculateurs massifs fonctionnant en grappes (Clusters) et occupant des surfaces au sol considérables pour leur apprentissage. Ces infrastructures permettent de traiter des données complexes à une échelle sans précédent.
Exigences souvent exprimées en ZFLOPS (2)
C'est ainsi qu’un supercalculateur d’1 ZFLOP peut réaliser mille milliards de milliards de calculs par seconde, une capacité indispensable pour entraîner des modèles d’IA complexes à grande échelle.
Processeurs spécialisés
Trois types de processeurs dominent dans l’entraînement des modèles d’IA : les CPU, les GPU et les TPU. Voici une explication claire et concise des différences exactes entre ces trois catégories, en se concentrant sur leur conception, leur fonctionnement et leur utilisation dans le contexte de l’IA.
- CPU (Central Processing Unit)
- Définition : Le premier type, CPU (Unité Centrale de Traitement), est le processeur polyvalent d’un ordinateur, conçu pour exécuter une large gamme de tâches informatiques.
- Caractéristiques principales :
- Architecture : Optimisée pour le traitement séquentiel avec un petit nombre de cœurs puissants (généralement 4 à 128 cœurs dans les CPU modernes). Chaque cœur est conçu pour exécuter des instructions complexes avec une faible latence.
- Forces : Flexibilité, capable de gérer des tâches variées (systèmes d’exploitation, calculs généraux, gestion des entrées/sorties).
- Limites : Moins efficace pour les calculs massivement parallèles, comme ceux requis pour l’entraînement des Modèles d’IA.
- Utilisation en IA :
Convient aux petits projets, au prétraitement des données, au développement logiciel ou aux tâches non parallélisables. Par exemple, les CPU sont utilisés pour orchestrer les workflows d’entraînement ou pour l’inférence dans des environnements nécessitant une faible latence. - Exemples :
- IBM Power10 : Optimisé pour les charges de travail d’entreprise et l’IA, avec une efficacité énergétique élevée et une capacité à traiter des modèles jusqu’à 20 fois plus rapidement que son prédécesseur (Power9).
- Intel Xeon Scalable : Utilisé dans les serveurs pour des tâches d’IA légères ou hybrides.
- AMD EPYC : Offre un grand nombre de cœurs pour des charges de travail polyvalentes.
- GPU (Graphics Processing Unit)
- Définition : Le deuxième type, GPU (Unité de Traitement Graphique), est un processeur spécialisé conçu initialement pour le rendu graphique, mais largement adopté pour les calculs parallèles dans l’IA.
- Caractéristiques principales :
- Architecture : Composée de milliers de cœurs plus petits, optimisés pour exécuter simultanément de nombreuses tâches simples (calcul parallèle).
- Forces : Excellente performance pour les calculs massivement parallèles, comme les multiplications matricielles dans l’apprentissage profond (Deep Learning).
- Limites : Consomme plus d’énergie que les CPU pour certaines tâches d’IA spécifiques et peut être moins optimisé pour des charges de travail non matricielles.
- Utilisation en IA :
Idéal pour l’entraînement et l’inférence des modèles d’IA, notamment les réseaux neuronaux profonds, grâce à sa capacité à traiter de grandes quantités de données en parallèle. - Exemples :
- NVIDIA A100 : GPU haut de gamme avec 80 Go de mémoire HBM3, utilisé dans les supercalculateurs pour entraîner des modèles comme ceux de xAI.
- NVIDIA H100 : Version plus avancée, offrant des performances accrues pour l’IA générative.
- TPU (Tensor Processing Unit)
- Définition : Le troisème type, TPU (Unité de Traitement Tensoriel), est un processeur spécialisé développé par Google, conçu spécifiquement pour les calculs d’apprentissage profond (Deep Learning).
- Caractéristiques principales :
- Architecture : Basée sur des circuits intégrés spécifiques à une application, optimisée pour les opérations matricielles et les calculs tensoriels utilisés dans les réseaux neuronaux.
- Forces : Extrêmement efficace pour les tâches d’IA, avec une consommation énergétique moindre par rapport aux GPU pour les charges de travail spécifiques au Deep Learning.
- Limites : Moins polyvalent que les CPU ou GPU, car conçu principalement pour les calculs tensoriels (entraînement et inférence de Modèles d’IA).
- Utilisation en IA :
Optimisé pour l’entraînement et l’inférence de Grands Modèles de Langage ou de Vision par Ordinateur, particulièrement dans les environnements Cloud. - Exemples :
- Google TPU V4 : Utilisé dans Google Cloud, offre des performances élevées pour l’entraînement de Modèles comme BERT ou Llama.
- Google TPU V5 : Version plus récente, avec une efficacité énergétique et des performances accrues pour les LLMs.
- Nota Bene :
IBM propose également des solutions spécifiques pour l’IA, comme le Telum II (24 téraflops par puce, optimisé pour l’inférence en temps réel) et le Spyre Accelerator (conçu pour les grands modèles de langage et l’IA générative). Le prototype NorthPole se distingue par son efficacité énergétique, surpassant les GPU comme le NVIDIA V100 dans des tâches d’inférence, mais il est encore en phase expérimentale et non commercialisé à ce jour. - En résumé :
- Les CPU (exemple du processeur IBM Power10) sont polyvalents mais limités pour les calculs parallèles massifs.
- Les GPU (exemple du NVIDIA H100) excellent dans le calcul parallèle pour l’entraînement et l’inférence.
- Les TPU (exemple du Google TPU V4) sont hautement optimisés pour les tâches d’IA spécifiques, avec une efficacité énergétique supérieure.
Le choix du processeur dépendra toujours avant tout de la nature de la tâche, du budget et des contraintes d’infrastructure.
Ressources de type "Volume de Stockage"
Les ressources de stockage requises par l'IA dépendent de plusieurs facteurs : le type d’IA (modèles d’apprentissage automatique, réseaux neuronaux, LLMs), la complexité du Modèle, les données utilisées pour l’entraînement et l'inférence, ainsi que l’architecture et les cas d’usage spécifiques.
Exigences souvent exprimées en Zettabytes (3)
Pour donner un ordre de grandeur, un ZB (Zettabyte) équivaut à 1 000 milliards de milliards d'octets, soit l'équivalent de 100 000 fois la Bibliothèque du Congrès des États-Unis.
Types de stockage requis par l’IA
Les besoins en stockage pour une IA peuvent être décomposés en plusieurs catégories :
- Stockage des modèles :
- Description : Les modèles d’IA, en particulier les Grands Modèles de Langage (LLMs) ou les réseaux neuronaux profonds, nécessitent un important espace de stockage pour sauvegarder leurs paramètres (poids des connexions neuronales). La taille du modèle dépend du nombre de paramètres et de la précision des données (par exemple, 16 bits ou 32 bits).
- Exemples :
- GPT-3 (175 milliards de paramètres) - Avec une précision en 16 bits (2 octets par paramètre), le modèle brut nécessite environ 350 Go de stockage pour les poids uniquement, sans compter les métadonnées ou les optimisations.
- Llama 2 (70 milliards de paramètres) : Un Modèle open-source comme Llama 2, avec 70 milliards de paramètres et en précision 16 bits, occupe environ 140 Go. Avec des optimisations comme la quantification (4 bits par paramètre), cela peut être réduit à environ 35 Go.
- Facteurs influençant la taille :
- Taille du Modèle (nombre de paramètres).
- Quantification (réduction de la précision des poids pour économiser de l’espace).
- Compression ou optimisations spécifiques.
- Stockage des données d’entraînement :
- Description : Les ensembles de données utilisés pour entraîner une IA peuvent être massifs, en particulier pour les modèles qui nécessitent des données textuelles, visuelles ou multimodales. Ces données incluent des textes, images, vidéos, ou autres formats, souvent stockés dans des bases de données ou des systèmes de fichiers distribués.
- Exemples :
- Common Crawl (5): Utilisé pour entraîner des modèles comme GPT, ce corpus massif de données Web peut atteindre plusieurs pétaoctets (1 Po = 1000 To). Par exemple, une extraction de Common Crawl pour un entraînement peut nécessiter 100 To de données textuelles brutes.
- ImageNet : Base de données massive d’images annotées, utilisée principalement pour entraîner et évaluer des Modèles d’IA (autour de 14 millions d’images, occupant environ 1 To en format compressé).
- Facteurs influençant la taille :
- Type de données (texte, image, vidéo, etc.).
- Résolution ou qualité des données (par exemple, vidéos 4K vs 1080p).
- Pré-traitement (données brutes vs données nettoyées ou augmentées).
- Stockage pour l’inférence et les résultats intermédiaires :
- Description : Pendant l’inférence (utilisation du modèle pour générer des prédictions), l’IA peut nécessiter un espace temporaire pour stocker les activations (calculs intermédiaires dans les couches du réseau neuronal) et les résultats. Cela est particulièrement vrai pour les grands Modèles d'IA déployés sur des GPU/TPU.
- Exemples :
- Pour un Modèle comme BERT, l’inférence sur une seule phrase peut nécessiter plusieurs Mo de mémoire temporaire pour les activations.
- Les LLMs comme GPT-4, lors de l’inférence, peuvent nécessiter des dizaines de Go pour les activations, en fonction du contexte d’entrée (par exemple, un long texte ou une image).
- Facteurs influençant la taille :
- Taille du contexte d’entrée (par exemple, nombre de "tokens" pour un modèle de langage).
- Architecture du Modèle (nombre de couches, taille des activations).
- Optimisations comme le "offloading" (déplacement des calculs vers le stockage).
- Stockage pour les métadonnées et les logs :
- Description : Les systèmes d’IA génèrent des métadonnées (exemples: configurations du modèle, hyperparamètres) et des logs (journaux d’entraînement, erreurs, performances). Ces données sont souvent stockées pour le suivi, la reproductibilité et l’optimisation.
- Exemples :
- Les logs d’entraînement pour un modèle comme GPT-3 sur plusieurs "epochs" (5) peuvent occuper plusieurs To, selon la fréquence d’enregistrement des métriques.
- Les métadonnées d’un pipeline d’entraînement (exemples: fichiers de configuration YAML ou JSON) occupent généralement quelques Mo ou Go.
- Stockage pour les sauvegardes et versions :
- Description : Les Modèles d’IA sont souvent versionnés pour sauvegarder différentes itérations ou points de contrôle (checkpoints) pendant l’entraînement. Cela permet de revenir à une version antérieure ou de comparer les performances.
- Exemples :
- Un checkpoint intermédiaire pour un Modèle comme Llama peut occuper de 100 Go à 1 To par sauvegarde, selon la taille du Modèle et la fréquence des sauvegardes.
- Pour un entraînement sur plusieurs semaines, une équipe peut avoir à sauvegarder des dizaines de To de checkpoints.
Types de supports de stockage utilisés
Les besoins en stockage varient également selon le type de support utilisé, qui doit répondre à des contraintes de vitesse, capacité et coût :
- Stockage local (SSD/NVMe) :
- Utilisé pour des accès rapides, notamment pour les modèles en inférence ou les "datasets" (ensembles de données) actifs.
- Exemple : Un serveur avec des SSD NVMe de 4 To peut être utilisé pour stocker un modèle comme Llama 2 et un dataset local pour l’inférence.
- Vitesse : Jusqu’à 7 Go/s en lecture/écriture.
- Stockage distribué (HDFS, S3, etc.) :
- Utilisé pour les grands datasets d’entraînement, souvent stockés dans le Cloud (AWS S3, Google Cloud Storage).
- Exemple : Un dataset comme Common Crawl peut être stocké sur AWS S3, occupant 100 To répartis sur plusieurs "Buckets" (5).
- Avantage : Évolutivité, mais la latence peut être plus élevée que le stockage local.
- Stockage en mémoire (RAM, HBM) :
- Utilisé pour les activations pendant l’entraînement ou l’inférence, souvent en combinaison avec des GPU/TPU.
- Exemple : Un GPU NVIDIA A100 avec 80 Go de mémoire HBM3 peut stocker temporairement les activations d’un Modèle comme BERT pour l’inférence.
Tendances et évolutions
- Croissance des besoins : Avec des Modèles comme GPT-4 ou futurs LLMs dépassant les 1 000 milliards de paramètres, les besoins en stockage pourraient atteindre plusieurs To pour un seul modèle et des exa-octets (1 Eo = 1 000 Po) pour les datasets.
- Cloud et Edge Computing : Les solutions Cloud comme AWS, Azure ou Google Cloud dominent pour le stockage des datasets, tandis que le stockage local est privilégié pour l’inférence sur des appareils Edge (par exemple, smartphones avec des modèles optimisés occupant 1-10 Go).
- Nouvelles technologies : Les systèmes de stockage à base de mémoire non volatile (comme Intel Optane) ou les architectures distribuées (comme Hadoop ou Spark) continuent d’évoluer pour répondre aux besoins croissants de l’IA.
Les besoins en stockage pour l’IA varient énormément selon le cas d’usage, allant de quelques Mo pour des modèles légers à des Po (Pétaoctets) pour l’entraînement de Grands Modèles. Les principaux facteurs sont la taille du Modèle, le volume des données d’entraînement, et les besoins temporaires pour l’inférence.
Des optimisations comme la quantification et la compression permettent de réduire ces besoins, mais la croissance des modèles et des datasets continue de pousser les limites des infrastructures de stockage.
Les ressources de type "Réseaux de communication" nécessaires au fonctionnement des systèmes d’Intelligence Artificielle (IA) sont essentielles pour assurer la collecte, le traitement, le stockage et la transmission des données à grande échelle. Ces ressources doivent répondre à des exigences élevées en termes de vitesse, latence, fiabilité, capacité et sécurité. La Fibre Optique (FO) et la 5G jouent des rôles clés dans ce contexte, chacune apportant des avantages spécifiques.
Exigences souvent exprimées en Terabits (6)
Par ailleurs, parmi les champs d'application privilégiés de l'IA figurent l'Industrie (4.0) et la Médecine (2.0), des domaines où des échanges constants et quasi-immédiats sont requis (commande de robots situés à des milliers de kilomètres, véhicules autonomes, opérations chirurgicales à distance, etc.). Cela exige là-aussi des réseaux à "Ultra Haut Débit" et à très faible temps de latence (temps qui s'écoule entre le moment où un signal est envoyé et le moment où il est reçu).
Importance des réseaux de communication pour l’IA
L’IA, qu’il s’agisse de l’apprentissage automatique (Machine Learning), de l’apprentissage profond (Deep Learning) ou de l’IA générative, repose sur des volumes massifs de données (Big Data) et des calculs intensifs. A cet égard, les réseaux de communication doivent répondre à plusieurs besoins :
- Collecte de données : Les systèmes d’IA s’appuient sur des données provenant de sources variées (capteurs IoT, applications, bases de données, etc.). Ces données doivent être transmises rapidement et en continu.
- Traitement en temps réel : Pour des applications comme la conduite autonome ou les assistants vocaux, une latence minimale est cruciale.
- Stockage et Accès Cloud : Les modèles d’IA nécessitent souvent des infrastructures cloud (comme AWS, Azure ou Google Cloud) pour stocker et traiter les données, ce qui exige des connexions à haut débit.
- Collaboration distribuée : Dans les systèmes d’IA distribués (par exemple, l’apprentissage fédéré), les données et les calculs sont partagés entre plusieurs nœuds, nécessitant une synchronisation rapide.
- Sécurité : Les données sensibles (santé, finance, etc.) doivent être transmises via des réseaux sécurisés.
La FO est une technologie de transmission de données utilisant des impulsions lumineuses à travers des câbles en verre ou en plastique. Elle est essentielle pour les infrastructures d’IA en raison de ses caractéristiques :
- Très Haut Débit : La FO offre des vitesses de transmission pouvant atteindre plusieurs térabits par seconde, idéales pour transférer les grandes quantités de données nécessaires à l’entraînement des modèles d’IA.
- Faible Latence : Les signaux lumineux se propagent à une vitesse proche de celle de la lumière, réduisant les délais dans les communications.
- Grande Capacité : Une seule fibre peut transporter plusieurs longueurs d’onde (multiplexage par division en longueur d’onde, WDM), augmentant la capacité de transmission.
- Fiabilité : Contrairement aux câbles en cuivre, la FO est insensible aux interférences électromagnétiques, garantissant une transmission stable.
- Portée Longue Distance : La FO permet de transmettre des données sur des milliers de kilomètres avec une atténuation minimale, essentielle pour connecter des Centres de Données à l’échelle mondiale.
- Les Centres de Données (Data Centers), où les Modèles d’IA sont entraînés et déployés, nécessitent des connexions inter-racks ultra-rapides. Par exemple, Google utilise des câbles de Fibre Optique pour connecter ses serveurs dans ses Data Centers, permettant le traitement de milliards de requêtes par seconde pour des services comme Google Search ou Google Translate.
- Les câbles sous-marins en Fibre Optique, comme le câble Marea reliant les États-Unis à l’Europe, assurent des transferts de données transcontinentaux à faible latence pour les services d’IA basés sur le Cloud.
- Les Superordinateurs pour l’IA, comme ceux utilisés par xAI pour entraîner des Modèles tels que Grok 3 s’appuient sur des réseaux internes à base de FO pour connecter des milliers de GPU (Unités de Traitement Graphique). C'est notamment le cas du superordinateur "Frontier".
- Le CERN (Recherche Scientifique), qui génère des pétaoctets de données pour ses expériences, utilise des réseaux en Fibre Optique pour transférer ces données vers des centres d’analyse où l’IA est utilisée pour identifier des particules subatomiques.
- Volume de données : L’entraînement d’un modèle d’IA comme GPT-4 peut nécessiter des dizaines de pétaoctets de données, que seule la FO peut transmettre efficacement entre les Centres de Données.
- Latence critique : Dans les applications d’IA en temps réel, comme la reconnaissance faciale dans les aéroports, la FO garantit des délais de transmission inférieurs à la milliseconde.
- Évolutivité : Avec l’augmentation des besoins en données pour l’IA, la FO permet d’ajouter de la capacité sans nécessiter de nouvelles infrastructures physiques.
- Vitesse élevée : La 5G peut atteindre des débits de plusieurs gigabits par seconde, permettant le transfert rapide de données vers des systèmes d’IA.
- Latence ultra-faible : Avec une latence de l’ordre de 1 à 10 millisecondes, la 5G est idéale pour les applications en temps réel.
- Connectivité massive : La 5G peut gérer des millions d’appareils par kilomètre carré, essentielle pour l’Internet des objets (IoT) alimentant l’IA.
- Slicing Réseau : La 5G permet de créer des tranches de réseau dédiées à des applications spécifiques, garantissant des performances optimisées pour l’IA.
- Mobilité : Contrairement à la FO, la 5G est sans fil, ce qui la rend idéale pour les applications mobiles et dynamiques.
- Véhicules Autonomes (VA): Les VA utilisent l’IA pour traiter en temps réel les données des capteurs (caméras, LIDAR, radar). La 5G permet de transmettre ces données à des serveurs distants pour une analyse complémentaire, par exemple pour mettre à jour les modèles de conduite en temps réel.
Ainsi, une voiture connectée en 5G peut envoyer des données vidéo 4K à un centre de données pour une analyse IA instantanée, avec une latence inférieure à 5 ms. - Villes Intelligentes : Dans des villes comme Singapour, la 5G connecte des capteurs IoT pour surveiller le trafic, la pollution ou les foules. Ces données sont traitées par des algorithmes d’IA pour optimiser les services urbains (par exemple, ajuster les feux de circulation en temps réel).
- Santé Connectée (Médecine 2.0) : Les dispositifs médicaux portables (comme les montres connectées ou les capteurs de glucose) utilisent la 5G pour transmettre des données de santé à des systèmes d’IA dans le Cloud, permettant un diagnostic en temps réel.
Par exemple, un hôpital peut utiliser la 5G pour transmettre des images d’IRM à un modèle d’IA pour détecter des anomalies en quelques secondes.
- Applications en temps réel : La faible latence de la 5G est essentielle pour des applications comme la chirurgie assistée par IA ou les drones autonomes.
- Connectivité IoT : L’IA dépend de milliards de capteurs IoT (caméras, capteurs environnementaux, etc.). La 5G permet de gérer une telle densité d’appareils.
- Edge Computing : La 5G facilite le traitement des données à la périphérie ("Edge") plutôt que dans le Cloud, réduisant la dépendance à la FO pour certaines applications. Par exemple, un modèle d’IA peut être exécuté sur un serveur local connecté en 5G pour analyser des données en temps réel.
Critère | Fibre Optique | 5G |
Débit | Jusqu’à plusieurs Tbps | Jusqu’à plusieurs Gbps |
Latence | Très faible (~1 ms sur courtes distances) | Ultra-faible (~1-10 ms) |
Portée | Mondiale (câbles sous-marins, | Locale (antennes, couverture |
Mobilité | Aucune (fixe) | Élevée (sans fil) |
Capacité d’appareils | Limitée par infrastructure physique | Millions d’appareils par km² |
Applications | Entraînement IA, Cloud, Data Centers | IoT, Edge Computing, |
La FO constitue l'ossature principale ("Backbone") des réseaux, reliant les Data Centers, les Clouds et les infrastructures critiques. Par exemple, un Modèle d’IA entraîné sur des serveurs connectés par FO peut être déployé sur des appareils mobiles via la 5G.
La 5G agit comme une interface entre les appareils finaux (smartphones, capteurs, voitures) et les infrastructures centrales, permettant une collecte et un traitement rapides des données en périphérie.- Exemple combiné :
Dans une usine intelligente, des capteurs IoT connectés en 5G collectent des données sur les machines (température, vibrations, etc.). Ces données sont transmises via la 5G à un serveur local pour une analyse IA préliminaire (Edge Computing). Les résultats ou les données brutes sont ensuite envoyés via la FO à un centre de données distant pour un entraînement approfondi du Modèle d’IA, qui optimise la maintenance prédictive.
Sources | |
L'Internet à Très Haut Débit, grâce à la Fibre Optique (FO) | |
Objets Connectés et Internet des Objets | |
Concernant la 5G | |
Le Big Data, quatrième "As" de la Révolution Numérique | |
Comprendre le "Machine Learning" (ML) |
------------------------------------------
FLOPS (Floating Point Operations Per Second) | |||
KiloFLOPS | KFLOPS | 103 FLOPS | 1 000 FLOPS |
MégaFLOPS | MFLOPS | 106 FLOPS | 1 000 KFLOPS |
GigaFLOPS | GFLOPS | 109 FLOPS | 1 000 MFLOPS |
TéraFLOPS | TFLOPS | 1012 FLOPS | 1 000 GFLOPS |
PétaFLOPS | PFLOPS | 1015 FLOPS | 1 000 TFLOPS |
ExaFLOPS | EFLOPS | 1018 FLOPS | 1 000 PFLOPS |
ZettaFLOPS | ZFLOPS | 1021 FLOPS | 1 000 EFLOPS |
YottaFLOPS | YFLOPS | 1024 FLOPS | 1 000 ZFLOPS |
Byte/Octet | B/o | N/A | N/A |
Kilobytes/Kilooctets | KB/Ko | 103 B/o | 1 000 B/o |
Mégabytes/Mégaoctets | MB/Mo | 106 B/o | 1 000 KB/Ko |
Gigabytes/Gigaoctets | GB/Go | 109 B/o | 1 000 MB/Mo |
Térabytes/Téraoctets | TB/To | 1012 B/o | 1 000 GB/Go |
Pétabytes/Pétaoctets | PB/Po | 1015 B/o | 1 000 TB/To |
Exabytes/Exaoctets | EB/Eo | 1018 B/o | 1 000 PB/Po |
Zettabytes/Zettaoctets | ZB/Zo | 1021 B/o | 1 000 EB/Eo |
Yottabytes/Yottaoctets | YB/Yo | 1024 B/o | 1 000 ZB/Zo |
(4) : Common Crawl est une organisation à but non lucratif qui effectue (depuis 2008) des explorations régulières du Web ("Web Crawling") pour créer des archives ouvertes de pages Internet. Ces données sont composées de centaines de milliards de pages Web, libres d'accès, disponibles gratuitement pour tous, et utilisées dans la recherche, l'apprentissage automatique, le traitement du langage naturel, etc.
Unité | Notation | Valeur en bit/s (bps) | |
Kilobit par sec | Kbit/s | 103 bit/s | 1 000 bit/s ou 1 000 bps |
Mégabit par sec | Mbit/s | 106 bit/s | 1 000 Kbps = 1 million de bps |
Gigabit par sec | Gbit/s | 109 bit/s | 1 000 Mbps = 1 milliard de bps |
Térabit par sec | Tbit/s | 1012 bit/s | 1 000 Gbps = 1 000 milliards de bps |
Pétabit par sec | Pbit/s | 1015 bit/s | 1 000 Tbps = 1 million de milliards de bps |