Les GPU Nvidia ont parcouru un long chemin, non seulement en termes de performances de jeu, mais également dans d'autres applications, en particulier l'intelligence artificielle et l'apprentissage automatique. Les deux principaux facteurs responsables des performances du GPU de Nvidia sont les cœurs CUDA et Tensor présents sur à peu près tous les GPU Nvidia modernes que vous pouvez acheter.

Mais que font exactement ces cœurs, et s'ils sont tous les deux utilisés dans des applications d'intelligence artificielle et d'apprentissage automatique, en quoi sont-ils différents ?

Que sont les cœurs CUDA et à quoi servent-ils?

CUDA signifie Compute Unified Device Architecture, ce qui ne fait pas grand-chose pour expliquer leur présence dans un GPU. Ces cœurs ont été introduits dans la gamme de GPU Nvidia dans l'architecture Maxwell 2014 et se spécialisent dans le traitement parallèle.

Ils sont assez similaires aux cœurs de processeur en termes de fonctionnement, mais gèrent mieux certains tâches, y compris les hachages cryptographiques, les moteurs physiques, les projets liés à la science des données et même les jeux développement.

Crédit d'image: Nvidia

Alors que nous avons déjà couvert comment les cœurs CUDA affectent les performances de jeu de votre PC, ils sont tout aussi utiles pour faire des calculs. Alors que même les processeurs les plus puissants ont des cœurs à deux chiffres, les GPU Nvidia sont livrés avec plusieurs milliers de cœurs CUDA, ce qui les rend beaucoup plus rapides pour les charges de travail numériques. De plus, comme ils effectuent ces calculs en parallèle, vous obtenez des vitesses beaucoup plus rapides avec les cœurs CUDA.

Les cœurs CUDA sont plus rapides que les cœurs de processeur ordinaires en ce qui concerne les calculs, mais ils ne constituent toujours pas la solution idéale. C'est parce qu'ils n'ont jamais été destinés à être utilisés de cette manière. Les cœurs CUDA ont été spécialement conçus pour le traitement graphique et pour rendre les GPU Nvidia plus performants en termes de performances de jeu.

Que sont les noyaux tenseurs et à quoi servent-ils?

Alors que les GPU ont commencé à être utilisés pour les charges de travail d'intelligence artificielle et d'apprentissage automatique, Nvidia a introduit des cœurs Tensor dans l'architecture Volta pour ses GPU de centre de données à partir de 2017.

Cependant, il a fallu attendre l'architecture Nvidia Turing (GPU RTX série 20) pour que ces cœurs arrivent sur les GPU grand public. Se souvenir que si les cartes GTX 16-Series sont également basées sur l'architecture Turing, elles n'incluent aucun lancer de rayons ou Tensor noyaux.

Alors que les cœurs CUDA étaient au mieux adéquats pour les charges de travail de calcul, les cœurs Tensor ont fait monter les enchères en étant nettement plus rapides. Alors que les cœurs CUDA ne peuvent effectuer qu'une seule opération par cycle d'horloge, les cœurs Tensor peuvent gérer plusieurs opérations, ce qui leur donne une incroyable amélioration des performances. Fondamentalement, tous les cœurs Tensor augmentent la vitesse de multiplication de la matrice.

Cette augmentation de la vitesse de calcul se fait au détriment de la précision, les cœurs CUDA étant nettement plus précis. Cela dit, lorsqu'il s'agit de former des modèles d'apprentissage automatique, les cœurs Tensor sont bien plus efficaces en termes de vitesse de calcul et de coût global; par conséquent, la perte de précision est souvent négligée.

Comment les cœurs Tensor et CUDA affectent-ils les performances du GPU?

Comme vous pouvez probablement le deviner maintenant, alors que les cœurs CUDA et Tensor peuvent gérer les mêmes charges de travail, ils sont tous deux des cœurs spécialisés pour le rendu graphique et les charges de travail numériques, respectivement.

Cela signifie qu'en fonction de l'utilisateur auquel un GPU particulier est destiné, il aura un nombre différent de cœurs. Par exemple, si nous considérons le RTX 4090, le dernier et le meilleur GPU de jeu destiné aux consommateurs de Nvidia, vous obtiendrez beaucoup plus de cœurs CUDA que de cœurs Tensor. 16 384 cœurs CUDA à 512 cœurs Tensor, pour être précis.

En comparaison, le GPU Nvidia L40 pour les centres de données, basé sur la même architecture Ada Lovelace que le RTX 4090, possède 18 176 cœurs CUDA et 568 cœurs Tensor. Cela peut ne pas sembler être une si grande différence, mais cela peut affecter considérablement les performances de ces GPU.

En termes de performances théoriques, le L40 a 90,52 TFlops de performances FP16 et FP32 ainsi que 1 414 GFlops de performances FP64. Il s'agit d'une amélioration considérable des performances par rapport aux 82,58 TFlops de performances FP16 et FP32 du RTX 4090 et aux 1 290 GFlops de performances FP64.

À moins que vous ne connaissiez bien les chiffres de performances numériques du GPU, les chiffres de performances en virgule flottante du GPU Nvidia ci-dessus pourraient ne pas signifier grand-chose pour vous. Cependant, en bref, ils montrent que le L40 est beaucoup plus rapide que le RTX 4090 en ce qui concerne les calculs numériques, ceux nécessaires à l'intelligence artificielle et aux charges de travail basées sur l'apprentissage automatique.

L'amélioration des performances devient d'autant plus impressionnante si l'on considère la consommation électrique des deux GPU. Le RTX 4090 a un TGP classé (à ne pas confondre avec TDP, il y a une petite différence) de 450W, tandis que le L40 est conçu pour seulement 300W.

Ces deux GPU exécuteront des jeux et entraîneront parfaitement votre modèle d'apprentissage automatique. Cependant, le RTX 4090 sera meilleur pour exécuter des jeux et le L40 sera meilleur pour former des modèles d'apprentissage automatique.

Cœurs CUDA vs. Tensor Cores: lequel est le plus important?

Les deux cœurs sont tout aussi importants, que vous achetiez votre GPU pour le jeu ou que vous le placiez dans un rack de centre de données. Les GPU de jeu destinés aux consommateurs de Nvidia utilisent un tas de fonctionnalités d'IA (notamment DLSS), et avoir des cœurs Tensor à bord peut être utile.

En ce qui concerne les GPU des centres de données, les cœurs CUDA et Tensor fonctionnent de toute façon en tandem la plupart du temps, vous obtiendrez donc les deux quel que soit le GPU que vous choisissez. Au lieu de vous concentrer sur un type de cœur spécifique dans votre GPU, vous devriez vous concentrer davantage sur ce que fait la carte graphique dans son ensemble et sur le type d'utilisateur auquel elle est destinée.

Les cœurs CUDA sont spécialisés dans la gestion des charges de travail graphiques, tandis que les cœurs Tensor sont meilleurs pour les charges numériques. Ils travaillent ensemble et sont interchangeables dans une certaine mesure, mais ils gèrent leurs propres spécialisations, c'est pourquoi ils existent en premier lieu.

Différents GPU se spécialisent dans différents aspects. Le RTX 4090 écrasera facilement tous les jeux que vous lui lancez, tandis que le RTX 4060 ne peut gérer que les jeux en 1080p. Si vous ne jouez pas avec votre GPU et que vous n'en avez besoin que pour calculer des chiffres ou former des réseaux de neurones, un GPU de centre de données de série A comme l'A100 ou même le L40 est votre meilleur pari.

Vos cœurs GPU comptent

Plus de cœurs GPU vous donneront de meilleures performances globales car votre GPU sera plus polyvalent et disposera de ressources dédiées pour gérer différentes tâches. Cependant, obtenir aveuglément un GPU avec le plus grand nombre de cœurs n'est pas la meilleure décision. Prenez un moment pour examiner attentivement votre cas d'utilisation, examinez les capacités du GPU dans son ensemble, puis faites votre choix.