En 2020, Apple a fait un geste audacieux; ils ont abandonné Intel et sont passés à leur silicium propriétaire pour alimenter leurs MacBook. Bien que le passage à l'architecture ARM du langage de conception x86 ait soulevé plusieurs sourcils, Apple prouvé que tout le monde avait tort lorsque les MacBook alimentés par le silicium Apple offraient des performances époustouflantes par watt.

Selon plusieurs experts, le passage à l'architecture ARM a été l'une des principales raisons de l'augmentation des performances/watt. Cependant, la nouvelle architecture de mémoire unifiée a également joué un rôle crucial dans l'amélioration des performances des MacBook de nouvelle génération.

Alors, qu'est-ce que l'architecture de mémoire unifiée d'Apple et comment fonctionne-t-elle? Eh bien, découvrons.

Pourquoi votre ordinateur a-t-il besoin de mémoire ?

Avant d'entrer dans l'architecture de mémoire unifiée d'Apple, il est essentiel de comprendre pourquoi les systèmes de stockage primaires tels que la mémoire vive (RAM) sont nécessaires en premier lieu.

Vous voyez, un processeur traditionnel fonctionne à une vitesse d'horloge de 4 GHz pendant une Turbo. À cette vitesse d'horloge, un processeur peut effectuer des tâches en un quart de nanoseconde. Cependant, les disques de stockage, comme les SSD et les disques durs, ne peuvent fournir des données au processeur que toutes les dix millisecondes, soit 10 millions de nanosecondes. Cela signifie qu'entre le moment où le processeur termine le traitement des données sur lesquelles il travaille et la réception du prochain lot d'informations, il reste inactif.

Cela montre clairement que les disques de stockage ne peuvent pas suivre la vitesse du processeur. Les ordinateurs résolvent ce problème en utilisant des systèmes de stockage primaires comme la RAM. Bien que ce système de mémoire ne puisse pas stocker les données de manière permanente, il est beaucoup plus rapide que les SSD - il peut envoyer des données en aussi peu que 8,8 nanosecondes: infiniment plus rapide que les SSD les plus rapides actuellement.

Ce faible temps d'accès permet au processeur de recevoir les données plus rapidement, ce qui lui permet de traiter en continu les informations au lieu d'attendre que le SSD envoie un autre lot à traiter.

En raison de cette architecture de conception, les programmes des lecteurs de stockage sont déplacés vers la RAM, puis accessibles par le CPU via les registres du CPU. Par conséquent, un système de stockage principal plus rapide améliore les performances d'un ordinateur, et c'est précisément ce que fait Apple avec son architecture de mémoire unifiée.

Comprendre le fonctionnement des systèmes de mémoire traditionnels

Maintenant que nous savons pourquoi la RAM est nécessaire, nous devons comprendre comment le GPU et le CPU l'utilisent. Bien que le GPU et le CPU soient tous deux conçus pour le traitement des données, le CPU est conçu pour effectuer des calculs à usage général. Au contraire, le GPU est conçu pour effectuer la même tâche sur différents cœurs. En raison de cette différence de conception, le GPU est très efficace dans le traitement et le rendu des images.

Bien que le CPU et le GPU aient des architectures différentes, ils dépendent des systèmes de stockage principaux pour obtenir des données. Il existe deux types de mémoires à accès aléatoire sur un système traditionnel avec un GPU dédié. Il s'agit de la VRAM et de la RAM système. Aussi connue sous le nom de RAM vidéo, la VRAM est responsable de l'envoi des données au GPU et la RAM système transfère les données au CPU.

Mais pour mieux comprendre les systèmes de gestion de la mémoire, regardons un exemple réel de vous jouant à un jeu.

Lorsque vous ouvrez le jeu, le processeur entre dans l'image et les données du programme du jeu sont déplacées vers la RAM système. Après cela, le CPU traite les données et les envoie à la VRAM. Le GPU traite ensuite ces données et les renvoie à la RAM pour que le CPU affiche les informations à l'écran. Dans le cas d'un système GPU intégré, les deux appareils informatiques partagent la même RAM mais accèdent à des espaces différents dans la mémoire.

Cette approche traditionnelle implique de nombreux déplacements de données, ce qui rend le système inefficace. Pour résoudre ce problème, Apple utilise l'architecture de mémoire unifiée.

Comment fonctionne l'architecture de mémoire unifiée sur Apple Silicon ?

Apple fait plusieurs choses différemment en ce qui concerne les systèmes de mémoire.

Dans le cas des systèmes génériques, la RAM est connectée au CPU à l'aide d'un socket sur la carte mère. Cette connexion limite la quantité de données envoyées au CPU.

D'autre part, Silicium pomme utilise le même substrat pour monter la RAM et le SoC. Bien que la RAM ne fasse pas partie du SoC dans une telle architecture, Apple utilise un substrat intercalaire (Fabric) pour connecter la RAM au SoC. L'interposeur n'est rien d'autre qu'une couche de silicium entre le SOC et la RAM.

Par rapport aux sockets traditionnels, qui reposent sur des fils pour transférer des données, l'interposeur permet à la RAM de se connecter au chipset à l'aide de vias en silicium. Cela signifie que les MacBook Apple alimentés au silicium ont leur RAM intégrée directement dans le boîtier, ce qui accélère le transfert de données entre la mémoire et le processeur. La RAM est également physiquement plus proche de l'endroit où les données sont nécessaires (les processeurs), permettant ainsi aux données d'arriver plus tôt là où elles sont nécessaires.

En raison de cette différence de connexion de la RAM au chipset, il peut accéder à des bandes passantes de données élevées.

Crédit d'image: Pomme

En plus de la différence mentionnée ci-dessus, Apple a également modifié la façon dont le CPU et le GPU accèdent au système de mémoire.

Comme expliqué précédemment, le GPU et le CPU ont des pools de mémoire différents dans les paramètres traditionnels. Apple, au contraire, permet au GPU, au CPU et au Neural Engine d'accéder au même pool de mémoire. De ce fait, les données n'ont pas besoin d'être transférées d'un système de mémoire à un autre, ce qui améliore encore l'efficacité du système.

En raison de toutes ces différences dans l'architecture de la mémoire, le système de mémoire unifiée offre une bande passante de données élevée au SoC. En effet, le M1 Ultra propose une bande passante de 800 Go/s. Cette bande passante est nettement supérieure par rapport aux GPU hautes performances comme le AMD Radeon RX 6800 et 6800XT, qui offrent une bande passante de 512 Go/s.

Cette bande passante élevée permet au CPU, au GPU et au Neural Engine d'accéder à de vastes pools de données en quelques nanosecondes. De plus, Apple utilise des modules de RAM LPDDR5 cadencés à 6400 MHz dans la série M2 pour fournir des données à des vitesses étonnantes.

De combien de mémoire unifiée avez-vous besoin ?

Maintenant que nous avons une compréhension de base de l'architecture de mémoire unifiée, nous pouvons examiner la quantité dont vous avez besoin.

Bien que l'architecture de mémoire unifiée offre plusieurs avantages, elle présente encore quelques défauts. Premièrement, la RAM est connectée au SoC, de sorte que les utilisateurs ne peuvent pas mettre à niveau la RAM de leur système. De plus, le CPU, le GPU et le Neural Engine accèdent au même pool de mémoire. Pour cette raison, la quantité de mémoire requise par le système augmente considérablement.

Par conséquent, si vous êtes quelqu'un qui surfe sur Internet et qui utilise une tonne de traitements de texte, 8 Go de mémoire vous suffiraient. Mais si vous utilisez souvent les programmes Adobe Creative Cloud, l'obtention de la variante 16 Go est une meilleure option car vous aurez une expérience plus fluide de l'édition de photos, de vidéos et de graphiques sur votre machine.

Vous devriez également envisager le M1 Ultra avec 128 Go de RAM si vous formez de nombreux modèles d'apprentissage en profondeur ou si vous travaillez sur des montages vidéo avec des tonnes de couches et des séquences 4K.

L'architecture de mémoire unifiée est-elle tout pour le bien ?

L'architecture de mémoire unifiée sur silicium Apple apporte plusieurs modifications aux systèmes de mémoire d'un ordinateur. De la modification de la façon dont la RAM est connectée aux unités de calcul à la redéfinition de l'architecture de la mémoire, Apple change la façon dont les systèmes de mémoire sont conçus pour améliorer l'efficacité de leurs systèmes.

Cela dit, la nouvelle architecture crée une condition de concurrence entre le CPU, le GPU et le Neural Engine, augmentant la quantité de RAM dont le système a besoin.