GeForce RTX 2080 Ti, un monstre de puissance

La GeForce RTX 2080 Ti repose sur l’utilisation d’une puce TU102 composée de 18,6 milliards de transistors, mais dont tous les blocs de calcul ne sont pas utilisés. Ainsi, sur les 72 blocs SM en présence, seuls 68 sont actifs sur ce modèle. Chaque SM embarque 64 unités de calcul, 4 unités dédiées aux textures, 6 unités dédiées au deep learning (Tensor) et 1 bloc de calcul dédié au raytracing (RT). Au final, cela donne donc lieu à une puce regroupant pas moins de 4 352 unités de calcul, 272 unités dédiées aux textures, 544 Tensor Cores et 68 RT Cores. Le tout est accompagné de 88 unités de rendu. Il s’agit donc d’une belle évolution par rapport la GeForce GTX 1080 Ti qui ne comportait par exemple « que » 3 584 unités de calcul.

La fréquence de fonctionnement n’évolue en revanche pas beaucoup sur le papier. Il faut dire que le passage d’un procédé de gravure 16 nm à un procédé 12 nm FFN (du FinFET de TSMC spécifique à Nvidia) n’est pas un grand changement. En effet, à l’inverse de ce que peut laisser suggérer le changement de nomenclature, le 12 nm est plus à voir comme une optimisation du procédé 16 nm. Dès lors, le gain à espérer sur la consommation électrique ne sera pas aussi marqué que lors du passage du 28 nm au 16 nm.

La fréquence de base est ainsi annoncée à 1 350 MHz, contre 1 480 MHz sur la 1080 Ti — une régression donc sur la fréquence minimale tenue par la nouvelle puce. En revanche, la fréquence moyenne GPU Boost évolue à la hausse puisqu’elle passe de 1 582 MHz à 1 635 MHz sur les modèles Founders Edition (le modèle testé ici). Attention, les Founders Edition ne sont désormais plus à voir comme des modèles de référence, mais comme des modèles overclockés d’usine. Ainsi, certains partenaires de Nvidia seront en mesure de proposer des variantes non overclockées, dont la fréquence GPU Boost moyenne sera fixée à 1 545 MHz, soit à une fréquence légèrement inférieure à celle de la 1080 Ti.

GPU Boost 4.0 : une légère évolution pour plus de contrôle

Nvidia a néanmoins revu son système d’ajustement de la fréquence et passe le GPU Boost dans sa quatrième itération. Avec GPU Boost 4.0, il est toujours question, comme sur GPU Boost 3.0, d’ajuster la fréquence de fonctionnement en fonction de la charge appliquée, d’un seuil de consommation électrique et de la température de la puce. Le changement se situe au niveau de la gestion de la température, qui dispose d’un seuil de température intermédiaire avant lequel la fréquence passe à sa valeur de nominale. Selon Nvidia, cela permettrait de conserver une fréquence plus élevée que précédemment lorsque le système de refroidissement de la carte graphique est performant.

 

Un outil de simplification d’overclocking qui n’évolue que peu

Nvidia a également décidé de laisser la possibilité aux utilisateurs de changer la valeur des seuils de température. Pas d’utilitaire maison pour cela, mais un utilitaire tiers tel Precision X1 d’Evga ou Afterburner de MSI, par exemple. Ces logiciels pourront également intégrer le kit Nvidia Scanner de manière à proposer un overclocking manuel simplifié.

Similaire au système d’overclocking automatique introduit sur les GeForce GTX 10, le Scanner de Nvidia permet toujours aux utilitaires d’agir au niveau de la tension de manière à définir quelle fréquence maximale est la plus stable. Le nouveau système serait néanmoins plus précis avec une charge GPU plus réaliste. L’utilisateur, de son côté, doit au préalable définir la limite de consommation et de température — autant mettre les curseurs à leur maximum — et jouer sur les seuils de température dont nous parlions un peu plus haut. Bref, c’est automatique en grande partie, mais toujours pas entièrement.

La GDDR6 fait ses grands débuts

Nvidia en profite également pour inaugurer la GDDR6. Sur ses modèles haut de gamme de la série 10, la société recourait à de la GDDR5X et conservait de la GDDR5 classique sur les modèles de milieu et d’entrée de gamme. Les GeForce RTX 2080 Ti, RTX 2080 et RTX 2070 sont pour leur part à armes égales à ce niveau et jouissent donc toutes de ce nouveau type de mémoire qui permet à la fois d’augmenter le débit et se montre énergiquement plus intéressant avec un gain de 20 % sur l’efficacité énergétique.
 
Sur la GeForce RTX 2080 Ti, Nvidia ne fait pas évoluer la quantité et propose ainsi toujours 11 Go de mémoire ainsi qu’un bus à 352 bits. Le passage à une fréquence de 1 750 MHz permet toutefois de proposer une bande passante de 616 Go/s, bien supérieure aux 484 Go/s observés sur la GTX 1080 Ti et sur la Radeon RX Vega 64 — la carte d’AMD exploite pour sa part de la HBM2, bien plus coûteuse à produire et surtout à intégrer.

Un étage d’alimentation soigné

Nvidia assure également avoir porté une grande attention à l’alimentation de sa carte qui affiche une enveloppe thermique de 260 watts (2 connecteurs d’alimentation PCIe à 8 broches sont présents), soit 10 watts de plus que sur le modèle qu’elle remplace. Il est ainsi question d’un étage composé de pas moins de 13 phases destinées à l’alimentation du GPU et de 3 phases à destination de la mémoire graphique. Il s’agit par ailleurs de systèmes iMON DrMOS, capables de s’activer seulement lorsque c’est nécessaire — moins d’unités sont ainsi engagées en idle, par exemple — de manière à optimiser le rendement énergétique. Il s’agit là typiquement du type d’étage d’alimentation utilisé sur les cartes graphiques haut de gamme des partenaires de Nvidia. Cela n’a pas empêché notre modèle de test d’émettre un son strident (coilwhine) au niveau de ses bobines dans le menu de certains jeux.

Avec ses RTX 20, Nvidia opère un grand changement au niveau du système de refroidissement. Exit la ventilation de type turbine que l’on trouve sur les modèles de la marque depuis les GeForce 6 (2004) et place à un système à base de deux ventilateurs axiaux. Encore une fois, le fabricant se range du côté de ses partenaires qui, sur leurs déclinaisons haut de gamme, utilisent ce type de refroidisseur — parfois avec trois ventilateurs. Par expérience, nous savons que ce type de système s’avère moins bruyant que les turbines tout en proposant un refroidissement plus efficace. L’inconvénient, c’est qu’une partie de l’air chaud généré est refoulé à l’intérieur du boîtier plutôt que d’être entièrement expulsé. Une ventilation correcte du boîtier est donc préférable. On note au passage que la finition de la carte est plutôt admirable, avec sa coque métallique grise aux angles biseautés. Seule la partie centrale, faite de plastique, aurait gagné à être plus soignée.

Et il faut bien avouer que le résultat est probant dans les jeux où la ventilation est particulièrement maîtrisée. Le système de Nvidia est ainsi au niveau des systèmes de marques partenaires (Asus, Zotac, Gigabyte, MSI) prenant place sur les GeForce GTX 1080 et 1080 Ti, pour dire. Du côté de l’efficacité de refroidissement, le système maintient le GPU à sa température de 81°C.
 
En revanche, la ventilation reste audible au repos. La faute au ventilateur surmontant l’étage d’alimentation qui continue à tourner assez rapidement hors charge. Un problème que Nvidia espère pouvoir le corriger via une mise à jour des pilotes.

 Avec la GeForce RTX 2080 Ti, Nvidia promet une carte graphique capable de débiter plus de 60 images par seconde en 4K. Dans la pratique, il est vrai que nombre de jeux peuvent être exécutés à plus de 70 i/s tandis que le reste frise la barre des 60. Un résultat plus que probant qu’on ne peut que saluer d’autant plus que la RTX 2080 Ti est, à l’heure d’écrire ces lignes, la seule carte graphique du marché capable de proposer cela. Les différentes améliorations apportées par l’architecture Turing portent leurs fruits puisqu’on atteint une différence moyenne de 25 % au mieux par rapport à la meilleure des cartes Pascal, la Titan Xp. Possible néanmoins que cette différence puisse paraître insuffisante aux yeux de certains joueurs qui auront patienté plus de deux ans entre les deux générations de cartes.

Car le problème pour Nvidia, c’est que la firme recourt ici à une puce particulièrement imposante et utilisée dans sa plus grande partie. En plus clair, Nvidia a encore de quoi proposer un « super modèle » de type Titan en exploitant toutes les unités de la puce, mais la différence avec la RTX 2080 Ti ne pourra être énorme. Et autant ne pas se leurrer, l’arrivée d’une puce encore plus massive ne peut être au programme tant le GPU utilisé ici est déjà énorme. Bref, à moins d’un passage au 10 nm, Turing semble donc bien déployer quasiment toutes ses forces à travers la GeForce

Du coup, la firme mise sur d’autres domaines pour pérenniser cette gamme avec la promesse d’un rendu de meilleure qualité grâce au raytracing et, dans une moindre mesure, le DLSS (un système moins gourmand que les antialiasing classiques). Nvidia va même encore plus loin en nous assurant que c’est l’industrie du jeu vidéo qui pousse le rendu hybride et non pas lui-même qui, de son côté, souhaite simplement proposer de quoi l’exploiter correctement. Nous résumons l’état de ces deux technologies dans notre encadré.

Reste enfin la question du tarif. Proposée à 1 259 €, la GeForce RTX 2080 Ti est une carte graphique particulièrement onéreuse, proposée dans le segment tarifaire tenu par les Titan jusque-là. Un tarif élevé que Nvidia justifie par l’aspect premium du système de refroidissement et, surtout, à la taille et la complexité de la puce utilisée — ce que nous ne contredirons pas. À ce titre, elle propose donc mieux pour moins cher que la Titan Xp. Mais on ne manquera pas de remarquer qu’elle est au bas mot 70 % plus onéreuse que la GeForce GTX 1080 Ti tout en ne proposant que 42 % de performances supplémentaires. Le raytracing et l’implémentation d’unités dédiées au deeplearning (pour le DLSS notamment) se paient donc au prix fort, espérons donc que les promesses à ce niveau soient tenues à terme. Le joueur équipé d’un écran 4K, lui, n’aura pas véritablement d’autre alternative, malheureusement.

 

 

Pour marque-pages : Permaliens.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *