Nvidia GeForce RTX 3060 Ti : La carte à surveiller ?

La GeForce RTX 3060 Ti n’est pas encore tout à fait officielle mais elle est pressentie comme une solution proposant de très belles performances 3D pour un prix abordable.

Alors que Nvidia a dévoilé ses modèles les plus performants de cartes dernière génération Ampère avec les 3070, 3080 et 3090, elle prépare également des solutions plus légères et abordables comme la GeForce RTX 3060 Ti. Une solution qui pourrait cumuler de nombreux avantages au sein de machines compactes.

3060 Ti

La Nvidia GeForce RTX 3060 Ti sera moins performante que ses grandes soeurs, évidemment plus limitée en fréquences, moins riche en fonctions avancées, elle sera également moins chère avec un prix d’entrée de gamme devant se situer sous les 400€. Une récente publication du site VideoCardz laisse cependant entendre qu’elle serait capable de faire mieux qu’une carte GeForce RTX 2080 SUPER de génération Turing. Une solution encore actuellement vendue autour des 700€…

La RTX 3060 Ti serait équipée de 8 Go de mémoire GDDR6 mais dans une déclinaison assez sage – et moins coûteuse – ne grimpant qu’à 14 Gbps. En comparaison, la carte GeForce RTX 2080 SUPER propose une mémoire pouvant aller à 15 Gbps. Le nombre de RT Cores serait limité à 38 soit 10 de moins que la version 2080. Des éléments qui sont très intéressants dans l’optique d’une minimachine car la carte pourrait proposer une alternative non seulement moins coûteuse mais également peut être des déclinaisons plus compactes. 

RTX 3060 Ti

D’un point de vue pratique, le site présente la solution comme une alternative tout à fait efficace en terme de jeux avec un tableau de test sans équivoque. Opposée à la 2080S, la RTX 3060 Ti se place en tête dans tous les scénarios de jeu : Avec ou sans fonction Raytracing comme en calcul. Faisant ainsi disparaitre tout intérêt pour la 2080S aujourd’hui comme nouvel investissement possible. 

Les différents titres et logiciels proposés sont sans équivoque. Qu’il s’agisse de jeux comme Doom Eternal, Gears of Wars 5, Red Dead Redemption 2 ou Minecraft, la nouvelle venue est clairement devant. Des outils comme Arnold ou Blender ne sont pas en reste et profitent au maximum de la nouvelles architecture Turing. Testés en 2560 x 1440 pixels, les jeux ont été lancés sur une configuration équipée d’un Core i9-10900K aux fréquences classiques. La carte serait capable de délivrer 16.2 TFLOPS avec une fréquence de base de 1410 MHz et un mode Boost à 1665 MHz. Elle disposerait de 4864 coeurs CUDA et fonctionnerait dans une enveloppe thermique de 180 à 200 Watts. 

L’ensemble de ces éléments en font une candidate à suivre pour qui voudrait construire une MiniTour de jeu ou de travail abordable et compacte. Une marque pourrait chercher à se distinguer en proposant une version plus condensée que le design de référence. Tout du moins plus compacte que la ASUS GeForce RTX 3060 Ti TUF photographiée ici qui reprend le design triple ventilateur de la version RTX 3070. On a vu pas mal de solutions en RTX 2060S dans des formats compacts malgré des TDP de 175-180 watts.


Soutenez Minimachines avec un don mensuel : C'est la solution la plus souple et la plus intéressante pour moi. Vous pouvez participer via un abonnement mensuel en cliquant sur un lien ci dessous.
2,5€ par mois 5€ par mois 10€ par mois Le montant de votre choix

Gérez votre abonnement

30 commentaires sur ce sujet.
  • 18 novembre 2020 - 17 h 38 min

    400€ et abordable…

    Je sais pas pourquoi tout le monde trouve ces prix normaux, mais là c’est encore une fois trop chère pour une simple carte graphique.

    Quand j’ai acheté, plus chère, ma EVGA GTX 570 en janvier 2011 à 380€ car il y avait la garantie de 10 ans, qui m’a bien servi d’ailleurs, je trouvais ça déjà presque trop chère.

    Même si j’ai les moyens de me payer une RTX 3080 je dois avouer avoir du mal à comprendre comment la majorité des gens ne boycottent pas les cartes au-delà de 400€.

    AMD et Nvidia se font vraiment plaisir sur les tarifs des cartes graphiques.

    Aujourd’hui, il n’y a pas de solution entre 100 et 150€ pour jouer correctement en full HD avec une carte récente et pour moi c’est aberrant.

    Répondre
  • 18 novembre 2020 - 17 h 45 min

    @Zeratool: Tu as une carte graphique intégrée aux processeurs qui rend difficilement positionnable tout ce qui ne permettra que de jouer en 720/1080 à 60 fps.

    Si tu veux mieux, alors que ce n’est clairement pas indispensable, c’est que tu en as le besoin ou l’envie. Si tu en a besoin, tu vas le financer. Si tu en as envie, ben tu vas accepter les tarifs en fonction de tes envies. Du 720p 60 fps à l’UltraHD à 60 fps…

    Après « abordable » c’est une manière de positionner la carte face à ses grandes soeurs : 3070/3080/3090 vendues « un poil » plus chères…

    Enfin, il faut bien se rendre compte des investissements et des frais liés à ces cartes et leur conception/fabrication. Je ne crois pas qu’une 3080 soit vendable à 400€. Une telle restriction limiterait donc le marché à des cartes de puissances inférieures.

    Si tu regardes le truc dans le rétro tu as quand même une belle avancée tarifaire entre la 2080S et la 3060 dans le bon sens. L’un n’existerait pas sans l’autre.

    Répondre
  • 18 novembre 2020 - 18 h 49 min

    @Zeratool: Il fut temps où tu trouvais des cartes vendues à 50 ou 60€ neuves pour les HTPC car elles avaient des moteurs de décompression pour la vidéo que n’importe quelle carte intégrée Intel/AMD possède maintenant mais pas forcément à l’époque (Intel se débrouillant mieux qu’AMD dans ce domaine et faisant presque aussi bien qu’Nvidia ironiquement ) mais elles ne se destinaient pas à jouer ou aux tâches graphiques importantes non plus, mêmes celles vendues presque 100€ c’était limite.
    Si les cartes sont si chères aujourd’hui c’est qu’elles peuvent justifier leur tarif.

    Répondre
  • 18 novembre 2020 - 18 h 51 min

    Avec les premiers essais qui sortent des nouveaux Mac Silicon, c’est amusant de voir que GPU de l’Apple M1 fait déjà mieux que des cartes graphque dédiées comme les Nvidia GTX 1050 Ti et RX 560 d’AMD et avec de très bons rendements dans la compression vidéo.

    Une carte comme celle présentée et ses 4864 coeurs CUDA signalés dans l’article doivent bien profiter à des logiciels qui y font appel comme Davinci Resolve Studio pour accélérer le traitement vidéo.

    Répondre
  • 18 novembre 2020 - 19 h 21 min

    @Zeratool: Je suis d’accord avec toi sur le fond : 400€ est une somme importante qui correspond aussi plus ou moins au prix des nouvelles consoles (300 a 500€).
    A mon humble avis, le souci de fond est est le fait que nous approchons depuis 10 ans des limites de la miniaturisation et que chaque avancée est de plus en plus chère : une usine vaut désormais plus de 5 MILLIARDS de $ .
    par ailleurs, les puces graphiques sont de plus en plus grosses (et donc il y en a de moins en moins sur un wafer de même taille) :
    1. GeForce GTX 680 : 294mm² (https://fr.wikipedia.org/wiki/Kepler_(architecture_de_carte_graphique))
    2. Geforce GTX 3080 : 628mm2 ( https://en.wikipedia.org/wiki/Ampere_(microarchitecture) => puce GA102 => https://videocardz.com/newz/nvidia-details-geforce-rtx-30-ampere-architecture)

    Répondre
  • 18 novembre 2020 - 19 h 37 min

    400e oui, si elle est disponible à ce prix
    Il y a un vrai problème de disponibilité des rtx 3000, la 3070 est à 500(ce qui est très abordable vu ses perf) mais introuvable à ce tarif, le ticket d’entrée est à 644e et on esr plutôt sur du 800e cause rupture partout j’espère que la 3060ti ne souffrira pas de la même situation mais je suis pessimiste

    Répondre
  • 18 novembre 2020 - 19 h 46 min

    @Haruhi: Oui, mais ça va finir par se calmer :)

    Répondre
  • 18 novembre 2020 - 19 h 53 min

    @Baervar: Alors oui et non…

    La nouvelle génération de cartes chez Nvidia est moins chère pour le même niveau de perfs que la génération précédente.
    Si on regarde les 3070 par rapport aux 2080 Ti il n’y a pas photo, le prix public est inférieur pour des performances supérieures.

    Répondre
  • 18 novembre 2020 - 23 h 23 min

    Oui les cartes graphiques sont chères, mais cette gen sous l’impulsion d’amd a permis de diminuer les tickets d’entrée pour le 1440p avec tout au max, Nvidia avait de bonnes sources sur ce qu’allait présenter amd apparemment, comme par hasard les cartes à prix similaire ont des perfs similaires..
    Vive l’entente commerciale comme on dit…

    Répondre
  • 18 novembre 2020 - 23 h 37 min

    @Chouette Mâ-Mâ: je suis passé d’une Nvidia 1050Ti fanless à un AMD RX560. Lire ton commentaire sur la puce M1 me donne une bonne leçon d’humilité, en informatique on devient vite as been !

    Répondre
  • 19 novembre 2020 - 0 h 05 min

    @Pierre Lecourt:

    Certes les processeurs + carte graphiques intégrées se sont largement amélioré et constitue aujourd’hui une alternative pour jouer en basse qualité mais quand tu t’orientes sur cette solution, l’upgrade n’est pas une solution perenne pour moi. Cf ton article sur les besoins des utilisateurs que je ne retrouve pas.

    Les APU ont le gros désavantage de ne pas avoir les performances des CPU et GPU à 150€ pièce. Certes moins chère et pratique mais pas intéressant en terme d’évolution pour moi.

    Quand on compare AMD Ryzen 7 4700G avec un VEGA 11 à une RX 580 4Go vendu en fin de vie à 150€, on est pas du tout sur le même niveau de performance graphique.

    A l’époque quand j’ai acheté ma GTX 570, 90% des jeux qui sortaient était jouable en 1080p et en 60FPS mais c’était la norme pour du HDG.

    Aujourd’hui, à 150€ je devrais avoir une carte qui me permette de jouer QHD à 60 FPS avec des réglages HIGH/ULTRA sur les jeux qui sortent actuellement.

    Hors ce n’est clairement pas le cas aujourd’hui, il faut investir plus pour avoir cette exigence et ça c’est pas normal en 10 ans d’évolution informatique.

    Après je chipote un peu sur le terme « abordable » mais c’est pénible de voir le prix des cartes graphiques flamber comme ça que ce soit chez AMD et NVIDIA.

    En plus, les modèles moyen et bas de gamme sortent plusieurs mois après les modèles HDG.

    Répondre
  • 19 novembre 2020 - 0 h 37 min

    @Zeratool: Tu oublies juste un truc dans ton équation ? Les jeux eux même.
    Aujourd’hui avec un GPU tu pourrais jouer à tes jeux de 2011 en FullHD à 120 FPS. La GTX 570 date de 2011 et tu aurais aucun soucis a faire tourner n’importe quel titre d’alors avec un Intel UHD ou un APU AMD.

    Mais entre temps les développeurs se sont mis a ajouter pas mal de petites choses dans leur jeux. Quelques dizaines de millions de polygones, des textures HD, des effets temps réel et autres. Qui font qu’aucune carte de 2011 ne peut faire tourner correctement un jeu de 2020.

    Aujourd’hui les développeurs annoncent des titres avec des specs recommandées différentes : Cyberpunk 2077 ?
    Intel Core i7-4790 ou AMD Ryzen 3 3200G / AMD R9 Fury ou Nvidia GTX 1060 6Go / 12Go de RAM / 70Go de Stockage.
    Et avec ces configurations recommandées les performances seront juste « honorables ».

    Une chose est sûre, si Nvidia et AMD avaient joué la baisse des prix en conservant le plus longtemps possible leur puces au lieu de les faire évoluer, tu aurais probablement aujourd’hui une carte graphique à un prix plus faible mais probablement un modèle type GeForce 7. Alors certes tu l’aurais a 100€ mais tu ne pourrais pas non plus avoir le catalogue de jeu et d’applications actuels. Développer un GPU cela coûte cher, très cher.

    Autre détail : l’équipement. La GTX 570 proposait 1.3 Go de ram GDDR5, sa puce était gravée en 40 nano et elle ne proposait pas un dixième des fonctions annexes d’une carte 20xx ou 30xx… Bref ce n’est pas le même monde.

    Dernier point, voilà ce que donne Crysis sur la GTX 570 :
    https://www.youtube.com/watch?v=Qd-nbUWBqXM

    Voilà ce que cela donne sur un Intel UHD 610 intégré dans un CPU Intel :
    https://www.youtube.com/watch?v=eMAYCPqvWcg

    Voilà les performances proposées par un Ryzen 7 2700U et son APU interne :
    https://www.youtube.com/watch?v=NijqNFWlUug&list=PL_sfYUCEg8OhxPh_Gs3q-3T4AgTY1Wxm_

    Ce qui coutait 150€ de bonus en 2011 est désormais intégré à des puces milieu de gamme. Pour 150€ en 2011 tu avais juste une carte graphique basique. En 2020 tu as un PC complet avec un meilleur rendu 3d/2D/HD mais également 8Go de ram et 256 Go de SSD pour 100€ de plus… https://www.minimachines.net/mistermatos#mn278256

    C’est surtout cela que je vois.

    Répondre
  • 19 novembre 2020 - 11 h 24 min

    Pour moi qui fait du calcul sur GPU (deep learning, machine lmearning, …) cela mets la puissance de calcul à la maison à portée de main pour un prix qui devient de plus en plus raisonnable. Pour des petits projets cela devient intéressant

    A comparer par rapport aux offres de PC Cloud avec un GPU (Shadow, bientôt MS et VM Azure/AWS/GCP)

    Répondre
  • 19 novembre 2020 - 13 h 49 min

    Abordable ça reste à voir. Pour cette fourchette de prix autant prendre une ps5 qui garantira une compatibilité avc tt les jeux dans les 4/5 prochaines années.

    un avantage par contre, avc l’arrivée de cette carte le prix des rtx 2070 va chuter. Si on en trouve dans les 300€ la ça sera abordable.

    Répondre
  • 19 novembre 2020 - 14 h 18 min

    @Vincent DUPUIS: Est-ce que tu compares une Motocross avec une voiture familiale ?

    La PS5 est un outil de loisir qui se bornera a faire du jeu et rien que du jeu. Rien a voir avec un PC donc.

    Répondre
  • 19 novembre 2020 - 15 h 28 min

    @calvin: Hello, je suis très intéressé par le domaine de la data, mais je n’ai jamais trouvé rien de clair sur le sujet du calcul par GPU : j’ai compris qu’il existe CUDA et OpenCL, mais je n’ai rien trouvé de clair en tuto pour utiliser ces outils (genre utilisez telle GPU, téléchargez tel programme, et roulez jeunesse).
    Tu aurais un lien pour un débutant stp ? Merci

    Répondre
  • 19 novembre 2020 - 17 h 07 min
  • 19 novembre 2020 - 17 h 49 min

    @prog-amateur:

    [HORS-SUJET]

    Bonjour prog-amateur

    Depuis quelques mois je me simplifie la vie en travaillant sous Windows 10 et WSL2 (Windows Linux Subsystem 2). Cela m’évite de devoir jongler avec un double boot Ubuntu/Windows10.

    Ce qui suit concerne du matériel Nvidia Geforce/Quadro

    Il faut accepter de passer son PC sous Windows Insider programm pour avoir la prise en charge du GPU sous wsl2. Cela devrait être intégré officiellement dans les update 2021 Windows10

    Pour avoir un environnement calcul GPU sous Windows10/WSL2, je te conseille de commencer à suivre les instructions :

    1) https://docs.nvidia.com/cuda/wsl-user-guide/index.html
    2) https://ubuntu.com/blog/getting-started-with-cuda-on-ubuntu-on-wsl-2
    3) https://medium.com/swlh/how-to-install-the-nvidia-cuda-toolkit-11-in-wsl2-88292cf4ab77

    Une fois tout ça installé, tu auras la possibilité d’accéder au capacité calcul GPU CUDA de ta carte NVidia. Et en bonus tu pourras utiliser Docker pour installer des applications avec utilisation du GPU (très facile d’installer sans se poser la question de toutes les dépendances :-) !

    Pour démarrer à faire de la data sur GPU, quelques pistes à regarder :

    1) NVidia met en open source un package python pour faire du machine learning sur GPU : RAPIDS
    https://rapids.ai/start.html
    – exemples d’utilisation RAPIDS : https://medium.com/rapids-ai
    2) Coté Deep Learning tu pourras commencer à apprendre les principaux Framework type tensorflow ou pytorch sur GPU (les tutoriaux ne manquent pas). Pour commencer rapidement sans se prendre trop la tête, tu peux utiliser Ludwig, un framework open-source proposé par Uber pour faire de l’auto ML/Deeplearning

    https://ludwig-ai.github.io/ludwig-docs/ -> en quelques lignes de code tu peux lancer ton premier apprentissage Deep Learning :-)

    Coté matériel : ce qui est important c’est la taille mémoire de ton GPU. Min4 go

    – pour commencer à apprendre : une carte type GTX 1050/1050 Ti (4 Go) ou mieux GTX 1060 (6 go) -> j’ai un Dell XPS15 9570
    – pour faire commencer à faire des projets : 8 GO min – GTX 1070/1080 (une RTX 2070 achetée d’occase sur mon poste fixe)

    Si tu ne veux pas investir, tu peux utiliser le service Cloud Google Colab qui te permet d’avoir une VM avec GPU sans débourser un sous (très suffisant pour apprendre) : https://ledatascientist.com/google-colab-le-guide-ultime/

    Voilà j’espère que j’ai été complet et que cela t’aide à démarrer sur le sujet … have fun ! :-)

    Répondre
  • 20 novembre 2020 - 0 h 22 min

    Personnellement j’attends plutot la rtx 3050/ti (vers les 200 euros quoi) vu que c’est surtout pour du jeu et edit vidéo 1080p !
    Après AMD est maintenant compétitif, j’espère qu’on verra une baisse des prix vers le bas petit a petit (apparemment on aurait peut etre encore des version sans rtx dans le bas du lineup donc on verra)

    Répondre
  • 20 novembre 2020 - 12 h 55 min

    @Geppeto35, et @calvin: merci pour ces retours très complet. Vous voulez que je fasse un peu de sieste avec toutes ces lectures avouez ! En tout cas, merci beaucoup, c’est top, en plus j’ai une GTX 1050Ti qui est rangée, inutilisée. Ça m’a l’air complexe mais je pense que c’est parce que je débute en la matière, en tout cas j’apprécie votre retour.

    Répondre
  • 20 novembre 2020 - 16 h 00 min

    @prog-amateur:

    Avec plaisir … c’est en bidouillant + autoformation que j’ai mis le pied dans le métier :-)

    Pour te donner une idée sur les performances, une classification d’image pour identifier des parkings à partir d’image satellite. Apprentissage sur 10 000 images (modèles Deep learning ResNet50)
    – Avec une carte GTX 1050 ti MaxQ sur mon portable : > 12 minutes par cycle d’apprentissage (epoch)
    – Avec un VM sur Google Colab : 6~/7 minutes par cycle d’apprentissage (epoch)
    – Avec une carte RTX2070 sur mon PC fixe : 2’30 minutes par cycle d’apprentissage (epoch)

    Répondre
  • 20 novembre 2020 - 19 h 43 min

    @Pierre Lecourt:
    …. encore heureux que ces nouvelles cartes soient moins chères ou plus performantes que la génération précédente sinon à quoi bon en changer? ;-)

    Répondre
  • 20 novembre 2020 - 20 h 10 min

    @ep2r11: Ben en général ces dernières années c’était plus performant certes mais également plus cher…

    Répondre
  • 20 novembre 2020 - 20 h 34 min

    @calvin: 2’30 ??! Cette RTX 2070 semble être un monstre en termes de calculs. Je me souviens avoir réussi à lancer un algorithme de reconnaissance d’images (articles de e-commerce) avec mon CPU (AMD 1700X), ça avait pris une plombe (de souvenir plusieurs heures) !!!

    Répondre
  • 22 novembre 2020 - 19 h 29 min

    @prog-amateur:

    Oui les cartes RTX intègrent des unités spécialisés (Tensorcore) en plus des cores CUDA pour le deep learning pour le calculs parallèles.

    Toujours pour te donner un ordre d’idée de l’apport du calcul sur GPU :
    Sur la meme tâche de classication, un CPU puissant (R7 3700X 8 cores/16 threads) effectue un cycle d’apprentissage en 48 minutes. Ton « petit » GPU GTX 1050 Ti le fait en 12 minutes.

    Il faut environ 14 cycles d’apprentissage pour cette tâche donc :
    – avec un cpu R7 3700x -> il te faut plus de 11h pour avoir un modèle entrainé
    – un petit GPU GTX 1050 ti -> il te faut 2h48 … une claque pour le CPU ;-)
    – un RTX 20270 -> il te faut 35 min.

    Et cela devrait être encore plus efficace sur la génération RTX3000 … Pour les application de calcul GPU, si cela se trouve la RTX 3060 ti sera plus performance que ma RTX 2070 actuelle pour moins cher ! d’où mon impatience pour pouvoir tester la nouvelle génération de cartes « à prix raisonnable » :-)

    Bonne lecture et surtout bonne expérimentation …

    Répondre
  • 23 novembre 2020 - 17 h 02 min

    @Pierre Lecourt:
    Tu as une carte graphique intégrée aux processeurs qui rend difficilement positionnable tout ce qui ne permettra que de jouer en 720/1080 à 60 fps.

    Il est possible qu’Intel le fasse avec ses Xe en 1080p médium : on verra avec Rocket Lake en mars et plus tard avec Alder Lake. Ils vendent au public leurs CPU avec carte graphique intégrée aux processeurs. Ce que refuse de faire AMD : ses APUS ne sont vendu qu’aux OEM/intégrateurs : le public n’y a pas droit ; il est obligé d’acheter une carte graphique quand il construit sa machine avec un CPU AMD.AMD cannibaliserait sa gamme de CG bas de gamme s’il permettait au public d’avoir des APU à 250/300 € pour faire du 1080p @40/60 i/s.
    Ce qui n’est pas le cas d’Intel qui n’a rien à cannibaliser : c’est ce que j’espère (l’espoir fait vivre…) qu’ils vont faire: ça permettrait de démocratiser le jeu sans être obligé d’acheter des CG à 250 €.

    Répondre
  • 8 décembre 2020 - 15 h 43 min
  • 9 décembre 2020 - 14 h 41 min

    […] chipset de Nvidia. Une solution particulièrement intéressante donc puisqu’elle apportera un équivalent de performances d’une GeForce RTX 2080 Super dans une enveloppe beaucoup plus […]

  • 14 janvier 2021 - 19 h 14 min

    […] Nvidia GeForce RTX 3060 Ti : La carte à surveiller ? […]

  • 19 janvier 2021 - 10 h 33 min

    […] a vu l’arrivée des GeForce RTX 3060 Ti d’un très bon oeil, cette gamme carte ayant tout pour plaire à un Minimachiniste voulant construire une solution […]

  • LAISSER UN COMMENTAIRE

    *

    *