Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1414 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  35  36  37  ..  804  805  806  807  808  809
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11140227
Profil sup​primé
Posté le 03-08-2022 à 16:12:04  answer
 

Reprise du message précédent :
 [:ric lechic]

mood
Publicité
Posté le 03-08-2022 à 16:12:04  profilanswer
 

n°11140229
Arakhan
Posté le 03-08-2022 à 16:20:02  profilanswer
 


 
 
j'ai écrit peut être  :o  
 
le rêve est permis  :D

n°11140230
Regla88
Posté le 03-08-2022 à 16:20:53  profilanswer
 

Faudra espérer que les mineurs ne se ruent pas dessus...

n°11140231
Profil sup​primé
Posté le 03-08-2022 à 16:21:10  answer
 

Surveiller les sites de ventes entre particuliers ou les bonnes affaires par ci par là, c'est tout sauf du rêve :D

n°11140232
Arakhan
Posté le 03-08-2022 à 16:24:27  profilanswer
 

Regla88 a écrit :

Faudra espérer que les mineurs ne se ruent pas dessus...


 
si les cryptos remontent pas (avec un peu de chance), ils ne s'y intéresseront même pas.

n°11140234
Profil sup​primé
Posté le 03-08-2022 à 16:32:36  answer
 

kalix7 a écrit :

Et sinon on sait quand sortent les RTX 4000, ou du moins avons nous des rumeurs "sérieuses" je crois avoir lu quelque part que la sortie est reportée à 2023..

https://zupimages.net/up/22/31/oz4u.jpg>source

n°11140235
campi
V8 FTW
Posté le 03-08-2022 à 16:35:05  profilanswer
 

Arakhan a écrit :


 
il y aura peut être une fenêtre (sans doute très courte) ou il y aura de supers prix sur les générations actuelles non?


 
C'est la dessus que je mise perso. Mais c'est un pari risqué :D


---------------
Aye aye aye, s'il va sur l'autoroute il est mort, on a plus de puiZZanZe!
n°11140282
kalix7
Posté le 03-08-2022 à 18:23:14  profilanswer
 


 
Merci  :jap:

n°11140302
Ploufplouf​972
Posté le 03-08-2022 à 19:35:43  profilanswer
 


400W la 4070TI  [:jeanmichel_covid:8]

n°11140338
Activation
21:9 kill Surround Gaming
Posté le 03-08-2022 à 22:13:56  profilanswer
 

Gunman24 a écrit :

Je préférerais des cartes moins chères, performantes et sans RT.
Une vraie série GTX 4xxx.


 
Ça n existera jamais  
Vu qu il préfère répercuter une parti des coût sur le gamer pour des archi qui fondamentalement vise les pro
Mais j ai envie de dire que la gamme "quadro" s efface bouffé par des solution de calcul dans le cloud
 
Bref on achète des "quadro" castré faut pas se leurrer
 
Moi je demande que ça que ça soit vraiment utile les tensor core
Mais rien à foutre d un rtx voice pour filtrer le blabla durant un call sur MS teams ou dans discord
 
Moi je préférerait que les éditeurs de soft de montage audio et vidéo et image se sortent les doigts pour des moteurs qui
Nettoie avec deep learning des vieille piste son (bruit de souffle craquement...)
Nettoie les video avec du deep learning
Colorise des film noir et blanc via deep leaning
Vectorise efficacement des images bitmap  
 
Alors oui y a des soft qui existent déjà
Mais soit c est achat mais cher
Soit c est only abonnement et donc cher sur le moyen terme de toute façon
Pire souvent c est obligation de mettre TES sources dans le cloud de l entreprise qui propose le service... bah voyons super pour la confidentialité/propriété intellectuel
Soit c est achat et prix acceptable mais c est limite sans deep learning et qualité bof
Genre c est des paramètres fixe ou t as pas la main dessus qui met l accent sur la rapidité de traitement, plutôt que le nombre de passe et la qualité qui a ce que ça prennent qqs jours au lieu de qqs heures minutes
 
Et moi ça me gonfle des tensor core qui servent à rien sur mes appli de traitement d image/son/vidéo
 
On se croirait revenu à l epoque ou il a fallut des plombe pour que les éditeurs de ces solutions passe du 32 au 64bits
Idem pour le multithread
Idem pour le gpgpu
 
Et là la mm pour le Deep Learning
Ça existe mais quand ça sera palpables pour les power user va falloir encore 10-15ans après que le hard est là
Et les APi aussi... depuis bien 4ans
 
C est un peu comme star citizen... mais si ça marche enfin comme la promesse seulement quand on a 80ans à l hospice des vieux... c était pas la peine de nous faire des promesses
 
Tu prend des séries ou animé de fantasy ou SF on te promet rien... c est du rêve... tu t eclate
Là on te promet des choses... c est concret... la faisabilité est réel
Mais le constructeur qui te vend cette promesse du produit qu il vend se sort pas les doigts du luc pour que ça bouge chez les éditeurs de soft
Désolé nvidia mais je suis pas d accord pour que tu nous impose des tensor core juste pour machin dlss
 :o
 
Plutot que de filer des milliers de rtx3090 gratos à des "influenceur" donne plutôt des carte à des corel, pegasys, magic et autres éditeurs de softs à gamme de prix intermédiaire pour qu ils nous proposent des new fonctionnalité sympa
Car ras le cul des monopole pompe à fric à la adobe
Qui au passage n innovent plus vu qu ils ont le monopole

Message cité 3 fois
Message édité par Activation le 03-08-2022 à 22:34:54
mood
Publicité
Posté le 03-08-2022 à 22:13:56  profilanswer
 

n°11140437
ben shinob​i
Posté le 04-08-2022 à 11:47:08  profilanswer
 

Activation a écrit :


 
Ça n existera jamais (...)


Bah si, les gtx 16xx d'nvidia sont sorties après les premières RTX (turing) :o.
Par contre on ne peut que regretter que ça ne soit pas le cas pour ampere....On verra bien pour Lovelace.
 
Sinon, je suis plutot d'accord avec toi pour une fois. Toutes ces puces orientées "AI" sont largement sous exploitées (ou pas du tout) en dehors du gaming pur, et c'est bien dommage.

Message cité 1 fois
Message édité par ben shinobi le 04-08-2022 à 12:33:21
n°11140445
havoc_28
Posté le 04-08-2022 à 12:02:32  profilanswer
 

ben shinobi a écrit :


Bah si, les gtx 16xx d'nvidia sont sorties après les premières RTX (turing) :o.
Par contre on ne peut que regretter que ça ne soit pas le cas pour ampere....On verra bien pour Lovelace.
 
Sinon, je suis plutot d'accord avec toi pour une fois. Toutes ces puces orientées "AI" sont largement sous exploité (ou pas du tout) en dehors du gaming pur, et c'est bien dommage.


 
ça ne risque pas, pour Turing même le TU106 mesurait 445 mm² (RTX 2070 / 2060), les TU116 / 117 du Turing allégé oui, ne font "que" 284 et 200 mm² respectivement, on était sur du "12" nm FFN une légère évolution du "16" nm FF+ de chez TSMC. Bref ça surtout été fait pour une histoire de coût afin de réduire la taille des puces.  
 
Avec Ampère le GA107 qui dispose d'unité RT et Tensore Core ne fait "que" 200 mm² en Samsung "8" nm (petite évolution de leurs "10" nm) le GA106 276 mm², donc avec le passage au "4" nm TSMC (dérivé de leur "5" nm), y a encore moins de chance de voir des puces sans RT / Tensore Core.


Message édité par havoc_28 le 04-08-2022 à 12:04:02
n°11140449
ravenloft
Meilleur jeu du 20ème siècle
Posté le 04-08-2022 à 12:17:16  profilanswer
 


Toujours dans les délires. :lol:  
 
Tu devrais regarder plus souvent l'émission de digital fundry, cela t'éviterait de t'embêter avec des faux problèmes qui ont l'air de te pourrir la vie et celles des autres.
 
Au fait, la ponctuation, c'est pas les tensor core qui vont la faire mais toi. Avant de les critiquer qu'ils font pas assez de chose, commence par t'appliquer tes principes car toi tu fais pas assez pour rendre tes pavés lisibles et écrit dans une forme française correcte.


---------------
Ravenloft
n°11140450
- gab
Posté le 04-08-2022 à 12:28:16  profilanswer
 

Le point positif, c'est que ça fait de l'entraînement pour l'index [:molette]


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11140465
Activation
21:9 kill Surround Gaming
Posté le 04-08-2022 à 13:50:16  profilanswer
 

Ah mais si digital fundry la dit :o
Paraît qu on est encore libre de penser
Enfin il paraît hein :o

n°11140469
mazinga
Posté le 04-08-2022 à 14:04:06  profilanswer
 

Activation a écrit :


 
Ça n existera jamais  
Vu qu il préfère répercuter une parti des coût sur le gamer pour des archi qui fondamentalement vise les pro
Mais j ai envie de dire que la gamme "quadro" s efface bouffé par des solution de calcul dans le cloud
 
Bref on achète des "quadro" castré faut pas se leurrer
 
Moi je demande que ça que ça soit vraiment utile les tensor core
Mais rien à foutre d un rtx voice pour filtrer le blabla durant un call sur MS teams ou dans discord
 
Moi je préférerait que les éditeurs de soft de montage audio et vidéo et image se sortent les doigts pour des moteurs qui
Nettoie avec deep learning des vieille piste son (bruit de souffle craquement...)
Nettoie les video avec du deep learning
Colorise des film noir et blanc via deep leaning
Vectorise efficacement des images bitmap  
 
Alors oui y a des soft qui existent déjà
Mais soit c est achat mais cher
Soit c est only abonnement et donc cher sur le moyen terme de toute façon
Pire souvent c est obligation de mettre TES sources dans le cloud de l entreprise qui propose le service... bah voyons super pour la confidentialité/propriété intellectuel
Soit c est achat et prix acceptable mais c est limite sans deep learning et qualité bof
Genre c est des paramètres fixe ou t as pas la main dessus qui met l accent sur la rapidité de traitement, plutôt que le nombre de passe et la qualité qui a ce que ça prennent qqs jours au lieu de qqs heures minutes
 
Et moi ça me gonfle des tensor core qui servent à rien sur mes appli de traitement d image/son/vidéo
 
On se croirait revenu à l epoque ou il a fallut des plombe pour que les éditeurs de ces solutions passe du 32 au 64bits
Idem pour le multithread
Idem pour le gpgpu
 
Et là la mm pour le Deep Learning
Ça existe mais quand ça sera palpables pour les power user va falloir encore 10-15ans après que le hard est là
Et les APi aussi... depuis bien 4ans
 
C est un peu comme star citizen... mais si ça marche enfin comme la promesse seulement quand on a 80ans à l hospice des vieux... c était pas la peine de nous faire des promesses
 
Tu prend des séries ou animé de fantasy ou SF on te promet rien... c est du rêve... tu t eclate
Là on te promet des choses... c est concret... la faisabilité est réel
Mais le constructeur qui te vend cette promesse du produit qu il vend se sort pas les doigts du luc pour que ça bouge chez les éditeurs de soft
Désolé nvidia mais je suis pas d accord pour que tu nous impose des tensor core juste pour machin dlss
 :o
 
Plutot que de filer des milliers de rtx3090 gratos à des "influenceur" donne plutôt des carte à des corel, pegasys, magic et autres éditeurs de softs à gamme de prix intermédiaire pour qu ils nous proposent des new fonctionnalité sympa
Car ras le cul des monopole pompe à fric à la adobe
Qui au passage n innovent plus vu qu ils ont le monopole


 
Je suis globalement d'accord avec ce que tu dis.  
Le problème que je rencontre souvent c'est qu'avec l'AI on a besoin de beaucoup de de vram, et que les seules cartes pas trop chères qui en ont beaucoup ce sont les RTX3090, ou alors faut taper dans des vieilles tesla mais les versions de cuda supportées ne sont pas pérennes.  
Bref, je pense passer mon tour sur les rtx 4000 qui n'ont pas plus de vram que ça et vont surtout consommer beaucoup trop d'énergie alors qu'on est en pleine crise de l'energie et tout ça pour afficher quoi ? des jeux en 4K/8K, c'est une course pas très intéressantes.  
L'optimisation des logiciels de création via nvidia studio est pas optimale, par exemple, pour de l'AI en python, j'ai remarqué que les rendus étaient plus rapides avec les pilotes game ready qu'avec les pilotes nvidia studio.  
le fait de devoir switcher d'un pilote à l'autre n'est pas non plus fantastique si des éditeurs ont un logiciel qui est optimisé pour la version studio.

n°11140503
Snev
Posté le 04-08-2022 à 15:54:19  profilanswer
 

kalix7 a écrit :

Et sinon on sait quand sortent les RTX 4000, ou du moins avons nous des rumeurs "sérieuses" je crois avoir lu quelque part que la sortie est reportée à 2023..


Si la guerre éclate à Taiwan tu peux tabler sur 2025-2026 je pense, pourvu qu'elle ne dure que 3 mois bien sûr. L'impact d'une telle guerre stoppera la production de voitures, smartphones, PC, TV, avions, antennes, équipement réseau (internet), une bonne partie de l'armement de pointe et j'en passe. Tablons plutôt sur 2028 car les cartes graphiques ne seront pas la prio pour résorber les pénuries à venir :o

n°11140531
major_niki​ta
Posté le 04-08-2022 à 17:18:15  profilanswer
 

Si seulement... On apparendrais a se satisfaire de ce que l ont a déjà...


---------------
Mon topic vente : Topic Vente
n°11140593
ravenloft
Meilleur jeu du 20ème siècle
Posté le 04-08-2022 à 20:44:00  profilanswer
 

Activation a écrit :

Ah mais si digital fundry la dit :o
Paraît qu on est encore libre de penser
Enfin il paraît hein :o


Tu es libre de penser n'importe quoi et de vouloir t'enfermer dans cette pensée. On est en démocratie.
Je suis libre de te le dire aussi. ;)


---------------
Ravenloft
n°11140608
havoc_28
Posté le 04-08-2022 à 21:31:39  profilanswer
 

Activation a écrit :

Ah mais si digital fundry la dit :o
Paraît qu on est encore libre de penser
Enfin il paraît hein :o


 
DF est effectivement dans les médias les plus enthousiastes niveau DLSS / RayTracing  :whistle: .

n°11140610
+ bender +
Quadriceps impériaux
Posté le 04-08-2022 à 21:34:29  profilanswer
 


Le TDP prévu des RTX4000  [:catalonix:10]

n°11140612
jujuf1
Je suis un chat
Posté le 04-08-2022 à 21:48:25  profilanswer
 

+ bender + a écrit :


Le TDP prévu des RTX4000  [:catalonix:10]


https://m.youtube.com/watch?v=03a4UH9mz7E
Ça me fait penser à ça.


---------------
Du coup du coup …
n°11140686
Valaint671​30
Cinquième soleil
Posté le 05-08-2022 à 09:51:18  profilanswer
 

Bon comme prévu, la 4080 ne seras pas mienne, oh non, mais la 4080 Ti oui  [:daphne:3]  
 
https://wccftech.com/nvidia-geforce [...] -ti-rumor/

Message cité 2 fois
Message édité par Valaint67130 le 05-08-2022 à 09:53:42

---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11140694
Snev
Posté le 05-08-2022 à 10:17:02  profilanswer
 

Tout le monde va se jeter sur la 4080, la 4080 Ti aura une meilleure dispo car rapport puissance/prix moins bon :o
 
Va peut-être falloir acheter son alim en avance car ça risque aussi de partir en pénurie à la dispo des cartes :D

n°11140729
Gunman24
Posté le 05-08-2022 à 12:24:28  profilanswer
 

Bientôt l'autocollant de certif sur les alim pour les rtx4. :O

n°11140731
Snev
Posté le 05-08-2022 à 12:42:14  profilanswer
 

ça ferait pas de mal à Seasonic pour se refaire une image...

n°11140736
mazinga
Posté le 05-08-2022 à 13:08:43  profilanswer
 

le rapport prix conso, tout ça pour jouer à 8K, je vois pas trop l'intérêt, sachant que la majorité des Gamers sont encore sur du full HD, et que l'énergie va coûter bcp plus cher.
Pour moi, nvidia se trompe d'époque.  
il faudrait des cartes qui consomment moins et qui consomment mieux et surtout travailler sur l'optimisation logicielle
sinon la génération 5000 ce sera quoi, des alim de 2000 watts ?

n°11140740
ben shinob​i
Posté le 05-08-2022 à 13:14:37  profilanswer
 

mazinga a écrit :

le rapport prix conso, tout ça pour jouer à 8K, je vois pas trop l'intérêt, sachant que la majorité des Gamers sont encore sur du full HD, et que l'énergie va coûter bcp plus cher.
Pour moi, nvidia se trompe d'époque.  
il faudrait des cartes qui consomment moins et qui consomment mieux et surtout travailler sur l'optimisation logicielle
sinon la génération 5000 ce sera quoi, des alim de 2000 watts ?


 
Tout à fait d'accord sur le diagnostic, sauf sur le nvidia qui se trompe d'époque. Le marketing high tech dans son ensemble fait son oeuvre, pas juste nvidia ou amd ou que sais je.

n°11140748
Ze m't
Posté le 05-08-2022 à 13:45:42  profilanswer
 

En fait avec la génération 40XX, Nvidia semble refaire l'erreur des GTX 4XX qui étaient aussi des gouffres à watts.
Ils ont redressé la barre sur les GTX 5XX et surtout 6XX.
 
Alors, vivement les RTX 60XX  :D


---------------
 Ma gallerie Flickr
n°11140750
jln2
Posté le 05-08-2022 à 13:59:45  profilanswer
 

mazinga a écrit :

le rapport prix conso, tout ça pour jouer à 8K, je vois pas trop l'intérêt, sachant que la majorité des Gamers sont encore sur du full HD, et que l'énergie va coûter bcp plus cher.
Pour moi, nvidia se trompe d'époque.
il faudrait des cartes qui consomment moins et qui consomment mieux et surtout travailler sur l'optimisation logicielle
sinon la génération 5000 ce sera quoi, des alim de 2000 watts ?

 

AMD, Intel, c'est la même chose hein.

 

Maintenant, on est pas obligé d'acheter des gouffres a watts si un GPU/CPU plus sobre nous permet de jouer confortablement en FHD.
T'es pas obligé de prendre une 4090TI/13900ks @ 1000w pour jouer si une 4050/13100f @ 200w suffit largement pour du FHD.


Message édité par jln2 le 05-08-2022 à 14:01:20
n°11140754
Iryngael
Awesome, ain't it ?
Posté le 05-08-2022 à 14:07:23  profilanswer
 

Faudra vraiment comparer le ratio perf/W...
Entre Pascal et Turing c'était bien de la merde car il était quasiment inchangé (d'où tous ceux qui n'ont pas franchi le cap 1080->2080)
Pour Ampere c'est à peine mieux alors si entre Ampere et Lovelace y a pas d'amélioration c'est même pas la peine...

 

Filez nous de la xx80 à 185W de la xx80Ti à 250W et de la xx90/Titan à 300W et basta. Surtout en ces temps de crise énergétique.

 

Je changerai pas ma 3090 tant que y aura pas soit les memes perfs pour la moitié du TDP ou le double de perfs à TDP similaire (et je le trouve déjà abusif mais il est même pas beaucoup mieux sur les 3080/Ti)


---------------
/!\ Le point de rendez-vous des amateurs de vieux matos informatique c'est ici !/!\
n°11140755
- gab
Posté le 05-08-2022 à 14:09:23  profilanswer
 

Valaint67130 a écrit :

Bon comme prévu, la 4080 ne seras pas mienne, oh non, mais la 4080 Ti oui  [:daphne:3]  
 
https://wccftech.com/nvidia-geforce [...] -ti-rumor/


"$699 US?" pour la 4080, j'ai bien vu le point d'interrogation mais à aucun moment j'y crois :D
 
Si elle est si perf que ça et qu'on la trouve à moins de 1000€ chez nous on aura de la chance :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°11140763
quentincc
It's all ogre now
Posté le 05-08-2022 à 14:46:07  profilanswer
 

Iryngael a écrit :

Faudra vraiment comparer le ratio perf/W...
Entre Pascal et Turing c'était bien de la merde car il était quasiment inchangé (d'où tous ceux qui n'ont pas franchi le cap 1080->2080)
Pour Ampere c'est à peine mieux alors si entre Ampere et Lovelace y a pas d'amélioration c'est même pas la peine...
 
Filez nous de la xx80 à 185W de la xx80Ti à 250W et de la xx90/Titan à 300W et basta. Surtout en ces temps de crise énergétique.
 
Je changerai pas ma 3090 tant que y aura pas soit les memes perfs pour la moitié du TDP ou le double de perfs à TDP similaire (et je le trouve déjà abusif mais il est même pas beaucoup mieux sur les 3080/Ti)


Quelle utilité pour le consommateur de sortir une RTX4080 avec les même performances que la 3080 pour un TDP inférieur ?
La majorité s'en contrefou de la conso et ne voit que les performances, de plus Nvidia ne peut pas se permettre de sortir des cartes de "faible performance" (similaire à la génération précédente) pour uniquement gagner sur la conso (personne ne changerait sa RTX3000 pour une 4000)
 
Si on veut la perf et la conso, il faut attendre (longtemps :o) qu'une révolution en terme de process se joue, nous sommes à un stade où les progrès en terme de process sont TRES MINCES pour se permettre de doubler la perf/l'efficacité tout les deux ans (comme la tendance à l'époque ou ce que les plus exigeants souhaitent), l'architecture est déjà très efficiente, le multi die ou "chiplet" pose encore énormément de problèmes (architecturale/de performance) dans le domaine du GPU, c'est pas pour cette génération et probablement pas la prochaine gen...
 
Au bout d'un moment soit on est capricieux et on demande de la perf peu importe le reste (3090 350+W), soit on est raisonnable, on baisse les settings et ainsi la consommation (3070 220W voir même 3060 et 170W). Il va falloir s'habituer à cela puisque ce n'est pas prêt de changer :/


---------------
Mon topic d'achat/vente :)
n°11140765
mazinga
Posté le 05-08-2022 à 14:48:02  profilanswer
 

Iryngael a écrit :

Faudra vraiment comparer le ratio perf/W...
Entre Pascal et Turing c'était bien de la merde car il était quasiment inchangé (d'où tous ceux qui n'ont pas franchi le cap 1080->2080)
Pour Ampere c'est à peine mieux alors si entre Ampere et Lovelace y a pas d'amélioration c'est même pas la peine...
 
Filez nous de la xx80 à 185W de la xx80Ti à 250W et de la xx90/Titan à 300W et basta. Surtout en ces temps de crise énergétique.
 
Je changerai pas ma 3090 tant que y aura pas soit les memes perfs pour la moitié du TDP ou le double de perfs à TDP similaire (et je le trouve déjà abusif mais il est même pas beaucoup mieux sur les 3080/Ti)


 
Bah vu ce qui est annoncé avec les 4000, la 3090 reste la carte la plus valable, encore une fois à moins de vouloir jouer en 8K, et encore elle doit bien être aussi perf qu'une 4070, mais avec bcp plus de vram. Même s'ils annoncent la 4070 plus perf
Perso je me sers des cartes surtout sur la Vram... là ils augmentent la conso surtout et à mon avis les prix vont suivre l'augmentation : pénurie, inflation, plus de perf, ça ne va pas dans le bon sens pour moi.

n°11140772
Snev
Posté le 05-08-2022 à 15:16:45  profilanswer
 

Ze m't a écrit :

En fait avec la génération 40XX, Nvidia semble refaire l'erreur des GTX 4XX qui étaient aussi des gouffres à watts.
Ils ont redressé la barre sur les GTX 5XX et surtout 6XX.
 
Alors, vivement les RTX 60XX  :D


Vivement 2026 [:raztapeaupoulos]

n°11140773
ben shinob​i
Posté le 05-08-2022 à 15:20:17  profilanswer
 

Est il utile de rappeler que rien n'est officiel à ce jour en matière de communication autour de ces LOVELACE et que nos inquiétudes, légitimes certes, se fondent essentiellement sur une compilation de gossips, de bruits de chiottes, de fake news et de marketing viral issue des mêmes sources inépuisables de bullshit que sont Igor's lab et videocardz (en gros)?
Donc, attendons un peu (les reviews indépendantes de qualité) avant de parler rapport perf/watt :o

Message cité 1 fois
Message édité par ben shinobi le 05-08-2022 à 16:24:51
n°11140776
Xantar_Eoz​enn
Posté le 05-08-2022 à 15:35:15  profilanswer
 

Les watt c'est sur, ils seront là.
Le connecteur PCIEX 16 pins de 450/600w (utilisable par 2) est pas là pour faire jolie.
Depuis 1 an, on sait qu'NVidia doit cartonner avec AD car en face il y aura du MCM façon MI250X (limitation à 500w sur serveur).

n°11140782
ben shinob​i
Posté le 05-08-2022 à 15:57:58  profilanswer
 

Oui certes, mais attention à ne pas s'emballer.  
 
Aujourd'hui, même pour une carte consommant 200-250 watts, il est fortement conseillé (voir quasi obligatoire par sécurité), d'avoir deux cables pcies distincts, supportant 2*288 watts max.  
 
Donc ce n'est pas déconnant d'avoir un seul connecteur et cable pcie 5.0 entre 400 et 600 watts pour des cartes gaming grand public, qui consommeraient aux alentours des 200-300 watts (constituant le milieu/haut de gamme).
 
C'est plus safe pour les newbies et c'est plus pratique et économique(à long terme), en fait, pour tout le monde.
 
Au passage, ça pousse tous les consommateurs à renouveler entièrement leurs configs, jusqu'au PSU, cette histoire d'ATX 3.0... [:moudenc:2]
 
Comme ça vient avec la ddr5 et le pcie 5.0 ça passera crême...
c'est le turfu  :o  !!
 
EDIT: après, c'est mon point de vue, je peux me tromper. :jap:
 
Ma "théorie" se base surtout sur l'impossibilité actuelle de dissiper efficacement (au delà des 400 watts) par air cooling . Question de taille max des ventilos et du ventirad, de poids, de surface, taille/espace dans les boitiers actuels. Obliger tout le monde à passer sous watercooling dans des cases géants EATX 3.0, c'est osé.
 
Mais ils en sont capables, oui  :pfff:.
 
D'un autre côté, Y a peut-etre des progrès en matière d'aircooling possibles :  des nouveaux matériaux, des fans plus performants etc...à venir aussi
 
S'il faut passer à l'azote liquide pour jouer à witcher 4 en full hd .... [:henri gaud l'eau:5]

Message cité 1 fois
Message édité par ben shinobi le 05-08-2022 à 17:10:39
n°11140796
havoc_28
Posté le 05-08-2022 à 16:43:58  profilanswer
 

Xantar_Eozenn a écrit :

Les watt c'est sur, ils seront là.
Le connecteur PCIEX 16 pins de 450/600w (utilisable par 2) est pas là pour faire jolie.
Depuis 1 an, on sait qu'NVidia doit cartonner avec AD car en face il y aura du MCM façon MI250X (limitation à 500w sur serveur).


 
C'est pas tout à fait ça qui arrive chez AMD si on en croit les dernières rumeurs en tout cas pour RDNA 3.
 
Il n'y aurait pas deux DIEs comme sur CDNA de la série MI2xx, mais un gros DIE principal avec la plus part des unités d'un GPU classique, SM, ROPs, TMU etc le tout entouré de plus petit embarquant les contrôleurs mémoire et des portions de cache Infinity.
 
https://videocardz.com/newz/amd-nav [...] de-renders
 
https://cdn.videocardz.com/1/2022/07/FYM2hopWYAALi1U-1200x506.jpg

Message cité 1 fois
Message édité par havoc_28 le 05-08-2022 à 16:48:48
n°11140802
Xantar_Eoz​enn
Posté le 05-08-2022 à 16:51:33  profilanswer
 

havoc_28 a écrit :

C'est pas tout à fait ça qui arrive chez AMD si on en croit les dernières rumeurs en tout cas pour RDNA 3.
 
Il n'y aurait pas deux DIEs comme sur CDNA de la série MI2xx, mais un gros DIE principal avec la plus part des unités d'un GPU classique, SM, ROPs, TMU etc le tout entouré de plus petit embarquant les contrôleurs mémoire et des portions de cache Infinity.
 
https://videocardz.com/newz/amd-nav [...] de-renders
 
https://cdn.videocardz.com/1/2022/07/FYM2hopWYAALi1U-1200x506.jpg


Ca reste du MCM comme le MI250X ou les Ryzen si tu préfères. Plusieurs dies plus ou moins proche avec des fonctions similaire et ou différentes selon les besoins.  
 
Intel fait pareil avec son truc à 50 ou 100 "tuiles".

Message cité 1 fois
Message édité par Xantar_Eozenn le 05-08-2022 à 16:53:12
n°11140804
havoc_28
Posté le 05-08-2022 à 16:53:21  profilanswer
 

Xantar_Eozenn a écrit :


 
Ca reste du MCM comme le MI250X ou les Ryzen si tu préfères. Plusieurs dies plus ou moins proche avec des fonctions différentes selon les besoins.


 
Sur MI 250X y a deux DIES principaux identiques, entourés d'autres plus petits avec des fonctions différentes.  
 
Sur RNDA c'est moins avancé ... un unique DIE classique et les contrôleur mémoire + portion de cache IF déportés sur des plus petits.

Message cité 1 fois
Message édité par havoc_28 le 05-08-2022 à 16:55:14
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  35  36  37  ..  804  805  806  807  808  809

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)