Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2406 connectés 

 


Activez-vous le Ray Tracing quand vous jouez à un jeu qui le supporte?


 
28.1 %
 48 votes
1.  Je l'active systématiquement.
 
 
24.6 %
 42 votes
2.  Je l'active seulement dans certains jeux.
 
 
15.8 %
 27 votes
3.  Je ne l'active jamais car l'amélioration visuelle n'est pas suffisante
 
 
19.3 %
 33 votes
4.  Je ne l'active jamais car l'impact sur les perfs est trop important.
 
 
12.3 %
 21 votes
5.  Ma carte graphique n'est pas compatible.
 

Total : 188 votes (17 votes blancs)
Sondage à 2 choix possibles.
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  14  15  16  ..  737  738  739  740  741  742
Auteur Sujet :

[TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!

n°11116660
aliss
Rhyme the Rhyme Well
Posté le 22-04-2022 à 11:14:21  profilanswer
 

Reprise du message précédent :

Thima a écrit :

 
  Un très bon test de Igor comme à son habitude  https://www.igorslab.de/en/cooler-b [...] e-radeons/


 
C'est dommage qu'il n'ait pas inclus dans ses graphs quel UV il pouvait atteindre avec le GA102 complet sans perte de performance.

mood
Publicité
Posté le 22-04-2022 à 11:14:21  profilanswer
 

n°11116663
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 11:15:59  profilanswer
 

jujuf1 a écrit :

C'est cool les TV 120 hertz mais je demande à voir leur latence ?  
J'avoue que j'ai une TV 4k Oled et la latence est horrible. Le 60hertz aide pas mais il n'y a pas que ça.


 
Avec les meilleures oled de 2021 (genre les lg qu on trouvait à 1000balles le 55 en promo) c est genre 7ms
Bref en gros sur 1 seconde t a un retard d 1 image sur les 120
Et en 2022 les meilleurs dalle seront presente sur plus de modèle + encore de l amelioration sur l electronique
 
Me semble qu il y a eu des modele qled sinon dans les 5ms
Ça va tu va pouvoir te débarrasser de ta dalle TN pourrave pour jouer en compétitif :o

n°11116664
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 11:22:42  profilanswer
 

Mais bon voilà on peut pas juger des perf du AD103 vs ga102 sur le simple fait "y a le mm nombre de cuda core"
 
Y a le nouveau cache, les GPC sont organisé différemment, on ne connait pas les nouvelle optimisation, est que des calcul en 16/32/64 qui demandait avant 2 passe en demande qu 1 seule maintenant
Les fréquences, etc...


Message édité par Activation le 22-04-2022 à 11:23:12
n°11116665
zouaf
Posté le 22-04-2022 à 11:33:09  profilanswer
 

jujuf1 a écrit :

C'est cool les TV 120 hertz mais je demande à voir leur latence ?  
J'avoue que j'ai une TV 4k Oled et la latence est horrible. Le 60hertz aide pas mais il n'y a pas que ça.


 
J'ai eu une samsung q95t ( 4k 120hz hdmi 2.1) et je viens de tester leur dernier modèle qn95a.
Sur la latence, rien à dire, la diff avec les anciens téléviseurs est flagrante, c'est vraiment très réactif.
 
Niveau qualité d'image, c'est nettement mieux que des moniteurs (dalle VA oblige même si en mode jeu, il y a peu, voir quasi aucun traitement d'image).
 
Le gros point noir de leur LCD, c'est comme d'hab le black smearing et le ghosting.
Même si c'est rédhibitoire sur ce genre de techno à base de dalle VA, ça s'est empiré depuis les derniers modèles, il faut le savoir (et je ne parle même pas du VRR qui est inexploitable sur du LCD full led/mini led avec gradation locale car le rafraichissement variable désactive la gradation et donc altère le contraste avec des niveaux de noirs vraiment space).
A force de chercher la latence la plus basse possible, le ghosting est vraiment horrible et très visible (j'ai retourné les 3 derniers flagships de samsung).
A voir le qn95b qui vient de sortir mais je n'ai aucun doute que ce sera la même chose (d'autant plus qu'il est en 144hz avec une compression du signal pour faire passer la 4k à cette fréquence en hdmi 2.1).
 
Je vais finir par prendre un OLED comme moniteur...aucun problème de VRR (quoique, il me semble avoir lu des soucis avec un scintillement des noirs), de ghost etc..
Le faite que LG ne souhaite pas faire de moniteur pc pose question sur le burn-in quand même..
Où opter pour un edge led qui n'a pas de gradation locale et fonctionne correctement.
 
Bref, dsl pour le pavé mais tous ça pour dire que la latence n'est plus vraiment un problème sur les dernières télé en hdmi 2.1 120hz.
ça devient même intéressant par rapport à un moniteur niveau qualité/diagonale/prix.

Message cité 1 fois
Message édité par zouaf le 22-04-2022 à 11:35:40
n°11116667
Valaint671​30
Y'a pas d'heure pour le rock
Posté le 22-04-2022 à 11:36:29  profilanswer
 

Perso c'est le bus annoncé/leaké de la 4080 qui me fais peur
 
Sur Ampere ils ont séparé le hdg de cette manière, avec grosso modo + 5% de perfs en passant de 320 à 384, et + 5% selon le nombre de cœurs supplémentaires sur le GA102
 
Si on fait une projection farfelue en mixant les deux tendances Turing/Ampere, j'ai peur que la 4080 soit plus ou moins ce qu'auras été la 2080 Ti :(
 
Et ensuite ça repartiras pour une 4080 Ti 12 mois après la sortie etc
 
Dans tout les cas le "bridage" de la 3080 est un acte délibéré et nécessaire pour que la différence soit un minima sensible avec les autres hdg sur Ampere, et ça c'est une évidence, et j'ai presque envie de penser que ça va nous donner une gamme chelou vu la dif technique entre les 2 plus gros gpus de Ada, que ce soit niveau BUS ou celui du nombre de cœurs.
 
 
 


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°11116668
jujuf1
Je suis un chat
Posté le 22-04-2022 à 11:36:48  profilanswer
 

Ok ! C’est une bonne nouvelle.  
Mais je pourrais pas changer avant longtemps malheureusement sauf si la télé claque.


---------------
Du coup du coup …
n°11116669
jujuf1
Je suis un chat
Posté le 22-04-2022 à 11:38:08  profilanswer
 

Valaint67130 a écrit :

Perso c'est le bus annoncé/leaké de la 4080 qui me fais peur
 
Sur Ampere ils ont séparé le hdg de cette manière, avec grosso modo + 5% de perfs en passant de 320 à 384, et + 5% selon le nombre de cœurs supplémentaires sur le GA102
 
Si on fait une projection farfelue en mixant les deux tendances Turing/Ampere, j'ai peur que la 4080 soit plus ou moins ce qu'auras été la 2080 Ti :(
 
Et ensuite ça repartiras pour une 4080 Ti 12 mois après la sortie etc
 
Dans tout les cas le "bridage" de la 3080 est un acte délibéré et nécessaire pour que la différence soit un minima sensible avec les autres hdg sur Ampere, et ça c'est une évidence, et j'ai presque envie de penser que ça va nous donner une gamme chelou vu la dif technique entre les 2 plus gros gpus de Ada, que ce soit niveau BUS ou celui du nombre de cœurs.
 
 
 


 
Je parie sur une gen Turing like. Pas fou en raster mais bien meilleur en ray tracing / dlss.  


---------------
Du coup du coup …
n°11116678
Aqua-Niki
Posté le 22-04-2022 à 12:02:30  profilanswer
 

Tout le monde ici semble supposé que AD103 = 4080, mais à ma connaissance ce sont uniquement la composition des puces qui a leak, pas leur correspondance avec les cartes de la gamme. Rien n'empêche nV de castrer un AD102 en nombre de cœurs et d'y limiter le bus à 320bits pour faire sa 4080. C'est d'ailleurs exactement ce qu'ils ont fait pour Ampere. On aurait alors un écart de perf plus important avec la 3080.

 

Et quand je vois l'écart entre AD102 et AD103, je pense qu'il va y avoir beaucoup de cartes basées sur des découpages différents d'AD102, y compris la 4080 ^^

Message cité 1 fois
Message édité par Aqua-Niki le 22-04-2022 à 12:03:33
n°11116679
zouaf
Posté le 22-04-2022 à 12:06:58  profilanswer
 

Aqua-Niki a écrit :

Tout le monde ici semble supposé que AD103 = 4080, mais à ma connaissance ce sont uniquement la composition des puces qui a leak, pas leur correspondance avec les cartes de la gamme. Rien n'empêche nV de castrer un AD102 en nombre de cœurs et d'y limiter le bus à 320bits pour faire sa 4080. C'est d'ailleurs exactement ce qu'ils ont fait pour Ampere. On aurait alors un écart de perf plus important avec la 3080.
 
Et quand je vois l'écart entre AD102 et AD103, je pense qu'il va y avoir beaucoup de cartes basées sur des découpages différents d'AD102, y compris la 4080 ^^


 
 :jap:  
C'est ce que je pense aussi.

n°11116681
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 12:22:19  profilanswer
 

Disons que je vois plus le ad103 comme rtx4080 et version castré rtx4070
 
Si on prend le ga104 la marge de manœuvré pour la 3070 et 3070ti a été une catastrophe
Par contre après 1an et si prod s ameliore ils pourront pondre une rtx4080super basé sur des ad102 partiellement défectueux
 
Bref on repartirait du coup plus sûr une hiérarchie à la gtx1000 (gtx1070/1070ti/1080)
Et un bus 256bits avec de la gddr6x ça permet de conserver une bonne bande passante (+ le cache de plusieurs dizaine de MB qui se pointe)
En utilisant les puces gddr6x double densité de la 3090ti
Pour avoir 16GB juste pile poil ce qu il faut pour les jeux new gen
 
Le ga103 est arrivé bien trop tard sur ampere
Et le ga102 trop privilégier pour faire du fric sur cette gen
 
L autre avantage que rtx4070 soit avec un ad103 c est que cela permettra a la gamme "70" de conserver une puissance en raytracing descente en 1440p
Ce que n a pas permis ga104
 
Quand à ad104 cela devra enfin permettre sur les "60" des perf RT convaincante en 1080p
 
Faut pas se leurrer ces "RTX" depuis la rtx2060
Le RT n est convaincant qu à partir de rtx3080 non ti
En dessous trop de concession
 
quand au ad102 ça devrait etre le dernier GROS gpu monolithique pour la gamme "90" et apres lovelace devrait y avoir du mcm chez nvidia, car de toute façon historiquement les "90" c était des bi gpu chez nvidia
donc je pense qu'après lovelace, les futur gen ça sera monolithique jusqu'à "80" inclu et mcm pour "90" ce basant sur une archi plus professionnel ... a terme les "90" ne verront telle pas de la hbm"4" (là on parle plus genre rtx6090 avec genre un suffixe qui pop genre rtx6090pro :p )
 
ad106 je le vois bien pour concurrencer les apu de intel et amd
par contre ad107  :sweat:
 
reste la question du tegra qui utilisera la "switch pro" ... (quelle finesse ...)  je pense que a du aussi être mit dans la balance du retour à tsmc
(mais ça doit au moins être du 7nm)

Message cité 1 fois
Message édité par Activation le 22-04-2022 à 12:57:38
mood
Publicité
Posté le 22-04-2022 à 12:22:19  profilanswer
 

n°11116684
Jacques La​fritte
J'ai la patate !!
Posté le 22-04-2022 à 12:52:02  profilanswer
 

zouaf a écrit :


 
J'ai eu une samsung q95t ( 4k 120hz hdmi 2.1) et je viens de tester leur dernier modèle qn95a.
Sur la latence, rien à dire, la diff avec les anciens téléviseurs est flagrante, c'est vraiment très réactif.
 
Niveau qualité d'image, c'est nettement mieux que des moniteurs (dalle VA oblige même si en mode jeu, il y a peu, voir quasi aucun traitement d'image).
 
Le gros point noir de leur LCD, c'est comme d'hab le black smearing et le ghosting.
Même si c'est rédhibitoire sur ce genre de techno à base de dalle VA, ça s'est empiré depuis les derniers modèles, il faut le savoir (et je ne parle même pas du VRR qui est inexploitable sur du LCD full led/mini led avec gradation locale car le rafraichissement variable désactive la gradation et donc altère le contraste avec des niveaux de noirs vraiment space).
A force de chercher la latence la plus basse possible, le ghosting est vraiment horrible et très visible (j'ai retourné les 3 derniers flagships de samsung).
A voir le qn95b qui vient de sortir mais je n'ai aucun doute que ce sera la même chose (d'autant plus qu'il est en 144hz avec une compression du signal pour faire passer la 4k à cette fréquence en hdmi 2.1).
 
Je vais finir par prendre un OLED comme moniteur...aucun problème de VRR (quoique, il me semble avoir lu des soucis avec un scintillement des noirs), de ghost etc..
Le faite que LG ne souhaite pas faire de moniteur pc pose question sur le burn-in quand même..
Où opter pour un edge led qui n'a pas de gradation locale et fonctionne correctement.
 
Bref, dsl pour le pavé mais tous ça pour dire que la latence n'est plus vraiment un problème sur les dernières télé en hdmi 2.1 120hz.
ça devient même intéressant par rapport à un moniteur niveau qualité/diagonale/prix.


 
J'utilise une OLED 55B9 comme moniteur principal du PC, il commence a avoir quelques milliers d'heures, je joue sur de longues périodes, avec des interfaces de jeux fixes (genre jeu de survie avec l'inventaire, des minimap etc etc). Ca fait un bail maintenant. Par curiosité j'ai fais un test pour voir si j'avais du burn-in (t'as des vidéos youtube exprès à mettre en plein écran avec variation de couleurs). résultat RAS.Ca peut exister mais j'ai quand même l'impression que ça va, ça s'est bien amélioré.
Après j'ai activé toutes les options LG pour prévenir ce problème (actualisation des pixels à chaque extinction après 4h, décalage des pixels, assombrissement des images fixes...). Et je joue avec le rétroéclairage à 60/100 (mais ça c'est juste parce qu'au dessus ça éclaire beaucoup trop  :D ).


---------------
Ceci est une signature.
n°11116688
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 12:59:18  profilanswer
 

et surtout cette année LG display revient avec une dalle oled 42" qui est pertinnente sur des bureau de 80cm de profond
là ou l'an dernier il n avait qu'un 48" trop grand pour un bureau
 
bon par contre pour le moment le prix des 42 et 48 continu de piquer comparé au 55"
mais je pense que vers octobre ça commencera à valoir le coup si baisse de tarif en approche des gamme 2023

Message cité 1 fois
Message édité par Activation le 22-04-2022 à 13:09:33
n°11116691
Yopfraize
Posté le 22-04-2022 à 13:07:43  profilanswer
 

Activation a écrit :

et surtout cette année LG display revient avec une dalle oled 42" qui est pertinnente sur des bureau de 80cm de profond
là ou l'an dernier il n avait qu'un 48" trop grand pour un bureau


 
Petite nature :o
 
55 pouces ou rien :o

n°11116693
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 13:10:54  profilanswer
 

Yopfraize a écrit :


 
Petite nature :o
 
55 pouces ou rien :o


 
désolé de n avoir qu un lcd 40" sur mon bureau et un oled 55" dans le salon
 
j'attend que tu m offre un 80" :o

n°11116694
Yopfraize
Posté le 22-04-2022 à 13:14:24  profilanswer
 

Activation a écrit :

 

désolé de n avoir qu un lcd 40" sur mon bureau et un oled 55" dans le salon

 

j'attend que tu m offre un 80" :o

 

Justement, je voulais dire la 55 pouces sur le bureau ou rien :o

 

https://youtu.be/E9ygcrHqlvQ?t=264 :o

Message cité 1 fois
Message édité par Yopfraize le 22-04-2022 à 13:18:04
n°11116695
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 13:16:46  profilanswer
 

Yopfraize a écrit :


 
Justement, je voulais dire la 55 pouces sur le bureau ou rien :o


 
en mm temps mon bureau et le canape tv du salon ça fait un "L" chez moi...
 
j'ai jamais dit que mon bureau c'était une piece à part chez moi  :o

n°11116698
daaadou
o O ° O o Meggy le chat o O °
Posté le 22-04-2022 à 13:19:56  profilanswer
 

Activation a écrit :


 
en mm temps mon bureau et le canape tv du salon ça fait un "L" chez moi...
 
j'ai jamais dit que mon bureau c'était une piece à part chez moi  :o


 [:marcatrude:4]  
 [:cac30:5]

n°11116709
aliss
Rhyme the Rhyme Well
Posté le 22-04-2022 à 14:27:23  profilanswer
 

Valaint67130 a écrit :

Perso c'est le bus annoncé/leaké de la 4080 qui me fais peur
 
Sur Ampere ils ont séparé le hdg de cette manière, avec grosso modo + 5% de perfs en passant de 320 à 384, et + 5% selon le nombre de cœurs supplémentaires sur le GA102
 
Si on fait une projection farfelue en mixant les deux tendances Turing/Ampere, j'ai peur que la 4080 soit plus ou moins ce qu'auras été la 2080 Ti :(
 
Et ensuite ça repartiras pour une 4080 Ti 12 mois après la sortie etc
 
Dans tout les cas le "bridage" de la 3080 est un acte délibéré et nécessaire pour que la différence soit un minima sensible avec les autres hdg sur Ampere, et ça c'est une évidence, et j'ai presque envie de penser que ça va nous donner une gamme chelou vu la dif technique entre les 2 plus gros gpus de Ada, que ce soit niveau BUS ou celui du nombre de cœurs.
 


 
Si ils suivent les traces d'AMD au niveau du cache (N21/X3D), je ne suis pas persuadé que la largeur de bus et la BP soient encore à prendre en considération.  

n°11116719
Activation
21:9 kill Surround Gaming
Posté le 22-04-2022 à 16:19:57  profilanswer
 

de toute façon si on devait se baser que sur la bande passante
 
la rtx3080 non ti dans les 700 (gddr6x)
la rx6900xt dans les 500 (gddr6)
 
 
laquelle est la plus perf en raster :o
++++
la rtx2080ti dans les 600
la rtx3070 dans les 440
pour prendre un exemple sans infinity cache :o  
 
 
tout les jeux ne sont pas aussi sensible à la bande passante
quant sera t il de "direct storage" dans 4mois ? :o (enfin surtout les prochain jeu dx12... dans 2ans :o )
 
pour un mm jeu le besoin en bande passante n'augmente pas de façon linéaire (alors encore moins cubique ou exponentiel) que tu passe en 1080p à 2160p ou de 60 à 144Hz
 
tout dépend de ce que tu met en mémoire
 
je pense pas que les editeurs de jeux vont s emmerder à passer à des textures 16K avec comme mètre étalon des ps5 / series X  :o
 
et admettons demain des jeux 4x plus détaillé qu'un cyberpunk 2077 ... bah si les dev sont pas des feignasse faudra déjà avec unreal engine 5 avoir recours au mesh shading, c'est pas là juste pour faire une ligne de plus dans les caract des nouveaux gpu


Message édité par Activation le 22-04-2022 à 16:29:15
n°11116810
jujuf1
Je suis un chat
Posté le 22-04-2022 à 22:02:47  profilanswer
 

bench terminé, sans UV.  
 
Quelques divergences mais dans l'ensemble, je pense que les conclusions sont plus ou moins les mêmes (je n'ai pas analysé en détail)
Un bémol sur RDR2 : vu l'interface pourrie, je ne suis pas sûr des réglages (ceux qui connaissent le jeu verront de quoi je parle) ce qui peut expliquer les drôles d'écarts entre ce bench et le précédent.
 
Jeux|Settings|3080 FE @200W/3080 FE @250W|3080TI FE @200W/3080TI FE @250W
F12021|4k ultra, RT medium|60/65|52/68
F12021|4k ultra, RT medium + DLSS Quality|83/90|75/95
F12021|4k ultra|87/96|76/101
Assassin's creeds Odyssey|4k ultra, AA faible|66/67|68/70
Assassin's creeds Vallaha|4k ultra, AA faible|66/69|66/72
Watch dogs legion|4k|46/49|45/56
Watch dogs legion|4k ultra + RT ultra + DLSS quality|41/44|41/48
Watch dogs legion|4k ultra + DLSS quality|64/67|67/73
Forza horizon 5|4k extreme|73/78|75/82
Shadow of tomb raider|4k extreme + RT ultra|43/47|39/51
Shadow of tomb raider|4k extreme + RT ultra + DLSS|67/72|64/76
Cyberpunk|4k ultra + DLSS quality|40/43|33/45
Red Dead Redemption 2|4k ultra|58/62|57/75
Red Dead Redemption 2|4k ultra + DLSS quality|69/75|67/87
 


---------------
Du coup du coup …
n°11116821
Aqua-Niki
Posté le 22-04-2022 à 22:54:33  profilanswer
 

Au final ce bench semble aller dans le même sens que le précédent : la 3080 Ti perd plus de perf quand on la limite à 200W, les gros GPU doivent avoir besoin d'un minimum de watts pour un rendement optimal. Et donc pas la peine de dépasser la 3080 si on veut limiter la CG à 200W.
 
A 250W par contre, la 3080Ti semble pouvoir s'exprimer convenablement.

n°11116830
Akrilite
Posté le 23-04-2022 à 00:24:19  profilanswer
 

Oui c'est étrange, peut être est ce du a la ram supplémentaire, laissant trop peu de puissance pour le gpu ...
A 200w la TI voit elle sont voltage bloqué a 0.736v ?

n°11116833
jujuf1
Je suis un chat
Posté le 23-04-2022 à 00:45:40  profilanswer
 

Akrilite a écrit :

Oui c'est étrange, peut être est ce du a la ram supplémentaire, laissant trop peu de puissance pour le gpu ...
A 200w la TI voit elle sont voltage bloqué a 0.736v ?


De mémoire non, mais ça je peux revérifier sans pb a l’occasion sur un jeu.
Pourquoi serait elle bloquée à cette valeur ?


Message édité par jujuf1 le 23-04-2022 à 00:45:54

---------------
Du coup du coup …
n°11116850
Akrilite
Posté le 23-04-2022 à 08:53:41  profilanswer
 

C'est la tension mini sur ma 80 fe, du coup le power limit descend énormément la fréquence pour ne pas dépasser la conso cible
 
La différence entre les deux cartes à 250w me semble normal, à 200w la différence devrai être plus ou moins identique

n°11116854
jujuf1
Je suis un chat
Posté le 23-04-2022 à 09:39:17  profilanswer
 

Akrilite a écrit :

C'est la tension mini sur ma 80 fe, du coup le power limit descend énormément la fréquence pour ne pas dépasser la conso cible
 
La différence entre les deux cartes à 250w me semble normal, à 200w la différence devrai être plus ou moins identique


on en sait rien, ça. Peut être que la puce de la 3080 a besoin de plus de jus. et puis de toute façon on a 2 go de ram en plus ça pèse forcément à basse puissance en proportion. Surtout que j'imagine que la ram de la 3080ti consomme plus.  
 
Concernant les voltages :  
successivement :
Sur F12021 4k+RT medium : 0.756,0.750,0.744
Sur Odyssey : 0.794,0.806,0.819,0.925,0.794,0.787,0.781,0.800,0.794,0.769.  
 
On pourra peut être trouver une courbe custom meilleure mais bonjour pour déterminer si c'est stable ou non vu la variété de sollicitation constatée dans les différents jeux.  
De toute façon, à supposer qu'on arrive à égaler la 3080, on ne rivalisera jamais niveau prix.  
 
L'objet de ce bench était de savoir s'il était intéressant de taper au dessus d'une 3080 @200W. la réponse est clairement non, même si rien a été optimisé.


---------------
Du coup du coup …
n°11116961
Akrilite
Posté le 23-04-2022 à 16:04:54  profilanswer
 

jujuf1 a écrit :


on en sait rien, ça. Peut être que la puce de la 3080 a besoin de plus de jus. et puis de toute façon on a 2 go de ram en plus ça pèse forcément à basse puissance en proportion. Surtout que j'imagine que la ram de la 3080ti consomme plus.  
 
Concernant les voltages :  
successivement :
Sur F12021 4k+RT medium : 0.756,0.750,0.744
Sur Odyssey : 0.794,0.806,0.819,0.925,0.794,0.787,0.781,0.800,0.794,0.769.  
 
On pourra peut être trouver une courbe custom meilleure mais bonjour pour déterminer si c'est stable ou non vu la variété de sollicitation constatée dans les différents jeux.  
De toute façon, à supposer qu'on arrive à égaler la 3080, on ne rivalisera jamais niveau prix.  
 
L'objet de ce bench était de savoir s'il était intéressant de taper au dessus d'une 3080 @200W. la réponse est clairement non, même si rien a été optimisé.


 
On est d'accord, je ne vois que ça pour l'expliquer  
 
Je trouve ça dommage de brider autant une 3080, faudrait tester avec une 70/70ti, la 70 peut sortir du lot a faible consommation grâce à ça mémoire non X

n°11116962
jujuf1
Je suis un chat
Posté le 23-04-2022 à 16:07:44  profilanswer
 

Akrilite a écrit :

 

On est d'accord, je ne vois que ça pour l'expliquer

 

Je trouve ça dommage de brider autant une 3080, faudrait tester avec une 70/70ti, la 70 peut sortir du lot a faible consommation grâce à ça mémoire non X


Si quelqu’un a ce genre de carte, ça serait intéressant qu’il teste un ou deux jeux.  Mais je pense que la 3080 gardera l’avantage. Après pour le rapport q/p faut voir mais le critère grosso modo c’est 4K 60fps.


Message édité par jujuf1 le 23-04-2022 à 16:08:08

---------------
Du coup du coup …
n°11116972
Aqua-Niki
Posté le 23-04-2022 à 17:00:21  profilanswer
 

Ton test montre quand même une baisse de perf pour la 3080, même si elle est moindre que pour la Ti. La 3070 par contre 200W c'est quasiment son TDP, donc on peut s'attendre à une baisse de perf négligeable. Du coup les perfs seront assez proches de celles de la 3080 à 200W, mais la 3070 affichera un meilleur rapport perf/prix puisque ce rapport est similaire lorsqu'on les laisse à leur TDP de base.

 

J'ai moi aussi l'impression que c'est la GDDR6X qui fout la merde. Ca expliquerait le bond important de TDP de la 70 Ti par rapport à la 70, alors que les perfs ne sont pas tellement meilleures.

Message cité 1 fois
Message édité par Aqua-Niki le 23-04-2022 à 17:00:53
n°11116974
jujuf1
Je suis un chat
Posté le 23-04-2022 à 17:16:16  profilanswer
 

Aqua-Niki a écrit :

Ton test montre quand même une baisse de perf pour la 3080, même si elle est moindre que pour la Ti. La 3070 par contre 200W c'est quasiment son TDP, donc on peut s'attendre à une baisse de perf négligeable. Du coup les perfs seront assez proches de celles de la 3080 à 200W, mais la 3070 affichera un meilleur rapport perf/prix puisque ce rapport est similaire lorsqu'on les laisse à leur TDP de base.
 
J'ai moi aussi l'impression que c'est la GDDR6X qui fout la merde. Ca expliquerait le bond important de TDP de la 70 Ti par rapport à la 70, alors que les perfs ne sont pas tellement meilleures.


Ça il faut le verifier. (Surtout en 4K)


---------------
Du coup du coup …
n°11116980
Aqua-Niki
Posté le 23-04-2022 à 18:07:22  profilanswer
 

C'est vrai qu'en 4K l'écart est assez important et la 3080 à 200W resterait intéressante :jap:

n°11117081
Gregooz
Posté le 24-04-2022 à 00:51:37  profilanswer
 

Dommage que vous parliez pas de tout ça sur le topic Ampere, je trouve le sujet intéressant.

 

Merci pour les tests Juju :jap:

n°11117082
Activation
21:9 kill Surround Gaming
Posté le 24-04-2022 à 00:56:29  profilanswer
 

Bon apparemment la rtx4090fe sera triple fan
Mais qu en sera t il de la rtx4080fe
Double ou triple ?
Si ad103 au lancement je pense que double comme pour une rtx4070
Mais en 2023 une 4080super/ti triple si utilise ad102
 
Et quid d une vapor chamber :o


Message édité par Activation le 24-04-2022 à 01:05:03
n°11117293
jujuf1
Je suis un chat
Posté le 24-04-2022 à 21:52:39  profilanswer
 

Gregooz a écrit :

Dommage que vous parliez pas de tout ça sur le topic Ampere, je trouve le sujet intéressant.
 
Merci pour les tests Juju :jap:


De rien  :jap:


---------------
Du coup du coup …
n°11117308
Akrilite
Posté le 24-04-2022 à 22:44:55  profilanswer
 

Yes merci Jujuf1 :)

n°11117565
Darkblade6​666
Posté le 26-04-2022 à 07:12:14  profilanswer
 

rumeurs sur l'utilisation pci express 4.0
https://www.cowcotland.com/news/810 [...] s-5-0.html
 
ça réduirait les watts nécessaires?


Message édité par Darkblade6666 le 26-04-2022 à 07:12:47
n°11117664
guig2000
Posté le 26-04-2022 à 14:45:35  profilanswer
 

Oui, mais je pense que l'on parles de 20W plus que de 100W.
Ça réduit aussi les couts de productions.
 
Pour une carte graphique, à mon avis, le pcie-5 est totalement inutile, voici mon raisonnement:  
Les débits du PCI-express 5 sont pour les PC actuels de l'ordre du gargantuesque: 64Go/s pour du 16X, sachant que du 16x en pcie4 donne déjà un débit très élevé avec du 32Go/s: à titre de comparaison avec la RAM, en terme de débit théorique, 32Go/s ça correspond à de la DDR2000, de la DDR3200 ça transmet jusqu'à 51.2Go/s et il faut de la DDR 4000 pour transmettre à 64Go/s.
Donc Aucun CPU grand public DDR4 actuel s'il était équipé en pcie5 ne pourrait soutenir des débits pcie5 max et probablement que même en pcie4 ils ne le peuvent pas et qu'ils ne le pourraient pas en pcie-5 + DDR5.
 
De plus si on prends en exemple les ryzen, ils ont en tout 24 lignes pcie (16 pour le GPU, 4 pour un port NVME et 4 pour le chipset), ce qui donne respectivement au max cumulé pour les pcie 3, 4 et 5 24Go/s, 48Go/s et 96Go/s.
Le pcie5, à mon avis est plus intéressant pour le liens avec le chipset et pour le nvme, c’est à dire qu'il vas permettre de multiplier les ports sans goulets d’étranglement: comme plus de ports USB-C rapides, du thunderbolt ou autre exemple, remplacer un port NVME pcie-e4 4x par deux pcie-e5 2x (ou d’avoir un switch 4x pcie5 vers 2xNVME 4x pcie5.

Message cité 1 fois
Message édité par guig2000 le 26-04-2022 à 14:59:15

---------------
Guig Esprit du Sage
n°11117691
Activation
21:9 kill Surround Gaming
Posté le 26-04-2022 à 15:47:03  profilanswer
 

de toute façon avec direct storage, le contenu arrivera compressé au niveau du gpu qui le decompressera
au lieu d etre decompressé par le cpu pour ensuite arrivé decompressé au gpu
donc on devrait avoir un besoin moindre de BP entre memoire vive et gpu
 
bougez vous les editeurs, et microsoft qui a pas finit l implementation integral de direct storage
 
 
pour le pcie 5 voir 6
niveau grand public, ça devrait permettre une generalisation de notebook avec apu pour le nomadisme avec au mieux des perf correct en 1080p, et quand tu rentre à la maison une dock station incluant un gpu plus costaux  
et qu on arrete avec ces soit disant portable gamer qui ont une autonomie de merde en nomadisme et sont plus des transportable vu les transfo à trimballer avec
et qui sont obso 2x plus vite que des pc fixe de gamer, alors qu ils coute 2x plus cher à perf egal

Message cité 1 fois
Message édité par Activation le 26-04-2022 à 15:52:29
n°11117765
ravenloft
Meilleur jeu du 20ème siècle
Posté le 26-04-2022 à 20:23:44  profilanswer
 

guig2000 a écrit :

Oui, mais je pense que l'on parles de 20W plus que de 100W.
Ça réduit aussi les couts de productions.

 

Pour une carte graphique, à mon avis, le pcie-5 est totalement inutile, voici mon raisonnement:
Les débits du PCI-express 5 sont pour les PC actuels de l'ordre du gargantuesque: 64Go/s pour du 16X, sachant que du 16x en pcie4 donne déjà un débit très élevé avec du 32Go/s: à titre de comparaison avec la RAM, en terme de débit théorique, 32Go/s ça correspond à de la DDR2000, de la DDR3200 ça transmet jusqu'à 51.2Go/s et il faut de la DDR 4000 pour transmettre à 64Go/s.
Donc Aucun CPU grand public DDR4 actuel s'il était équipé en pcie5 ne pourrait soutenir des débits pcie5 max et probablement que même en pcie4 ils ne le peuvent pas et qu'ils ne le pourraient pas en pcie-5 + DDR5.

 

De plus si on prends en exemple les ryzen, ils ont en tout 24 lignes pcie (16 pour le GPU, 4 pour un port NVME et 4 pour le chipset), ce qui donne respectivement au max cumulé pour les pcie 3, 4 et 5 24Go/s, 48Go/s et 96Go/s.
Le pcie5, à mon avis est plus intéressant pour le liens avec le chipset et pour le nvme, c’est à dire qu'il vas permettre de multiplier les ports sans goulets d’étranglement: comme plus de ports USB-C rapides, du thunderbolt ou autre exemple, remplacer un port NVME pcie-e4 4x par deux pcie-e5 2x (ou d’avoir un switch 4x pcie5 vers 2xNVME 4x pcie5.


Vrai et faux à la fois.
La ddr5 4800 c'est 67go/s en écriture et la ddr5 4800 est la plus lente des mémoires ddr5.
 https://www.clubic.com/memoire-pc-r [...] -4800.html
Le pcie5 peut être justement très utile pour ne plus être un goulot d'étranglement avec la ddr5 qui va être la norme quand le pcie5 sera utilisé sur les cartes graphiques. Le pcie5 n'est pas fait pour être utilisé avec la ddr4.
Ada lovelace arrive en même temps avec la génération de cpus utilisant la ddr5 comme les alder lake déjà sortit et les ryzen 7000 qui vont arriver durant le même semestre. Cela aurait été plus logique qu'elle utilise le pcie5 même si comme toutes les premières cartes graphiques à utiliser une nouvelle norme de pcie, elles ne l'exploitent pas vraiment. Cela est comme ça à chaque génération de pcie.
Faut pas oublier qu'ada loveleace, on en a jusqu'en 2024 si on garde le même tempo de 18-24 mois pour une génération de cartes graphiques


Message édité par ravenloft le 26-04-2022 à 20:24:29

---------------
Ravenloft
n°11117766
ravenloft
Meilleur jeu du 20ème siècle
Posté le 26-04-2022 à 20:28:52  profilanswer
 

Activation a écrit :


pour le pcie 5 voir 6
niveau grand public, ça devrait permettre une generalisation de notebook avec apu pour le nomadisme avec au mieux des perf correct en 1080p, et quand tu rentre à la maison une dock station incluant un gpu plus costaux  
 


Les apus perf, c'est pas le pcie5 ou 6 qui va l'apporter mais la volonté de vouloir construire des socs avec parties graphiques performantes comme sur console. 128go/s en pcie6, ça restera un goulet d'étranglement énorme si tu veux une partie graphique performante et quand le pcie6 sortira pour le grand public soit dans 3-4 ans, je doute que le 1080p soit encore la def de base des pcs pour jouer sauf peut être dans le bas de gamme.
 

Citation :

et qu on arrete avec ces soit disant portable gamer qui ont une autonomie de merde en nomadisme et sont plus des transportable vu les transfo à trimballer avec
et qui sont obso 2x plus vite que des pc fixe de gamer, alors qu ils coute 2x plus cher à perf egal


Tu crois qu'un apu perfs en jeu plus acheter un gpu costaux à côté en dock station, ça va couter bien moins chère ? Tu te mets un doigt dans l'oeil.


---------------
Ravenloft
n°11117894
ravenloft
Meilleur jeu du 20ème siècle
Posté le 27-04-2022 à 11:25:35  profilanswer
 

Une version 900W possiblement en préparation
https://www.techpowerup.com/294261/ [...] -ad102-gpu


---------------
Ravenloft
n°11117962
Activation
21:9 kill Surround Gaming
Posté le 27-04-2022 à 15:20:36  profilanswer
 

ravenloft a écrit :


Tu crois qu'un apu perfs en jeu plus acheter un gpu costaux à côté en dock station, ça va couter bien moins chère ? Tu te mets un doigt dans l'oeil.


 
Si tu part sur un apu qui fait du 1080p en réglage medium sans RT  
Rappel que le rt actuel est un rt hybride qui s appui sur la rasterisation, donc reste optionnel et aucune justification d être imposé
Et si le dock externe n est pas un truc à la con avec des connecteur proprio à la asus/alienware ou sais je
mais un truc standardisé
 
Je vois pas en quoi ça serait cher
Le dit dock tu pourra alors l utiliser sur ton portable dell, car, msi, hp ou osef
Il sera réutilisable quand tu prendra un portable plus recent
Idem ce dock devant tu fera évoluer ta CG indépendamment
 
Un "dock" t as pas obligation d etre moulé pour épouser la forme d un portable specifique ni qui le notebook s enclenche avec des point d encrage sur le dock
 
Qui plus est l alim dans ce dock qui peut rester à la norme sfx ou atx  
M enfin bon si tu préfère acheter un portable de 4kg à 2200 balles bon à jeter intégralement en cas de panne
Avec 2 transfo de 250w
 
Plutot qu un portable de 1,5kg + dock/cg/alim pour 1700 balles ou le portable reste un portable avec un transfo de 65-90watts

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  14  15  16  ..  737  738  739  740  741  742

Aller à :
Ajouter une réponse
 

Sujets relatifs
Compatibilité B550 Geforce série 10000Epaisseur pads thermique RTX 2060
RTX 3050 ou GTX 1660 super ou Ti ?Nouvelle config avec carte RTX 3070 Ti
RTX 2070 Super tourne au ralenti (30%)Chauffe RTX 3080
temperature i7 10700kf et carte video nvidia rtx2060Rtx 3080 Radiateur abimé
Code erreur 43 RTX 2080ti 
Plus de sujets relatifs à : [TU] Nvidia Ada Lovelace - GeForce RTX 4000 - 4 Slots et au-delà!


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR