Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2678 connectés 

 

 

Fin 2022, baisse des prix, Ada.L & RDNA3, envisagez-vous toujours d'acheter une carte Ampère


 
10.9 %
 16 votes
1.  Oui, d'occase à vil prix !
 
 
5.4 %
   8 votes
2.  Oui, neuve, à un tarif enfin proche du msrp
 
 
8.8 %
 13 votes
3.  Nan j'attends les nouvelles 4060 & 4070 en 2023
 
 
8.2 %
 12 votes
4.  Nan, j'ai pris/je vais prendre une 4090
 
 
6.8 %
  10 votes
5.  Nan, j'ai pris/je vais prendre une Radeon 7000
 
 
12.2 %
 18 votes
6.  Nan mais je profite des prix des Radeon 6000 eux aussi en baisse.
 
 
47.6 %
 70 votes
7.  J'ai déjà ma RTX 3000
 

Total : 183 votes (36 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  1126  1127  1128  ..  1884  1885  1886  1887  1888  1889
Auteur Sujet :

[TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !

n°10906694
reflex69
Posté le 08-12-2020 à 22:16:41  profilanswer
 

Reprise du message précédent :

kenshirooo a écrit :

Dur dur les tests de la RX 6900XT.
Dépassée par la 3080 FE dans la plupart des tests sans RTX et par une 2070 en RTX... A 1000 boules ouch...


Oui, plutôt décevante cette 6900XT.
Il n'y a pas assez de différenciation par rapport à la 6800XT qui partage exactement la même mémoire (même quantité et même vitesse).
Du coup je ne comprends pas trop la stratégie AMD  :heink:  

mood
Publicité
Posté le 08-12-2020 à 22:16:41  profilanswer
 

n°10906695
sepiroth
Posté le 08-12-2020 à 22:17:30  profilanswer
 

kenshirooo a écrit :

Dur dur les tests de la RX 6900XT.
Dépassée par la 3080 FE dans la plupart des tests sans RTX et par une 2070 en RTX... A 1000 boules ouch...


 
On a pas vu les mêmes tests. Sur Hardware unboxed elle est seulement 4% derrière la 3090 en 4K et systématiquement devant sur les jeux récents en raster (ou presque). Et devant en 1440p bien sûr

Message cité 4 fois
Message édité par sepiroth le 08-12-2020 à 22:18:18

---------------
Fast stuff.. cars and PC
n°10906699
Valaint671​30
Cinquième soleil
Posté le 08-12-2020 à 22:25:35  profilanswer
 

sepiroth a écrit :


 
On a pas vu les mêmes tests. Sur Hardware unboxed elle est seulement 4% derrière la 3090 en 4K et systématiquement devant sur les jeux récents en raster (ou presque). Et devant en 1440p bien sûr


 
Ouai ils ont fait pareil pour la 6800XT
 
Et quasiment tout les autres sites sérieux avaient d'autres résultats :o


---------------
Mon topic ~ EVGA✞ FANboy - Allergique à l'inaptocratie
n°10906703
sabrewulfy
Posté le 08-12-2020 à 22:35:08  profilanswer
 

sepiroth a écrit :


 
On a pas vu les mêmes tests. Sur Hardware unboxed elle est seulement 4% derrière la 3090 en 4K et systématiquement devant sur les jeux récents en raster (ou presque). Et devant en 1440p bien sûr


 
Je sais pas ce qu'ils ont à chaque fois avec leurs tests eux par rapport aux autres sites.
Enfin comme d'hab faut multiplier les sites, au final ça nous donne une 6900XT à environ 5% au dessus de la 3080.
 
Pas forcément intéressant du coup, au niveau perf/prix. Les 3080 ou 6800XT sont bien plus intéréssantes.

n°10906705
sepiroth
Posté le 08-12-2020 à 22:35:20  profilanswer
 

Valaint67130 a écrit :


 
Ouai ils ont fait pareil pour la 6800XT
 
Et quasiment tout les autres sites sérieux avaient d'autres résultats :o


 
J'ai pas ce souvenir pour la 6800XT et n'ai pas eu le temps de regarder d'autres tests pour la 6900XT. Tomshardware et Gamer nexus avaient peu ou prou les mêmes résultats qu'eux pour la 6800XT si je ne m'abuse ?
 
Perso je table sur 6900XT>3090 en raster d'ici 3-6mois et pareil pour la 6800XT>3080 ... AMD a tendance à trouver 10% ou plus sur ses drivers dans le temps. Historiquement du moins. Sans compter les adaptations consoles qui favoriseront un max RDNA2...
 
Contrairement aux fanboys Nvidia je suis très heureux de voir AMD de retour au top. J'aurais pu choper un 6800XT j'aurais été content également...


---------------
Fast stuff.. cars and PC
n°10906706
mukumi
RATATATA
Posté le 08-12-2020 à 22:36:07  profilanswer
 

sepiroth a écrit :


 
On a pas vu les mêmes tests. Sur Hardware unboxed elle est seulement 4% derrière la 3090 en 4K et systématiquement devant sur les jeux récents en raster (ou presque). Et devant en 1440p bien sûr


 
Ce sont les seuls qui testent quasi exclusivement des jeux récents. Je les aime bien. J'ai pas besoin de savoir que ma 3080 fait 200 fps sur Far Cry 5 perso :D
 
Je trouve ça plus représentatif de ce qui nous attend dans les prochains mois.

n°10906707
reflex69
Posté le 08-12-2020 à 22:45:13  profilanswer
 

sepiroth a écrit :


 
Bé non le RT ça utilise plus de Vram. Sans RT tu es vraisemblablement sensiblement sous les 10Go. Donc la 3080 performe normalement par rapport à la 3090
 
Avec RT >10Go donc perfs largement <3090
 
Tu m'explique comment la 3090 avec 10% d'unités RT en plus elle serait 80% plus rapide sur le jeu ?
 
Le score en 4K DLSS Q prouve mon point. La 3080 et 3090 reviennent à 15% d'écart, car le rendu interne en 1440 RTU avant upscale 4k ne sature pas la mémoire...


Sans même rentrer dans ce débat de savoir qui a tort ou raison dans ce cas particulier, selon moi, commencer déjà à douter de 10GB, c'est déjà un aveu de faiblesse pour la suite, alors que la 3080 est censée représenter le nouveau 'flagship' Nvidia !
Du coup on se retrouve dans une situation bizarre où la 6900XT déçoit, et donc ne mérite pas forcement de réponse de la part de Nvidia avec une nouvelle 3080ti.
Mais d'un autre côté, la 3080 avec 'seulement' 10GB fait douter sur sa pérennité de flagship dans les années à venir, surtout que la norme haut de gamme est devenue 16GB chez AMD.
Alors que faire Nvidia ?
Sortir une nouvelle 3080 Ti 20GB ?
Sortir une remplaçante 3080 20GB ?
Rien ?

n°10906708
bardack
Official GRAW member
Posté le 08-12-2020 à 22:52:10  profilanswer
 

au lieu de vous focaliser sur les chiffres avec rt sans dlss vu que le rt 4k mets a genou la 3090 donc inexploitable, regardez ce que ça donne sans rt, ou rt avec dlss. les cartes sont pas taillé pour le 4k rt pur. je me demande même si la prochaine gen le sera.


---------------
c'est moi babar le roi des elephants/FEED /GamerTag/psn/steam id : bardack01
n°10906710
mukumi
RATATATA
Posté le 08-12-2020 à 22:53:33  profilanswer
 

bardack a écrit :

au lieu de vous focaliser sur les chiffres avec rt sans dlss vu que le rt 4k mets a genou la 3090 donc inexploitable, regardez ce que ça donne sans rt, ou rt avec dlss. les cartes sont pas taillé pour le 4k rt pur. je me demande même si la prochaine gen le sera.

 

C'est pas un manque d'opti plus qu'un manque de puissance ?

n°10906711
Gunman24
Posté le 08-12-2020 à 22:53:57  profilanswer
 

reflex69 a écrit :


Sans même rentrer dans ce débat de savoir qui a tort ou raison dans ce cas particulier, selon moi, commencer déjà à douter de 10GB, c'est déjà un aveu de faiblesse pour la suite, alors que la 3080 est censée représenter le nouveau 'flagship' Nvidia !
Du coup on se retrouve dans une situation bizarre où la 6900XT déçoit, et donc ne mérite pas forcement de réponse de la part de Nvidia avec une nouvelle 3080ti.
Mais d'un autre côté, la 3080 avec 'seulement' 10GB fait douter sur sa pérennité de flagship dans les années à venir, surtout que la norme haut de gamme est devenue 16GB chez AMD.
Alors que faire Nvidia ?
Sortir une nouvelle 3080 Ti 20GB ?
Sortir une remplaçante 3080 20GB ?
Rien ?


 
Qu'ils mettent déjà les cartes actuelles à la vente, ce sera bien déjà.

mood
Publicité
Posté le 08-12-2020 à 22:53:57  profilanswer
 

n°10906712
bardack
Official GRAW member
Posté le 08-12-2020 à 22:56:51  profilanswer
 

mukumi a écrit :


 
C'est pas un manque d'opti plus qu'un manque de puissance ?


c'est pour ça qu'il faut voir les prochains résultats sur le jeu avec les opti futurs, et ne pas tirer des conclusions sur juste un 1er chiffre. dans tous les cas le rt 4k pur est dégueulasse.  [:moonbloood:2]


---------------
c'est moi babar le roi des elephants/FEED /GamerTag/psn/steam id : bardack01
n°10906715
reflex69
Posté le 08-12-2020 à 23:04:05  profilanswer
 

sepiroth a écrit :


 
J'ai pas ce souvenir pour la 6800XT et n'ai pas eu le temps de regarder d'autres tests pour la 6900XT. Tomshardware et Gamer nexus avaient peu ou prou les mêmes résultats qu'eux pour la 6800XT si je ne m'abuse ?
 
Perso je table sur 6900XT>3090 en raster d'ici 3-6mois et pareil pour la 6800XT>3080 ... AMD a tendance à trouver 10% ou plus sur ses drivers dans le temps. Historiquement du moins. Sans compter les adaptations consoles qui favoriseront un max RDNA2...
 
Contrairement aux fanboys Nvidia je suis très heureux de voir AMD de retour au top. J'aurais pu choper un 6800XT j'aurais été content également...


C'est choquant 1000€ juste pour du "raster" !
 
https://image.noelshack.com/fichiers/2020/50/2/1607464868-sans-titre.png
 
https://www.comptoir-hardware.com/a [...] l?start=13

Message cité 1 fois
Message édité par reflex69 le 08-12-2020 à 23:04:49
n°10906717
mukumi
RATATATA
Posté le 08-12-2020 à 23:06:39  profilanswer
 

 

C'est mieux 1300 pour 29 fps ? :D

 

https://cdn.wccftech.com/wp-content/uploads/2020/12/Cyberpunk-2077-PC-Performance-Benchmarks_-AMD-NVIDIA-GPUs-_-2160p-Ultra-1480x829.png

 

C'est une très bonne chose qu'amd soit de retour nvidia devait d'ailleurs le savoir sinon ils n'auraient jamais mis leur 3080 à 720 balles d'ailleurs.  :jap:

 

Prochaines générations vont être top des deux côtés. Je le sens.  [:cerveau neuf]


Message édité par mukumi le 08-12-2020 à 23:08:58
n°10906719
tomcat8390
BF1
Posté le 08-12-2020 à 23:13:35  profilanswer
 

Ca dépend nvidia va aller sur du 5 Hopper et amd va améliorer son rdna en 7 ?


---------------
Molette si t pas jouasse.
n°10906733
spooky57
Egon ? Ton mucus
Posté le 08-12-2020 à 23:37:07  profilanswer
 

Le Profanateur a écrit :


Merci je suis au courant.


 
T'as fait exprès avoue.


---------------
<_242-attack> je prefere dire tout de suite aux baltringue de hacker cherche pas à me piraté mon pc il es garantie 3ans
n°10906735
Le Profana​teur
Passéiste désincarné
Posté le 08-12-2020 à 23:39:36  profilanswer
 

Heureusement :d


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°10906736
spooky57
Egon ? Ton mucus
Posté le 08-12-2020 à 23:39:47  profilanswer
 

sepiroth a écrit :


 
Bé non le RT ça utilise plus de Vram. Sans RT tu es vraisemblablement sensiblement sous les 10Go. Donc la 3080 performe normalement par rapport à la 3090
 
Avec RT >10Go donc perfs largement <3090
 
Tu m'explique comment la 3090 avec 10% d'unités RT en plus elle serait 80% plus rapide sur le jeu ?
 
Le score en 4K DLSS Q prouve mon point. La 3080 et 3090 reviennent à 15% d'écart, car le rendu interne en 1440 RTU avant upscale 4k ne sature pas la mémoire...


 
Bon, à ce niveau je pense que tu es bête. Le mieux c'est de t'ignorer.


---------------
<_242-attack> je prefere dire tout de suite aux baltringue de hacker cherche pas à me piraté mon pc il es garantie 3ans
n°10906737
mum1989
Posté le 08-12-2020 à 23:41:11  profilanswer
 

Arrivée de la 3070 FE du drop de dredi en remplacement d'une 2070 Gaming
 
https://i.postimg.cc/yNdkhjhn/20201208-124254.jpg
 

Spoiler :

on note que j'ai réussi à plus ou moins cacher le passage du fameux cable 12pin.


 
La finition de cette FE est franchement top.
 
Au niveau performance, c'est correct, il faut que je fasse plus de test,  
mais en VR avec un Quest2 il faut quand même de la puissance si on veut éliminer l'aliaising.
 
Niveau nuisance chauffe, c'est honorable(79°C), on est loin de mon ancienne MSI, mais elle ne casse pas les oreilles (2500tr/min max quand même),  
pour le coil whine il faudra aussi que je regarde un peu plus.
J'ai l'impression d'avoir pris quelques degré niveau CPU (80° le 3700x), il faudra que je regarde si je la met plus bas.
 
 
 

n°10906739
mukumi
RATATATA
Posté le 08-12-2020 à 23:43:28  profilanswer
 

mum1989 a écrit :

Arrivée de la 3070 FE du drop de dredi en remplacement d'une 2070 Gaming
 
https://i.postimg.cc/yNdkhjhn/20201208-124254.jpg
 

Spoiler :

on note que j'ai réussi à plus ou moins cacher le passage du fameux cable 12pin.


 
La finition de cette FE est franchement top.
 
Au niveau performance, c'est correct, il faut que je fasse plus de test,  
mais en VR avec un Quest2 il faut quand même de la puissance si on veut éliminer l'aliaising.
 
Niveau nuisance chauffe, c'est honorable(79°C), on est loin de mon ancienne MSI, mais elle ne casse pas les oreilles (2500tr/min max quand même),  
pour le coil whine il faudra aussi que je regarde un peu plus.
J'ai l'impression d'avoir pris quelques degré niveau CPU (80° le 3700x), il faudra que je regarde si je la met plus bas.
 
 
 


 
Ptet juste ton CPU qui se tourne moins les pouces aussi :D
 
Pas mal de tests ont montré que l'impact sur le CPU est quasi nul :jap:
 
https://www.youtube.com/watch?v=mJ4ha0zsWHw
https://www.youtube.com/watch?v=zWczw89sMe0

n°10906747
coucoujojo
Posté le 08-12-2020 à 23:55:07  profilanswer
 

reflex69 a écrit :


Sans même rentrer dans ce débat de savoir qui a tort ou raison dans ce cas particulier, selon moi, commencer déjà à douter de 10GB, c'est déjà un aveu de faiblesse pour la suite, alors que la 3080 est censée représenter le nouveau 'flagship' Nvidia !
Du coup on se retrouve dans une situation bizarre où la 6900XT déçoit, et donc ne mérite pas forcement de réponse de la part de Nvidia avec une nouvelle 3080ti.
Mais d'un autre côté, la 3080 avec 'seulement' 10GB fait douter sur sa pérennité de flagship dans les années à venir, surtout que la norme haut de gamme est devenue 16GB chez AMD.
Alors que faire Nvidia ?
Sortir une nouvelle 3080 Ti 20GB ?
Sortir une remplaçante 3080 20GB ?
Rien ?


 
 :sweat: en prenant une 3080 je pensais pouvoir être bien pendant des années, c'est chaud de se dire qu'une carte flagship à peine sortie est déjà limite et que pour jouer à fond aux derniers titres AAA il faut mettre 1500€ dans une CG.
Perso je mettrais pas 1 SMIC tout les 1-2 ans pour profiter de claques visuelles.

n°10906750
sabrewulfy
Posté le 08-12-2020 à 23:57:43  profilanswer
 

coucoujojo a écrit :


 
 :sweat: en prenant une 3080 je pensais pouvoir être bien pendant des années, c'est chaud de se dire qu'une carte flagship à peine sortie est déjà limite et que pour jouer à fond aux derniers titres AAA il faut mettre 1500€ dans une CG.
Perso je mettrais pas 1 SMIC tout les 1-2 ans pour profiter de claques visuelles.


 
Après l'ultra est parfois très peu différent du mode élevés.
Le RT ça peut s'enlever/baisser pour gagner en perf aussi.
 
Au final on nous met plein de poudre aux yeux bien gourmande en ressources pour satisfaire nos exigences toujours plus élevés

n°10906751
spooky57
Egon ? Ton mucus
Posté le 08-12-2020 à 23:59:32  profilanswer
 

reflex69 a écrit :


Sans même rentrer dans ce débat de savoir qui a tort ou raison dans ce cas particulier, selon moi, commencer déjà à douter de 10GB, c'est déjà un aveu de faiblesse pour la suite, alors que la 3080 est censée représenter le nouveau 'flagship' Nvidia !
Du coup on se retrouve dans une situation bizarre où la 6900XT déçoit, et donc ne mérite pas forcement de réponse de la part de Nvidia avec une nouvelle 3080ti.
Mais d'un autre côté, la 3080 avec 'seulement' 10GB fait douter sur sa pérennité de flagship dans les années à venir, surtout que la norme haut de gamme est devenue 16GB chez AMD.
Alors que faire Nvidia ?
Sortir une nouvelle 3080 Ti 20GB ?
Sortir une remplaçante 3080 20GB ?
Rien ?


 
Vu les perf' en 4K plus que 10Go c'est aussi utile que 8Go sur une RX580. :D Faut pas s'inquiéter.


---------------
<_242-attack> je prefere dire tout de suite aux baltringue de hacker cherche pas à me piraté mon pc il es garantie 3ans
n°10906755
GrOVEnor
Posté le 09-12-2020 à 00:08:45  profilanswer
 

kenshirooo a écrit :

Dur dur les tests de la RX 6900XT.
Dépassée par la 3080 FE dans la plupart des tests sans RTX et par une 2070 en RTX... A 1000 boules ouch...


ça dépend beaucoup des jeux choisis. Plus les jeux sont récents, plus AMD est devant... L'exception devrait être Cyberpunk quand-même  :o

 

Edit: grilled par Mukumi


Message édité par GrOVEnor le 09-12-2020 à 00:13:35
n°10906761
mukumi
RATATATA
Posté le 09-12-2020 à 00:35:07  profilanswer
 

sabrewulfy a écrit :


 
Après l'ultra est parfois très peu différent du mode élevés.
Le RT ça peut s'enlever/baisser pour gagner en perf aussi.
 
Au final on nous met plein de poudre aux yeux bien gourmande en ressources pour satisfaire nos exigences toujours plus élevés


 
Je me demande si il n'y a pas aussi un coté "plus ton jeu est gourmand plus il a de chance de finir en tant que benchmark" dans les différents tests. Et au final ils tapent des options qu'ils savent pertinemment inexploitables mais grâce à ça leur jeu gagne une visibilité dans tous les tests de CG.  
 
Un peu comme Crysis à l'époque, sauf qu'aujourd'hui comme tu le dis la différence entre le high et ultra est souvent visuellement minime.

n°10906764
sepiroth
Posté le 09-12-2020 à 00:44:34  profilanswer
 

spooky57 a écrit :


 
Bon, à ce niveau je pense que tu es bête. Le mieux c'est de t'ignorer.


 
Ouais.... Ça doit être ça.
 
C'est vrai que j'ai vraiment raté ma vie  :sweat:  
 
Sans dec  :pfff:  
 
Le pire c'est que tu tentes de mettre en défaut l'argument le plus solide et logique de mon argumentation. Choisis au moins un élément sur lequel tu as au moins une chance d'argumenter la prochaine fois.


---------------
Fast stuff.. cars and PC
n°10906765
schpounzzz
mangeur de hardware.
Posté le 09-12-2020 à 00:45:31  profilanswer
 

1200€ hein, car en france LDLC et ses petit groupe qu’il a racheté (matériel et topachat) se gave sur votre dos les gars!
Pour le moment, c’est FE on m’y avec les prix imposé par nvidia.


---------------
Cash:  "Quand ça sera fini, fait moi penser s'il te plait à lui arracher la langue!" Tango: "Avec une dépanneuse"
n°10906772
HashKah
It’s dangerous to go alone !
Posté le 09-12-2020 à 00:59:32  profilanswer
 

sepiroth a écrit :


 
Perso je table sur 6900XT>3090 en raster d'ici 3-6mois et pareil pour la 6800XT>3080 ... AMD a tendance à trouver 10% ou plus sur ses drivers dans le temps. Historiquement du moins. Sans compter les adaptations consoles qui favoriseront un max RDNA2...
 


 
Faut pas trop rêver non plus hein, d'ailleurs Nvidia le peut aussi sur une toute nouvelle architecture, d'autant qu'ils ont la marge du DLSS qui pour le moment n'existe pas chez AMD, marge qui change tout en 4k sur les gros jeux qui sont de plus en plus nombreux à le prendre en charge.
 
Et sur la génération de consoles précédentes c'était déjà du full AMD et on a vu aucun avantage aux rouges sur le PC.
Ça aussi c'est un raccourci un peu grossier et y'a rien qui vienne étayer ce que tu dis.
 
Enfin sur 90% des test, hormis l'anomalie signalée plus haut, le résultat synthétique en jeux donne une 3090 à 15% au dessus d'une 6900XT (il n'y a qu'une petite poignée de jeux où la 6900XT est devant et notamment ceux en partenariat AMD).
 
Sur le test du comptoir ce sont des jeux récents et notamment ceux qu'AMD avait utilisé dans sa conf, donc y'a pas de triche là, si ? D'autant que le site n'oublie pas de distinguer la 6900XT avec et sans SAM.
 
Ça n'est même plus une rumeur mais AMD va ouvrir son infinity cache aux cartes Nvidia et Intel prépare un équivalent.  
Donc les 30XX aussi vont pouvoir aller gratter jusqu'à 10% de plus selon les jeux.
 
J'ai salué le retour d'AMD, c'est génial pour le marché et les joueurs mais là faut arrêter de se voiler la face, cette 6900XT est une déception, elle ne détrône pas la 3090, elle vient juste se placer légèrement au dessus de la 3080 et y'a rien qui justifie le surcoût par rapport  à une 6800XT custom.
 
Mais si tu le souhaites, dans 3-6 mois nous reparlerons des perfs en jeux des deux architectures  :jap:  

n°10906776
thibaeus
Posté le 09-12-2020 à 01:03:38  profilanswer
 

mum1989 a écrit :

Arrivée de la 3070 FE du drop de dredi en remplacement d'une 2070 Gaming
 
https://i.postimg.cc/yNdkhjhn/20201208-124254.jpg
 

Spoiler :

on note que j'ai réussi à plus ou moins cacher le passage du fameux cable 12pin.


 
La finition de cette FE est franchement top.
 
Au niveau performance, c'est correct, il faut que je fasse plus de test,  
mais en VR avec un Quest2 il faut quand même de la puissance si on veut éliminer l'aliaising.
 
Niveau nuisance chauffe, c'est honorable(79°C), on est loin de mon ancienne MSI, mais elle ne casse pas les oreilles (2500tr/min max quand même),  
pour le coil whine il faudra aussi que je regarde un peu plus.
J'ai l'impression d'avoir pris quelques degré niveau CPU (80° le 3700x), il faudra que je regarde si je la met plus bas.
 
 
 


 
La même ici, je viens de recevoir la 3070FE pour remplacer ma bonne 2070Gaming. Je vais l'installer dans la semaine, je ferais un rapide retour des perfs/temps/bruit.  
 
Comme tu dis, la finition de ces FE est simplement magnifique :love:  
 
Si tu pouvais envoyer un petit 3dmark pour le geste, que je compare à la mienne qui est associée à un i7 9700k.  
 
   :jap:  

n°10906780
Gunman24
Posté le 09-12-2020 à 01:19:27  profilanswer
 

79° c'est un poil haut je trouve.

n°10906784
Pachparla
ou par ici.
Posté le 09-12-2020 à 01:26:09  profilanswer
 

PeK a écrit :

Hello
Petite question aux connaisseurs: il y a quelque chose de "pas bien" dans la "INNO3D GeForce RTX 3090 GAMING X3"
C'est la 3090 la moins cher hormis la FE, et c'est la carte "presque" dispo un peu partout, dans le sens ou arrive d'ici 7/15 jours.  
ya un loup?


Il y a eu quelques retour sav plus important sur certains modèles/série (9xx/1xxx), ça n'a pas dû laisser une bonne image.

n°10906785
thibaeus
Posté le 09-12-2020 à 01:28:57  profilanswer
 

Gunman24 a écrit :

79° c'est un poil haut je trouve.


 
Je trouve aussi oui. J'espère avoir plus bas avec un UV qui va bien. J'ai environ 65 degrés avec la 2070 gaming à 1935/0.950.

n°10906789
kenshirooo
Posté le 09-12-2020 à 01:52:02  profilanswer
 

sepiroth a écrit :

 

On a pas vu les mêmes tests. Sur Hardware unboxed elle est seulement 4% derrière la 3090 en 4K et systématiquement devant sur les jeux récents en raster (ou presque). Et devant en 1440p bien sûr


GamersNexus. Pour moi la référence.
Même si j'aime bien HWUB aussi .

 

https://i.ibb.co/MM31Qkk/Screenshot-20201209-015852.jpg

 

Globalement très décevante cette 6900xt :/

Message cité 2 fois
Message édité par kenshirooo le 09-12-2020 à 02:01:04
n°10906790
Gunman24
Posté le 09-12-2020 à 02:24:20  profilanswer
 

Certes, faut pas oublier d'où revient AMD. Et qui plus est, sur un segment très haut de gamme qu'ils avaient abandonné depuis des lustres.
C'est positif pour nous, même si ça arrive au moment d'une pénurie générale.

n°10906797
sepiroth
Posté le 09-12-2020 à 06:31:32  profilanswer
 

kenshirooo a écrit :


GamersNexus. Pour moi la référence.
Même si j'aime bien HWUB aussi .
 
https://i.ibb.co/MM31Qkk/Screenshot-20201209-015852.jpg
 
Globalement très décevante cette 6900xt :/


 
Ouais je viens de regarder la review de GamerNexus a l'instant. C'est en effet moins bien sur que Hardware Unboxed... En même temps, il ne fallait pas s'attendre a une révolution par rapport a la 6800XT au vu des specs...
 
Une bonne 6800XT a 2.7Ghz c'est pas mal


---------------
Fast stuff.. cars and PC
n°10906798
havoc_28
Posté le 09-12-2020 à 06:35:42  profilanswer
 

spooky57 a écrit :


 
Les deux. Mais principalement les dév du jeu. Ce n'est pas nvidia qui l'implémente hey. Et vu les autres soucis que rencontre le jeu on va attendre avant de défoncer DLSS 2.0 et nvidia.


 
Les devs du jeu ce sont eux qui contrôlent les algorithmes accélérés via l'apprentissage machine de Nvidia ?  Vu comment fonctionnait le DLSS 1.0 là ils sont passés à un apprentissage globale et non plus au cas par cas.  
C'est pas comme le RayTracing ou les dévs sont clairement responsables pour implémenter les sources lumineuses, ajuster le level disgn etc pour les particularité du RayTracing. Mais un algorithme propre à Nvidia ? Au moins pour le DLSS 1.0 ça pouvait se comprendre fallait que les dévs coopèrent fortement avec Nvidia en donnant pas mal de code etc, bref de la matière pour que les fermes de Nvidia travaillent, mais on ne serait plus dans ce cas là avec le DLSS 2.0 donc bon. Après je veux bien que les studios aient demandé à nvidia pour tel ou tel titre de favoriser avant tout les performances au détriment de la qualité graphique mais à part les presets habitudels pour le DLSS je suis pas sur que les devs aient beaucoup plus sous la main.  
 
Nvidia même a marketé l'intégration du DLSS 2.0 comme bien simple et rapide que le DLSS 1.0.
 
En quoi c'est un problème de surveiller si la qualité sera bien aux rendez vous sur les prochains titres ?  
 

spooky57 a écrit :


 
Y'a que toi qui doute. Depuis Death Stranding on a tous pigé que c'était le futur. :-)


 
Depuis le DLSS 1.0 j'avais compris que les algorithmes de reconstruction d'image à partir d'une résolution inférieure accéléré via l'apprentissage machine c'est le futur, sauf que le DLSS 1.0 était clairmeent perfectible.
 
Sauf qu'après quelques titres très prometteur pour le DLSS 2.0 y a eut récemment deux petits écueils, en quoi c'est un problème d'être prudent ? Si c'était juste un accident de parcours et que la faute incombe bien aux dévs très bien, ça restera des cas isolés qui seront peut être patchés dans les semaines / mois à venir.
 
Mais je suis juste un peu étonné qu'il y ait des titre problématiques avec le DLSS 2.0 ... Rien de plus.


Message édité par havoc_28 le 09-12-2020 à 07:13:16
n°10906799
sepiroth
Posté le 09-12-2020 à 06:36:07  profilanswer
 

HashKah a écrit :


 
Faut pas trop rêver non plus hein, d'ailleurs Nvidia le peut aussi sur une toute nouvelle architecture, d'autant qu'ils ont la marge du DLSS qui pour le moment n'existe pas chez AMD, marge qui change tout en 4k sur les gros jeux qui sont de plus en plus nombreux à le prendre en charge.
 
Et sur la génération de consoles précédentes c'était déjà du full AMD et on a vu aucun avantage aux rouges sur le PC.
Ça aussi c'est un raccourci un peu grossier et y'a rien qui vienne étayer ce que tu dis.
 
Enfin sur 90% des test, hormis l'anomalie signalée plus haut, le résultat synthétique en jeux donne une 3090 à 15% au dessus d'une 6900XT (il n'y a qu'une petite poignée de jeux où la 6900XT est devant et notamment ceux en partenariat AMD).
 
Sur le test du comptoir ce sont des jeux récents et notamment ceux qu'AMD avait utilisé dans sa conf, donc y'a pas de triche là, si ? D'autant que le site n'oublie pas de distinguer la 6900XT avec et sans SAM.
 
Ça n'est même plus une rumeur mais AMD va ouvrir son infinity cache aux cartes Nvidia et Intel prépare un équivalent.  
Donc les 30XX aussi vont pouvoir aller gratter jusqu'à 10% de plus selon les jeux.
 
J'ai salué le retour d'AMD, c'est génial pour le marché et les joueurs mais là faut arrêter de se voiler la face, cette 6900XT est une déception, elle ne détrône pas la 3090, elle vient juste se placer légèrement au dessus de la 3080 et y'a rien qui justifie le surcoût par rapport  à une 6800XT custom.
 
Mais si tu le souhaites, dans 3-6 mois nous reparlerons des perfs en jeux des deux architectures  :jap:  


 
La différence c'est que cette fois ci AMD a exactement la même architecture RDNA2 sur les consoles, ce qui n'était pas le cas auparavant (PS4/X One). Il va y avoir un max d'optimisation pour cette architecture et le portage vers PC pour AMD va être facilite je presume...
ACV est un premier exemple IMO. Il tourne mieux sur 6800XT que sur 3080 (en particulier 1440p, 4K un poil devant). Dirt 5 également selon certains tests...
 
L'avenir nous le dira...
 


---------------
Fast stuff.. cars and PC
n°10906800
havoc_28
Posté le 09-12-2020 à 06:39:07  profilanswer
 

sepiroth a écrit :


 
La différence c'est que cette fois ci AMD a exactement la même architecture RDNA2 sur les consoles, ce qui n'était pas le cas auparavant (PS4/X One). Il va y avoir un max d'optimisation pour cette architecture et le portage vers PC pour AMD va être facilite je presume...
ACV est un premier exemple IMO. Il tourne mieux sur 6800XT que sur 3080 (en particulier 1440p, 4K un poil devant). Dirt 5 également selon certains tests...
 
L'avenir nous le dira...
 


 
PS4 / Xone, c'étaient des variantes de GCN ... avec des 8 cœurs jaguars pour la partie CPU.
 
Sur la XboX Série X / S par exemple y a pas d'infinity Cache :o, et y a des transistors dédiés à l'apprentissage machine ce qui ne semble pas être le cas sur RDNA 2 desktop, bref les socs consoles c'est personnalisé un minimum tout de même.
 
Donc c'es pas si différent que ça, sauf que cette fois si les consoles nouvelles générations n'ont plus un processeur anémique (les jaguars l'étaient déjà à l'époque de leurs sorties).
 
Par contre on peut penser que RDNA 2 pourra offrir le niveau de performance "minimal" coté RayTraycaing. Mais bon ça reste à voir.

Message cité 1 fois
Message édité par havoc_28 le 09-12-2020 à 06:43:54
n°10906803
[Toine]
A la demande générale...
Posté le 09-12-2020 à 07:09:23  profilanswer
 

kenshirooo a écrit :


GamersNexus. Pour moi la référence.
Même si j'aime bien HWUB aussi .
 
https://i.ibb.co/MM31Qkk/Screenshot-20201209-015852.jpg
 
Globalement très décevante cette 6900xt :/


Pourquoi êtes vous déçu ?
Les perfs correspondent en tout point avec l'écart d'unités activées + le fait que le TDP ait été contenu.
Personnellement je trouve les perfs logiques.


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°10906808
raoulator
Posté le 09-12-2020 à 07:43:51  profilanswer
 

Premier contact hier avec ma 3080fe.
J'ai testé vite fait Red Dead Redemption 2 TAF
La carte monte à 77°C et se met en mode turbine à 5 minutes de jeu.
C'est beau mais bruyant.
Sous battlefield 5 cela chauffe nettement moins.
 
Je vais regarder ce que je peux faire niveau undervolting.

n°10906824
Solstic3
Posté le 09-12-2020 à 08:26:01  profilanswer
 

Akilae_ a écrit :

Sur 650W si t'as 10-15% de rendement d'écart avec un modèle plus lambda, c'est 65-100W de plus en sortie pour alimenter tes composants.


La puissance fournie par l'alimentation ne dépend pas du rendement, vous êtes nombreux à avoir du mal avec ça.

n°10906829
kenshirooo
Posté le 09-12-2020 à 08:31:20  profilanswer
 

raoulator a écrit :

Premier contact hier avec ma 3080fe.
J'ai testé vite fait Red Dead Redemption 2 TAF
La carte monte à 77°C et se met en mode turbine à 5 minutes de jeu.
C'est beau mais bruyant.
Sous battlefield 5 cela chauffe nettement moins.

 

Je vais regarder ce que je peux faire niveau undervolting.

 

L'UV devrait aider.
C'est une des limites de la FE, les températures et le bruit malheureusement. Les modèles AIB de qualité font vraiment mieux sur ce plan. C'est pour ça qu'au MSRP perso j'hésiterais vraiment pas longtemps  :O

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  1126  1127  1128  ..  1884  1885  1886  1887  1888  1889

Aller à :
Ajouter une réponse
 

Sujets relatifs
Faire tourner Catia avec une Nvidia gtx ?upgrade de win7 a Win10 impossible cause nvidia 7050 incompatible
Windows+Nvidia=Pas de HDR?[Topic unique] AMD Ryzen - Zen 3, 7nm, fin 2020
Coque télécommande NVIDIA ShieldCable Alim pcie NVidia 8 pins
nvidia quadro 600Pb NVIDIA Geforce GTX 1660 win10 et carte mère AZUS P8Z77-V
Changer ma rx 570 par une carte nvidia 
Plus de sujets relatifs à : [TU] Nvidia Ampère - GeForce RTX 3000 - La Génération Ubuesque !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)