Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3650 connectés 

 

 

Tu as acheté un GPU Navi, ton avis :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  92  93  94  ..  191  192  193  194  195  196
Auteur Sujet :

[Topic Unique] AMD Navi : le taulier s'y est mis aussi

n°10614641
AwsomeReli​que
Posté le 09-08-2019 à 17:34:52  profilanswer
 
mood
Publicité
Posté le 09-08-2019 à 17:34:52  profilanswer
 

n°10614642
Activation
21:9 kill Surround Gaming
Posté le 09-08-2019 à 17:36:18  profilanswer
 
n°10614646
aliss
Rhyme the Rhyme Well
Posté le 09-08-2019 à 17:44:54  profilanswer
 

Dire qu'un petit chip de 250mm2 se trouve sous toute cette carlingue.  :D

n°10614669
AwsomeReli​que
Posté le 09-08-2019 à 18:23:13  profilanswer
 

Ils sont motivés chez Asrock  :lol:

n°10614673
ddlabrague​tte
Posté le 09-08-2019 à 18:30:17  profilanswer
 

aliss a écrit :


 
Le gpu mentionné n'est pas forcément le "high end" Navi de l'interview de Lisa.  ;)  


 
c'est vrai que c'était pas très clair  
mais la questions à la base c'était " y'aura t'il des déclinaisons edg et hdg de navi " et elle a répondu oui ( plus ou moins à demi mots c'est vrai :jap: )  
à moins que je me trompe ?  :??:
 

Activation a écrit :

perso je la vois bien sortir apres Q1 2020


 
ça dépend , si il est en 7nm EUV oui c'est probable  
si c'est le même process que navi 10, il peut sortir avant je pense

Message cité 1 fois
Message édité par ddlabraguette le 09-08-2019 à 18:34:15
n°10614680
aliss
Rhyme the Rhyme Well
Posté le 09-08-2019 à 18:42:22  profilanswer
 

ddlabraguette a écrit :


 
c'est vrai que c'était pas très clair  
mais la questions à la base c'était " y'aura t'il des déclinaisons edg et hdg de navi " et elle a répondu oui ( plus ou moins à demi mots c'est vrai :jap: )  
à moins que je me trompe ?  :??:
 


 
Dans leur roadmap, RDNA 2 doit sortir l'an prochain et c'est peut-être là dessus qu'ils comptent pour changer la donne.
 
D'ici là, rien n'empêche l'apparition d'une version plus balèze de Navi (d'ou l'acquiessement de Lisa Su). s'intercalant entre les TU104 et 102.
 
En outre, Komachi a déclaré que Navi 12 était "gros", w&s.  :D  

n°10614755
robin4002
Posté le 09-08-2019 à 20:27:48  profilanswer
 

On sait grâce au pilote Linux que Navi 12 et Navi 14 sont en préparation, Navi 12 étant vraisemblablement la grosse puce et pour Navi 14 on peut supposer qu'elle va remplacer la gamme actuellement couvert par Polaris 10 mais avec plus de perf.
 
Et aujourd'hui AMD a publié le code pour Renoir, les futurs APU zen 2 + Navi Vega ?!?? : https://phoronix.com/scan.php?page= [...] -APU-Linux
 
Vu l'avancement des pilotes Linux, soit AMD a publié exceptionnellement tôt le code, soit ces 2 GPU et l'APU sont prévu pour avant la fin de l'année. (en général il y a 4-5 mois entre la publication du code et la sortie, donc je pense à une sortie durant Q4 2019).
 
EDIT : Q1 2020 me semble plus probable pour l'APU avec des annonces au CES.


Message édité par robin4002 le 09-08-2019 à 20:36:59
n°10614765
Nanaki
Posté le 09-08-2019 à 20:54:48  profilanswer
 

Franchement moche ces Asrock, la backplate on dirait un vieux disque vinyl cradingue...

Message cité 1 fois
Message édité par Nanaki le 09-08-2019 à 20:55:10
n°10614768
gamelle
The place to be ...
Posté le 09-08-2019 à 20:58:19  profilanswer
 

Nanaki a écrit :

Franchement moche ces Asrock, la backplate on dirait un vieux disque vinyl cradingue...


 
Les goûts et les couleurs  :sarcastic: ...


---------------
Flickr/Corsair 2500X/Asus ROG STRIX X870I Gaming Wifi/Ryzen 7800X3D / 2x16GO Corsair 6000Cl30 / Asrock RX 9070 XT Taichi
n°10614937
AwsomeReli​que
Posté le 10-08-2019 à 05:27:05  profilanswer
 

https://www.overclock.net/forum/attachment.php?attachmentid=287628&d=1565393468
[:bluewaave]

 

Pour info, la version 2070s est dotée de 8 phases, et ne dépasse pas les 62° pour 38db.
A part powercolor qui a annoncé une version à 399$, pour 20$ de plus on a une version moins chère que celle de référence, et à première vue très efficace.

 

https://www.kitguru.net/components/ [...] 8g-review/

Message cité 1 fois
Message édité par AwsomeRelique le 10-08-2019 à 05:28:02
mood
Publicité
Posté le 10-08-2019 à 05:27:05  profilanswer
 

n°10614971
cartemere
Posté le 10-08-2019 à 09:01:30  profilanswer
 

aliss a écrit :


 
Dans la division marketing/red team peut-être mais pas en interne.


la division marketing est une division d'AMD, donc par définition "interne", CQFD

n°10614996
aliss
Rhyme the Rhyme Well
Posté le 10-08-2019 à 10:14:28  profilanswer
 

cartemere a écrit :


la division marketing est une division d'AMD, donc par définition "interne", CQFD


 
Je fais une différence entre les marketeux exacerbant les fans en usant de marketing viral sur les réseaux sociaux ou les forums et les employés bossant à la conception d'un produit.
 
Le dévellopement de Vega a mené au départ (ou licenciement) de Raja avant même sa sortie (pseudo congé sabatique), il est peu probable qu'en interne il se disait que ce gpu était un "Volta Killer".

n°10615016
Roovy
Posté le 10-08-2019 à 10:52:58  profilanswer
 

Raja Koduri a vraiment été mis au placard / viré de chez AMD à cause de Vega , ou bien alors il s'est simplement mis en retrait et a démissionné sachant qu'il avait déjà son poste assuré chez Intel ? :??:  
 

Message cité 2 fois
Message édité par Roovy le 10-08-2019 à 10:53:58
n°10615019
Activation
21:9 kill Surround Gaming
Posté le 10-08-2019 à 10:55:39  profilanswer
 

aliss a écrit :


 
Dans leur roadmap, RDNA 2 doit sortir l'an prochain et c'est peut-être là dessus qu'ils comptent pour changer la donne.
 
D'ici là, rien n'empêche l'apparition d'une version plus balèze de Navi (d'ou l'acquiessement de Lisa Su). s'intercalant entre les TU104 et 102.
 
En outre, Komachi a déclaré que Navi 12 était "gros", w&s.  :D  


 
Sauf erreur ce "komachi" il a jamais déclaré ça
Encore de la branlette / deformation de trad moisi de faux journaleux qui repete en coeur des conneries sans jamais verifier leur source
 
En gros ce qu il a dit c'est un NV12 quand tu fouille dans le code drs drivers linux de souvenir
Et apres il est sur une interrogation de "serais ce le gros navi gpu 4096sp"
 
Hors ce gros gpu, ça peu tout aussi bien etre un nouveau gpu avec une nouvelle appelation ciblant le marché pro
Volta a des affinité avec pascal et turing ça n'en fait pas une puce grand public
 
De plus si vous captez toujours pas qu'en rasterization, doublé le nb d unité de calcul ne double pas le framerate faudra un jour l'intégrer dans qqs neurones dans un coin :o  
Bref avoir une grosse puce grand public avec 2x plus de CU ... Pourquoi faire
 
L'attention se porte alors sur RDNA 2 et le raytracing
Visiblement chaque shader array vont se voir adjoindre un circuit
Est ce que dans la foulé au lieu de 5 il n y aura pas... Pourquoi pas 6WGP (dcu)
Pourquoi vous voudriez absolument doubler le nombre de shader engine
Ça sera le premier gros RDNA et le premier RT AMD compliant, donc se projeter à vouloir absolument un gros bousin monolithique alors qui si il ne l est pas lui même ça sera très probablement l occasion de valider ce qu il sera bon à faire dans une optique MCM
Donc 3 shader engine et non 4 ça sera déjà bien assé comme ça, vu qu'il y aura déjà bien assé de taff avec l integration du RT
 
rappel aussi qu'avant la sortie des 5700/5700XT AMD n'a pas caché qu'il s'agissait d'un mix rdna/gcn
donc on peut s'attendre à une moindre efficience en rasterization de ce prochain gpu comparé au 5700
en même temps logique si déjà on ajoute des transistor pour le RT
à charge à AMD que ça ne soit pas trop une explosion de la taille du die comme le turing chez nvidia
 
Quand à Lisa.... Elle n'a jamais dit que ça sortait cette année
 
Y a aussi le fait que ce prochain gpu n a jamais eu de nomination grand public que "next generation"
Donc elle a ptet pu "utiliser" le terme navi comme point de comparaison, et alors savoir si les journaleux à 2 sous on pas deformé un "plus gros que navi" en "un plus gros navi"
Ou tout simplement car pour une fois ils souhaitent vraiment cacher son nom de code
 
Ou alors est que comme zen zen+ zen2 zen3.... On se tourne pas tout betement vers "navi2" ça collerait avec "rdna2"
Dernierement ça a été la fête chez AMD... Rappel que c est des radeon 5700 qui sont sorti du chapeau... Soit disant pour rappeler les 50ans ou autre connerie... Moueh
 
je constate aussi que AMD n'a visiblement pas assé de wafer pour tenir la cadence
navi 10 est très petit, le core die des ryzen 3000 sont très petit
comme je l'ai déjà dit, je sent bien une des nouvelles console (surtout celle de microsoft) qui pourrait bien débouler en avril 2020 et profiter d'un titre tiers tel cyberpunk 2077 pour pouvoir en vendre des palettes
 
et vous voulez en refoutre une couche avec du gros gpu, alors que les wafer ne suivent pas
 
Moi mon petit conseil ça sera si vous voulez du 5700XT custom, glandouillez pas trop à l'acheter, car vous risquer de voir son approvisionnement vite se tarir et la spéculation de connards faire rapidement son office
sachant que là en rad blower on top une 5700XT à 390-395 roros
 
si vous voyez genre une gigabyte 3 fans à 415 roros la 5700xt....  
 
et encore une couche des R7 3700 et R9 3900 qui s'ajouterait au catalogue
OOOOhhhhh oui j'espère que AMD à négocier des nbs de wafer à la hausse :sweat:

Message cité 2 fois
Message édité par Activation le 10-08-2019 à 11:15:55
n°10615028
ddlabrague​tte
Posté le 10-08-2019 à 11:11:02  profilanswer
 

Activation a écrit :


 
Sauf erreur ce "komachi" il a jamais déclaré ça
Encore de la branlette / deformation de trad moisi de faux journaleux qui repete en coeur des conneries sans jamais verifier leur source
 
En gros ce qu il a dit c'est un NV12 quand tu fouille dans le code drs drivers linux de souvenir
Et apres il est sur une interrogation de "serais ce le gros navi gpu 4096sp"
 
Hors ce gros gpu, ça peu tout aussi bien etre un nouveau gpu avec une nouvelle appelation ciblant le marché pro
Volta a des affinité avec pascal et turing ça n'en fait pas une puce grand public
 
De plus si vous captez toujours pas qu'en rasterization, doublé le nb d unité de calcul ne double pas le framerate faudra un jour l'intégrer dans qqs neurones dans un coin :o  
Bref avoir une grosse puce grand public avec 2x plus de CU ... Pourquoi faire
 


 
qu 'est ce qui t'arrive, tu es tombé de ton lit ?  
tu vas te calmer un peu   :whistle:  
 
si tu prends fiji vs tahiti, c'est tout x2 2 SE/32cu/2048sp/32rops  vs 4SE/64cu/4096sp/64rops et les perfs sont bien doublées  
à l'inverse tonga ( 4SE/32cu/2048sp/32rops ) c'est seulement + 60 % sauf quand fiji n'était pas bridé par ses carences en géométrie   ( ces trois gpu tournent tous environ à 1 ghtz )  
 
donc si, doubler les unités de calcul ça peut doubler les perfs mais à condition qu'il n'y ait pas de goulets d'étranglement comme sur fiji et vega ( en l'occurrence, les rasterizer )  
 
du coup en effet si ils se contentent d'augmenter le nombre de cu par bloc, ( chaque bloc disposant d'un rasterizer ) on pourrait retrouver le même problème à terme  
à l'inverse, si ils augmentent le nombre de bloc en passant à 3 par Shader engine, si c'est possible , on pourrait avoir un très bon scaling avec une augmentation des perfs proportionnelle au nombre d'unités ajoutées
 
la réorganisation dans le pipe d'exécution et le fait d'avoir dissocié les rasterizer des shader engine devrait peut être permettre d'éviter le souci rencontré avec fiji et vega qui étaient clairement déséquilibrés à ce niveau  
pour que l'augmentation du nombre d'unités s'acconpagne d'une augmentation de perf équivalente, il suffit juste de maintenir l'équilibre entre les ressources et la façon de les alimenter ( idem en aval car il faut également que la bande passante et le débit de pixel suivent ) mais contrairement à ce que tu dis c'est pas impossible


Message édité par ddlabraguette le 10-08-2019 à 11:17:08
n°10615039
Activation
21:9 kill Surround Gaming
Posté le 10-08-2019 à 11:26:19  profilanswer
 

dans ton fiji c'est pas les 4096sp qui on doublé tes perf
 
selon les jeux dit plus merci au TMU/rop/cache
 
et de façon global dit merci aux amelio du sheduler
 
tes SP c'est pour le gpgpu en secteur pro
 
rappel moi le modele de reference "grand public" à la sorti de Fiji  une carte avec un AIO
ose me dire que fiji durant sa conception visait le grand public


Message édité par Activation le 10-08-2019 à 11:30:05
n°10615069
ddlabrague​tte
Posté le 10-08-2019 à 12:17:46  profilanswer
 

le sheduler c'est minime  
c'est de l'optimisation rien de plus  
en effet j'avais oublié de citer les TMU, mais au vu de ta réponse je pense que t'as pas ta dose de café car tu ne semble pas avoir pigé le sens du message :/  
message qui justement tentait de démontrer que les cu n'étaient qu'un paramètre parmi d'autres qui ont aussi toute leur importance  
c'est pour cette raison que j'ai cité tonga dont la principale différence avec tahiti était le passage à 4 SE/rasterizer  
 
comme un graphique est toujours plus parlant ( à condition de faire l'effort d'interprétation évidemment :o )  
voici un bench sur un jeux gourmand en triangles histoire d'illustrer les chiffres que j'énonçais plus haut  
le principal problème de tahiti et fiji c'est le déséquilibre entre le nombre de rasterizer et les cu et comme tu peux le voir les perfs doublent avec les spec  
mais à coté de ça tonga qui met + de 30 % dans la mouille de tahiti met en évidence les déséquilibre évident de tahiti et fiji avec une puissance géométrique qui bride l'efficience des shader  
( petit rappel, tout le travail géométrique, c'est la première étape de rendu dans une scène et si un gpu se traine sur cette tâche, les unités de calcul se tournent les pouces :/ )  
pour que l'augmentation des cu puisse donner l'équivalent en perfs, il faut que le reste suive  
 
https://www.guru3d.com/index.php?ct=articles&action=file&id=31067&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
 
pour navi, on voit bien qu'amd a surtout essayé de l'affranchir des défauts de l'archi pour la rendre plus flexible et éviter ces déséquilibres  
maintenant la question c'est de savoir si l'agencement actuelle de navi10 est suffisant pour se contenter d'une augmentations de cu  mais si chaque shader engine peut supporter un nombre de bloc plus important, le gpu restera suffisamment équilibré pour avoir un bon scaling car la puissance géométrique augmentera aussi en //
 
pour la fury, il n'a pas eu qu'un modèle de référence  
en dehors du modèle castré y'a aussi eu la nano ( surement la meilleure/moins mauvaise des trois )  
la X étant une déclinaison poussée dans ses retranchements pour tenter de pas trop se faire pootrer par le concurrent  
la carte en elle même ( pas le gpu hein :o ) ne visait surement pas le marché pro mais était seulement là pour sauver les meubles  
 
concernant le marché visé par le gpu, et bien comme toute la génération gcn, de tahiti a vega  
ce sont des gpu qui avaient le cul entre deux chaises et qui visaient les deux marché  
dans un premiers temps par choix puis par pur souci d'économie après toutes les coupes budgétaires  
 
la séparation des deux marchés était devenu indispensable depuis des années, mais si ça a pris autant de temps, c'est surtout par manque de pépètes  
t'as oublié dans qu'elle situations ils étaient ne serait ce qu'il y a 3 ans ?  :/


Message édité par ddlabraguette le 10-08-2019 à 16:39:29
n°10615210
havoc_28
Posté le 10-08-2019 à 16:22:16  profilanswer
 

AwsomeRelique a écrit :

https://www.overclock.net/forum/att [...] 1565393468
[:bluewaave]
A part powercolor qui a annoncé une version à 399$, pour 20$ de plus on a une version moins chère que celle de référence, et à première vue très efficace.  


 
La version de ref c'est bien 399$, donc ce n'est pas moins chère que la carte de référence.
 

Activation a écrit :

Hors ce gros gpu, ça peu tout aussi bien etre un nouveau gpu avec une nouvelle appelation ciblant le marché pro


 
C'est assez peu probable, CGN va continuer en tant qu'architecture orientée compute / pro (ce qui a été annoncé par Lisa Su), de plus, dans les benchmarks à ce niveau, une RX 5700 XT est bien moins consistante qu'une Vega 64 par exemple qui se relève au final plus performante en moyenne à ce niveau ...
 

Activation a écrit :

Volta a des affinité avec pascal et turing ça n'en fait pas une puce grand public


 
Volta et Turing sont très proche, Volta a introduit les Tensor Core, la parallélisation des unités de calcul flottant/entier, (du GP100 on a l'organisation a 64 Cuda Cœur par SM et l'ordonnanceur matériel tout deux repris par Volta), en gros Volta y a les FP64 venues du GP100 aussi, qui ont été "troquées" si on peut dire pour les RT Core.

Message cité 1 fois
Message édité par havoc_28 le 10-08-2019 à 16:24:53
n°10615388
AwsomeReli​que
Posté le 10-08-2019 à 21:52:09  profilanswer
 

havoc_28 a écrit :


 
La version de ref c'est bien 399$, donc ce n'est pas moins chère que la carte de référence.
 


 
Ah oui! c'est qu'ils avaient fait des "réductions" pré-sortie  :sarcastic:  

n°10615401
bgx
reviens brunette!
Posté le 10-08-2019 à 22:43:04  profilanswer
 

Roovy a écrit :

Raja Koduri a vraiment été mis au placard / viré de chez AMD à cause de Vega , ou bien alors il s'est simplement mis en retrait et a démissionné sachant qu'il avait déjà son poste assuré chez Intel ? :??:  
 


 
les rumeurs, c'etait qu'il avait essayé avec plusieurs potes (le mec du marketing partie chez intel aussi) de prendre le pouvoir chez AMD, et ils ont perdus.
 
Il a aussi proposé de vendre la partie ATI à Intel. Finalement, il est parti chez intel la refaire.

n°10615448
Antionn
Posté le 11-08-2019 à 01:54:00  profilanswer
 

bgx a écrit :


les rumeurs, c'etait qu'il avait essayé avec plusieurs potes (le mec du marketing partie chez intel aussi) de prendre le pouvoir chez AMD, et ils ont perdus.
 
Il a aussi proposé de vendre la partie ATI à Intel. Finalement, il est parti chez intel la refaire.


 
Mais au final, ça aurait été plutôt une bonne chose pour Ahémedée de le garder ?
 
J'ai cru comprendre à la lecture de pas mal de choses qu'il était visiblement assez bon dans son domaine ce lascar ...


---------------
Mon topic achat // [TU] Radeon Software // [TU] AMD RDNA2 - RX6x00
n°10615886
aliss
Rhyme the Rhyme Well
Posté le 12-08-2019 à 08:32:58  profilanswer
 

Roovy a écrit :

Raja Koduri a vraiment été mis au placard / viré de chez AMD à cause de Vega , ou bien alors il s'est simplement mis en retrait et a démissionné sachant qu'il avait déjà son poste assuré chez Intel ? :??:  
 


 
Un peu des deux.
 
And while neither AMD nor Raja’s statements comment on it for obvious reason, the elephant in the room is going to be whether Raja’s resignation is related to the launch of AMD’s Vega GPU architecture. While the Vega 10 has returned AMD to competitiveness in the high-end market, it has not been as strong of a competitor as AMD (or fans) would like to see, and some hardware features have still not been enabled. It would be unusual for someone to resign (or be forced out) after a less-than-smooth launch like Vega, but not unheard of. But for now, as no one will be discussing internal politics, anything on the matter would be speculation at best.
 
https://www.anandtech.com/show/1201 [...] s-from-amd
 

Antionn a écrit :


 
Mais au final, ça aurait été plutôt une bonne chose pour Ahémedée de le garder ?
 
J'ai cru comprendre à la lecture de pas mal de choses qu'il était visiblement assez bon dans son domaine ce lascar ...


 
En tant qu'ingénieur sans aucun doute, en tant que CEO la question se pose déjà plus.


Message édité par aliss le 12-08-2019 à 08:51:29
n°10615890
aldaron57
Posté le 12-08-2019 à 08:51:31  profilanswer
 

Hello les gens,  
j'ai quelques questions et avis à vs demander, mon cas est assez particulier et même délirant pour certains mais voila, comme je l'avais déjà précisé il y a 1 mois de cela, je suis passé en CPU Amd et maintenant j'aimerais finir en Ati pour le GPU.
 
Ma volonté est de mettre une grosse quenelle aux dominants actuels, même si cela ne change pas grand chose ce sera un plaisir secret personnel.   :kaola:  
 
Déjà parce qu'ils ont grandement participé à l'augmentation des tarifs injustifiés et surtout parceque Nvidia prend ses clients pour les plus grands moutons de la planète avec leur télémetrie imposée et forcée ou seul les tours de passe-passe permettent de totalement les désactiver.
Bref passons aux problèmes :
Mon budget max en carte vidéo a toujours été de -400 euros vu que je la change tous les 3 ans en moyenne, dans ce cadre j'ai deux choix, en gaming Msi il y a la RX 5700 ou la RTX 2060.
 
La RX5700 met en moyenne +10 images/s à la RTX 2060, et elle coute 30 euros moins cher.
Parcontre elle est trop bruyante, chauffe plus et consomme plus.  
 
Question et avis, si je bride la RX5700 avec un logiciel de bloqueur fps pour sacrifier ses +10 images/s supplémentaires et avoir des perfs similaires à la RTX 2060 , à votre avis le gain bruit/température sera t'il équivalent à la nvidia ?
Je sais c'est assez ambigu comme question mais sait on jamais si déjà l'un d'entre vous a fait ce genre d’expérience.
 
D'autres part qu'en est t'il des drivers Ati, seront t'ils aussi optimisé et à jour que ceux d'Nvidia ? parceque il me semble qu'à ce niveau la aussi ils étaient un peu dans les choux auparavant.
 
Merci.

Message cité 2 fois
Message édité par aldaron57 le 12-08-2019 à 08:54:09
n°10615892
scrumpz
Posté le 12-08-2019 à 08:55:28  profilanswer
 

aldaron57 a écrit :

Hello les gens,
j'ai quelques questions et avis à vs demander, mon cas est assez particulier et même délirant pour certains mais voila, comme je l'avais déjà précisé il y a 1 mois de cela, je suis passé en CPU Amd et maintenant j'aimerais finir en Ati pour le GPU.

 

Ma volonté est de mettre une grosse quenelle aux dominants actuels, même si cela ne change pas grand chose ce sera un plaisir secret personnel. :kaola:

 

Déjà parce qu'ils ont grandement participé à l'augmentation des tarifs injustifiés et surtout parceque Nvidia prend ses clients pour les plus grands moutons de la planète avec leur télémetrie imposée et forcée ou seul les tours de passe-passe permettent de totalement les désactiver.
Bref passons aux problèmes :
Mon budget max en carte vidéo a toujours été de -400 euros vu que je la change tous les 3 ans en moyenne, dans ce cadre j'ai deux choix, en gaming Msi il y a la RX 5700 ou la RTX 2060.

 

La RX5700 met en moyenne +10 images/s à la RTX 2060, et elle coute 30 euros moins cher.
Parcontre elle est trop bruyante, chauffe plus et consomme plus.

 

Question et avis, si je bride la RX5700 avec un logiciel de bloqueur fps pour sacrifier ses +10 images/s supplémentaires et avoir des perfs similaires à la RTX 2060 , à votre avis le gain bruit/température sera t'il équivalent que la nvidia ?
Je sais c'est assez ambigu comme question mais sait on jamais si déjà l'un d'entre vous a fait ce genre d’expérience.

 

D'autres part qu'en est t'il des drivers Ati, seront t'ils aussi optimisé et à jour que ceux d'Nvidia ? parceque il me semble qu'à ce niveau la aussi ils étaient un peu dans les choux auparavant.

 

Merci.

 

Non, si tu veux qu'elle consomme moins, tu vas diminuer le voltage du cœur du gpu.

 

Les versions customs font moins de bruit puisqu'il n'ont pas le même refroidissement.

 

Et pourquoi bloquer les FPS ?

 

Tu as un écran 60hz ?


---------------
-> A vendre matos Hardaware <-
n°10615894
aldaron57
Posté le 12-08-2019 à 08:58:42  profilanswer
 

Non la conso est le critère le moins important.
 
Je veux bloquer les fps pour avoir un équivalent en fps nvidia, mais tout en payant moins cher et surtout surtout en quittant nvidia.
Hors pour le bruit et la température je ne sais pas ce que ça donnerai, d'ou ma question.  
 
Parceque niveau bruit +11 db je crois, la c'est moche ...
http://www.comptoir-hardware.com/a [...] l?start=17

Message cité 1 fois
Message édité par aldaron57 le 12-08-2019 à 09:04:12
n°10615899
scrumpz
Posté le 12-08-2019 à 09:06:24  profilanswer
 

aldaron57 a écrit :

Non la conso est le critère le moins important.

 

Je veux bloquer les fps pour avoir un équivalent en fps nvidia, mais tout en payant moins cher et surtout surtout en quittant nvidia.
Hors pour le bruit et la température je ne sais pas ce que ça donnerai, d'ou ma question.

 

Parceque niveau bruit +12 db je crois, la c'est moche ...
http://www.comptoir-hardware.com/a [...] l?start=17

 

Bloquer les FPS pour avoir un équivalent nvidia ?

 

Tu en es vraiment à ce point là ?

 

Mais tu t'en branle non ?

 

Et en plus la conso tu t'en occupes pas, je comprends pas trop...

 

Attends les benchs de carte custom fin août début septembre et tu prendras la moins bruyante, tu met un bloquage des fps en fonction de ton écran et basta ne t'occupe pas du reste  ;)


---------------
-> A vendre matos Hardaware <-
n°10615901
aldaron57
Posté le 12-08-2019 à 09:16:12  profilanswer
 

Déjà à la base je bloque toujours mes fps, j'exploite 80% de mes cartes vidéos, j’évite le dernier palier qui fait hurler le bouzin.
C'est une question déjà de qualité de rendu et aussi pour éviter l'utilisation superflue, bref ce serait trop long à t'expliquer en détails si tu ne vois pas ou je veux en venir.
D'ailleurs à savoir que ces derniers temps les jeux de plus en plus intègrent un limiteur de fps, la ou moi ça fait plus de 15 ans que je le fais avec un logiciel tiers.
 
Mon écran est en 120hz donc j'ai de la marge sur les paliers pour bloquer, mais la pour mes questions je demande surtout si en faisant chuter de 10fps en moyenne en charge une RX 5700 j’approcherais niveau bruit/température les valeurs d'une RTX 2060.
 
Sinon je crois que je vais attendre fin aout, merci.

Message cité 2 fois
Message édité par aldaron57 le 12-08-2019 à 09:20:38
n°10615902
aliss
Rhyme the Rhyme Well
Posté le 12-08-2019 à 09:25:09  profilanswer
 

L'idéal est d'attendre les cartes custom.
 
Néanmoins sache que l'undervolting te permettrait de limiter la chauffe et le bruit sans perte de performance.
 
https://i.imgur.com/m7reTIP.png
 
https://www.hardwareluxx.de/index.p [...] l?start=25

n°10615904
scrumpz
Posté le 12-08-2019 à 09:35:46  profilanswer
 

aldaron57 a écrit :

Déjà à la base je bloque toujours mes fps, j'exploite 80% de mes cartes vidéos, j’évite le dernier palier qui fait hurler le bouzin.
C'est une question déjà de qualité de rendu et aussi pour éviter l'utilisation superflue, bref ce serait trop long à t'expliquer en détails si tu ne vois pas ou je veux en venir.
D'ailleurs à savoir que ces derniers temps les jeux de plus en plus intègrent un limiteur de fps, la ou moi ça fait plus de 15 ans que je le fais avec un logiciel tiers.

 

Mon écran est en 120hz donc j'ai de la marge sur les paliers pour bloquer, mais la pour mes questions je demande surtout si en faisant chuter de 10fps en moyenne en charge une RX 5700 j’approcherais niveau bruit/température les valeurs d'une RTX 2060.

 

Sinon je crois que je vais attendre fin aout, merci.


Je comprends tout à fait la démarche, ça aucun problème.
Mais pourquoi faire une fixette sur la carte nvidia, ça par contre je comprends beaucoup moins surtout quand il s'agit d'une carte moins puissante  :whistle:


---------------
-> A vendre matos Hardaware <-
n°10615905
Profil sup​primé
Posté le 12-08-2019 à 09:37:03  answer
 

aldaron57 a écrit :

Déjà à la base je bloque toujours mes fps, j'exploite 80% de mes cartes vidéos, j’évite le dernier palier qui fait hurler le bouzin.
C'est une question déjà de qualité de rendu et aussi pour éviter l'utilisation superflue, bref ce serait trop long à t'expliquer en détails si tu ne vois pas ou je veux en venir.
D'ailleurs à savoir que ces derniers temps les jeux de plus en plus intègrent un limiteur de fps, la ou moi ça fait plus de 15 ans que je le fais avec un logiciel tiers.
 
Mon écran est en 120hz donc j'ai de la marge sur les paliers pour bloquer, mais la pour mes questions je demande surtout si en faisant chuter de 10fps en moyenne en charge une RX 5700 j’approcherais niveau bruit/température les valeurs d'une RTX 2060.
 
Sinon je crois que je vais attendre fin aout, merci.


Tu fais vraiment une fixette sur nvidia  [:sardinelorano:7]  
En bloquant les fps, je dirais que ça dépendra quand même des jeux. C'est pas parce que tu bloques les FPS que ta carte sera inaudible et à bonne température. J'ai une RTX 2060 gaming z qui est inaudible en jeu même gourmand :D
Pour la température ça dépendra aussi de la ventilation de ton boitier.

n°10615926
gamelle
The place to be ...
Posté le 12-08-2019 à 10:17:09  profilanswer
 

Ptit test de l'ASUS Radeon RX 5700 XT STRIX OC de chez TPU assez sympa.


---------------
Flickr/Corsair 2500X/Asus ROG STRIX X870I Gaming Wifi/Ryzen 7800X3D / 2x16GO Corsair 6000Cl30 / Asrock RX 9070 XT Taichi
n°10615932
aldaron57
Posté le 12-08-2019 à 10:20:29  profilanswer
 

Je ne sais pas si c'est une question de fixette mais à partir du moment ou j'ai toujours eu des nvidia, il faut bien que je m'en serve comme critère de comparaison.
Si un produit de référence propose x avantages comme la sonorité, et que demain un autre produit concurrent sort et que je veux opter pour celui la, je vais donc le comparer au produit de référence existant.
Je ne vois pas trop ou est le problème, c'est un principe qui s'applique à tout lors d'une démarche d'achat.
 

aliss a écrit :

L'idéal est d'attendre les cartes custom.
Néanmoins sache que l'undervolting te permettrait de limiter la chauffe et le bruit sans perte de performance.
https://i.imgur.com/m7reTIP.png
https://www.hardwareluxx.de/index.p [...] l?start=25


 
C'est intéressant, mais du coup je me pose une question, pourquoi cet undervolting n'est t'il pas natif, baisse de chauffe et bruit pour les mêmes perfs c'est le genre de chose que les concepteurs recherchent généralement.
 
Sinon oui je crois que dans l’immédiat c'est d'attendre les cartes custom.

Message cité 1 fois
Message édité par aldaron57 le 12-08-2019 à 10:23:06
n°10615942
AwsomeReli​que
Posté le 12-08-2019 à 10:32:01  profilanswer
 

gamelle a écrit :

Ptit test de l'ASUS Radeon RX 5700 XT STRIX OC de chez TPU assez sympa.


Qu'est ce qu'elle chauffe! C'est incroyable  :heink:

 

https://www.guru3d.com/articles_pag [...] iew,9.html

 

là ça me semble un peu plus réaliste.

 

là, c'est encore mieux (78°-85°!): https://www.computerbase.de/2019-08 [...] erdrehzahl

Message cité 1 fois
Message édité par AwsomeRelique le 12-08-2019 à 10:44:20
n°10615946
gamelle
The place to be ...
Posté le 12-08-2019 à 10:37:14  profilanswer
 

AwsomeRelique a écrit :


Qu'est ce qu'elle chauffe! C'est incroyable  :heink:


 
  :heink: ?


---------------
Flickr/Corsair 2500X/Asus ROG STRIX X870I Gaming Wifi/Ryzen 7800X3D / 2x16GO Corsair 6000Cl30 / Asrock RX 9070 XT Taichi
n°10615955
scrumpz
Posté le 12-08-2019 à 10:43:39  profilanswer
 

aldaron57 a écrit :

Je ne sais pas si c'est une question de fixette mais à partir du moment ou j'ai toujours eu des nvidia, il faut bien que je m'en serve comme critère de comparaison.
Si un produit de référence propose x avantages comme la sonorité, et que demain un autre produit concurrent sort et que je veux opter pour celui la, je vais donc le comparer au produit de référence existant.
Je ne vois pas trop ou est le problème, c'est un principe qui s'applique à tout lors d'une démarche d'achat.
 


 
On ne compare pas deux gpu de construction totalement différente avec un bloqueur de fps mais sur plusieurs critères.
C'est juste ton obsession de bloquer les fps qui n'est pas compréhensible pour comparer.
 

aldaron57 a écrit :


 
C'est intéressant, mais du coup je me pose une question, pourquoi cet undervolting n'est t'il pas natif, baisse de chauffe et bruit pour les mêmes perfs c'est le genre de chose que les concepteurs recherchent généralement.
 
Sinon oui je crois que dans l’immédiat c'est d'attendre les cartes custom.


 
l'undervolting peut fonctionner selon les architectures, c'était le cas pour Polaris je ne sais pas pour RDNA.
 
En tout cas c'est pas natif car les constructeurs font le maximum pour fournir les meilleurs performances, et pour la meilleur stabilité possible.
 
Dans un process industriel certaines puces n'accepteront pas de descendre en dessous d'un certain voltage, tu perds forcément en perfs mais cela sera minime, et la consommation n'est pas ta priorité de toute façon.
 
 


---------------
-> A vendre matos Hardaware <-
n°10615960
AwsomeReli​que
Posté le 12-08-2019 à 10:54:02  profilanswer
 


 
Bein elle atteint les 77° en mode performance.
Je trouve que c'est beaucoup pour une carte custom, sauf si ils parle de du hot spot (junction)?
 
Voici les résultats de computerbase:
 

Citation :

Mesure à la température
Le GPU de l’Osus Radeon RX 5700 XT Strix chauffe jusqu’à 78 degrés Celsius avec le BIOS haute performance lors de la lecture, avec une température de jonction de 100 degrés Celsius. C'est 7 ou 3 degrés Celsius de moins que la carte de référence. La température de jonction est de 10 degrés Celsius (110 degrés Celsius) - à partir de ce moment-là, le processeur graphique baisse. La mémoire GDDR6 chauffe jusqu'à 90 degrés Celsius et fonctionne aussi bien que sur le modèle de référence.
 
Avec le BIOS silencieux, les composants électroniques sont plus chauds, la puissance du processeur graphique réduite de 10 watts ne peut pas compenser les vitesses plus basses des ventilateurs. Le GPU Navi-10 signale ensuite 85 degrés Celsius ou une température de jonction de 105 degrés Celsius. Ce sont à peu près les valeurs de température de la carte de référence. La mémoire GDDR6 est dans le mode à 98 degrés Celsius. C'est beaucoup, mais ne pose pas de problème, selon les spécifications officielles.


 
Je crois que je vais attendre une belle petite Shapphire, ou la Gigabyte tri fan à 420€  :D

Message cité 1 fois
Message édité par AwsomeRelique le 12-08-2019 à 11:00:50
n°10615964
gamelle
The place to be ...
Posté le 12-08-2019 à 11:01:23  profilanswer
 

AwsomeRelique a écrit :


 
Bein elle atteint les 77° en mode performance.
Je trouve que c'est beaucoup pour une carte custom, sauf si ils parle de du hot spot (junction)?


 
Entre 70-80°c, t'as quand même une grande partie des customs et y'a strictement rien d'alarmant comme températures. A part sous flotte, tu seras toujours dans ses eaux là.


---------------
Flickr/Corsair 2500X/Asus ROG STRIX X870I Gaming Wifi/Ryzen 7800X3D / 2x16GO Corsair 6000Cl30 / Asrock RX 9070 XT Taichi
n°10615972
AwsomeReli​que
Posté le 12-08-2019 à 11:11:10  profilanswer
 

gamelle a écrit :

 

Entre 70-80°c, t'as quand même une grande partie des customs et y'a strictement rien d'alarmant comme températures. A part sous flotte, tu seras toujours dans ses eaux là.

 

Ok, c'est pas dangereux (quoi que la vram à 90°-98° j'ai un peu moins confiance), mais avec un rad pareil je m'attendant à mieux.
Avec ses 270w, une 2080Ti ne monte qu'à 65° en mode perf ( https://www.techpowerup.com/review/ [...] oc/37.html )

Message cité 2 fois
Message édité par AwsomeRelique le 12-08-2019 à 11:13:47
n°10615977
chrisleurn
Hardcore Will Never Die !
Posté le 12-08-2019 à 11:16:10  profilanswer
 

AwsomeRelique a écrit :


 
Ok, c'est pas dangereux (quoi que la vram à 90°-98° j'ai un peu moins confiance), mais avec un rad pareil je m'attendant à mieux.
Avec ses 270w, une 2080Ti ne monte qu'à 65° en mode perf ( https://www.techpowerup.com/review/ [...] oc/37.html )


251mm² vs 754mm² [:spamafote]
Franchement je vois pas le problème :o  :o

n°10615978
gamelle
The place to be ...
Posté le 12-08-2019 à 11:17:00  profilanswer
 

AwsomeRelique a écrit :


 
Ok, c'est pas dangereux (quoi que la vram à 90°-98° j'ai un peu moins confiance), mais avec un rad pareil je m'attendant à mieux.
Avec ses 270w, une 2080Ti ne monte qu'à 65° en mode perf ( https://www.techpowerup.com/review/ [...] oc/37.html )


 
 
Précise également qu'elle coûte grossomerdo 2 à 2 fois et demi le prix d'une 5700 XT et qu'à ce tarif là, encore heureux que t'es un refroidissement qui tiennent la route.


---------------
Flickr/Corsair 2500X/Asus ROG STRIX X870I Gaming Wifi/Ryzen 7800X3D / 2x16GO Corsair 6000Cl30 / Asrock RX 9070 XT Taichi
n°10615983
AwsomeReli​que
Posté le 12-08-2019 à 11:24:52  profilanswer
 

gamelle a écrit :

 


Précise également qu'elle coûte grossomerdo 2 à 2 fois et demi le prix d'une 5700 XT et qu'à ce tarif là, encore heureux que t'es un refroidissement qui tiennent la route.

 

https://www.techpowerup.com/review/asus-geforce-rtx-2080-ti-strix-oc/images/cooler2.jpg
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-strix-oc/images/cooler2.jpg

 

C'est laquelle la 57xt? :D

 
chrisleurn a écrit :


251mm² vs 754mm² [:spamafote]
Franchement je vois pas le problème :o  :o

 

Justement, avec une si petite surface elle est sensée chauffer moins, non?

 

Perso je vais voir ce que propose les autres constructeurs pour comparer.

 

chez overclock3d c'est plus réaliste aussi https://www.overclock3d.net/reviews [...] _review/23
entre 62 et 72.

 

Peut étre qu'il y'a un lot de carte défectueuses, ou peut être que c'est Windows qui fait n'importe quoi avec la ventilation.
Ma Rx580 strix passe de 2150rmp à 1750rpm, selon la version (build) de Windows.

Message cité 2 fois
Message édité par AwsomeRelique le 12-08-2019 à 12:08:54
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  92  93  94  ..  191  192  193  194  195  196

Aller à :
Ajouter une réponse
 

Sujets relatifs
Gtx 950 avec AMD A4-5300?[HFR] Dossier : Preview : AMD RX Vega64 et RX Vega56
AMD Radeon sapphire R7 260x en fin de vie ?[HFR] Dossier : AMD Threadripper 1950X et 1920X en test : Quelque chose d'Epyc…
Kit évolution AMD RyzenNouvelle config base AMD/Nvidia
Upgrad CPU/CM/Ram/CG autour de 600€ (AMD friendly)[Topic Unique] MSI B350 PC MATE
Overclocker Amd ryzen 5 1600 avec rad amd[HFR] Actu : AMD Threadripper le 10 aout
Plus de sujets relatifs à : [Topic Unique] AMD Navi : le taulier s'y est mis aussi


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)