Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2364 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17
Auteur Sujet :

[HFR] Dossier : AMD Ryzen 5 1600X, 1600, 1500X et 1400 en test

n°10124987
TheRealBix
Posté le 12-04-2017 à 19:53:44  profilanswer
1Votes positifs
 

Reprise du message précédent :

Marc a écrit :

C'est quand même pas bien compliqué d'estimer au doigt levé les perfs avec une marge d'erreur assez faible...

 

Certes, mais comparer une estimation à marge d'erreur assez faible avec une autre estimation à marge d'erreur élevée (2500k à 5GHz au pif) c'est déjà un peu plus complexe. Je vais tâcher de chercher sur les sites anglophones.


Message édité par TheRealBix le 12-04-2017 à 19:54:46
mood
Publicité
Posté le 12-04-2017 à 19:53:44  profilanswer
 

n°10124991
C_Wiz
Profil : Equipe HardWare.fr
Posté le 12-04-2017 à 19:57:47  profilanswer
2Votes positifs
 

Talmu a écrit :


mais sur Ldlc ils indiquent qu'il a 1Mo de cache L2 en moins, 2 cores + 4 Threads en moins.

 

Pour des jeux exploitants le multithreading et multi-core je ne vois vraiment pas ces 200Mhz responsables des bonnes perfs du 1600. (ou à l'inverse, des mauvaises perfs du 1700)


Le cache L2 en moins ça ne compte pas trop, chaque core dispose de son propre propre L1 et L2, c'est pour cela que l'on perd 1 Mo mais c'est sans impact "pratique".

 

Sinon la fréquence reste importante même si c'est pas le seul argument, oui, ca c'est une constante systématique dans les jeux. Il suffit de regarder 7700K vs 6900K par exemple.

 
TheRealBix a écrit :

 

Certes, mais comparer une estimation à marge d'erreur assez faible avec une autre estimation à marge d'erreur élevée (2500k à 5GHz au pif) c'est déjà un peu plus complexe. Je vais tâcher de chercher sur les sites anglophones.


Franchement pour 200 MHz la marge d'erreur d'un calcul à la main est suffisament limitée pour que ca ne change rien avec un chiffre exact. Si c'est pour estimer vs un 2500K à 5 GHz en plus, statistiquement non c'est pas plus complexe, la marge d'erreur sur un calcul pour 200 MHz devient au contraire insignifiante. Avoir le bon chiffre sur le 2500K a 5 est largement plus important.


Message édité par C_Wiz le 12-04-2017 à 20:03:04
n°10124996
TheRealBix
Posté le 12-04-2017 à 19:59:40  profilanswer
1Votes positifs
 

Talmu a écrit :

 


Oui il y a 200Mhz de différence, mais sur Ldlc ils indiquent qu'il a 1Mo de cache L2 en moins (c'est en L3 qu'ils ont la même quantité), sans négliger les 2 cores + 4 Threads en moins.

 

Pour des jeux exploitants le multithreading et multi-core je ne vois vraiment pas ces 200Mhz responsables des bonnes perfs du 1600. (ou à l'inverse, des mauvaises perfs du 1700)

 


Ben justement, si le 1700 n'arrive pas à tirer son épingle du jeu par rapport au 1600 c'est quand l'application/jeu ne tire pas profit de cores supplémentaires mais profite par contre de la montée en fréquence.
Au temps pour moi sur le cache L2, j'avais pas fait gaffe.

 
C_Wiz a écrit :


Franchement pour 200 MHz la marge d'erreur d'un calcul à la main est suffisament limitée pour que ca ne change rien avec un chiffre exact. Si c'est pour estimer vs un 2500K à 5 GHz en plus, statistiquement non c'est pas plus complexe, la marge d'erreur sur un calcul pour 200 MHz devient au contraire insignifiante. Avoir le bon chiffre sur le 2500K a 5 est largement plus important.

 

Il est bien là le problème, on n'a pas de donnée (sur votre protocole actuel) sur les perfs du 2500k à 5GHz, ou même sur les 6600/7600k ou du petit i3. J'ai bien trouvé ce que je cherchais sur pclabs.pl mais avoir les données sur un protocole que je connais et en lequel j'ai confiance aurait été un plus ;)


Message édité par TheRealBix le 12-04-2017 à 20:14:14
n°10125037
fkanker
Posté le 12-04-2017 à 20:36:44  profilanswer
0Votes positifs
 

Eric B a écrit :

Si les rumeurs se confirment avec un Windows10 ARM complet et l'émulation x86 des CPU ARM, le Qualcomm 835 présenti pourrait tailler plus de part du marché pro que les Ryzen!


[:abakuk:4] Ce qu'il faut pas lire. Tout le monde ici sait que ARM c'est juste pour les téléphones, et d'entrée de gamme. Intel a prouvé avec le RAZR-i que le haut de gamme c'est réservé au x86. Je parle même pas d'Apple, ils ont que 2 cores et ils osent vendre ça le prix d'un Galaxy Sx, vraiment pour les moutons.
 
 :D bon, plus sérieusement, si Qualcomm le vend à un prix décent ils vont faire mal sur l'entrée de gamme oui. Et vu qu'en IPC ils sont à environ 50% de ce qui fait en x86 aujourd'hui, c'est une sacrée menace s'ils abandonnent leur goût pour l'argent facile. C'était vraiment le moment pour AMD de sortir quelque chose...

n°10125052
Zumb
Posté le 12-04-2017 à 20:47:58  profilanswer
1Votes positifs
 

C_Wiz a écrit :


On a déjà répondu a peu près 500 fois sur le sujet mais il revient en permanence... ;)
 
Il y a certains cas où le driver et les cartes Nv ne scalent pas aussi bien que la concurrence. Dans ces cas il n'y a pas particulièrement de biais envers Intel ou contre AMD, le mauvais scaling impacte les CPU indépendamment. Certains opposent systématiquement des situations GPU bound sur un driver AMD pour parler de "désavantage" (c'est le cas de Rocket League), c'est comparer des situations incomparables (CPU bound d'un côté, GPU bound de l'autre, par définition quand on est GPU bound le CPU ne fait aucune différence donc on ne va pas s'étonner qu'il n'y ait pas d'écarts).
 
Par principe on ne critique pas les choix de benchs de nos confrères, de notre côté on a choisi des jeux ou le CPU est un facteur limitant, en choisissant systématiquement le mode le plus favorable pour les performances. Ce qui veut dire assez souvent avec une 1080 ne pas utiliser DX12, mais préférer le mode DX11. Le choix est fait au cas par cas et on l'explique pour chaque jeu dans les pages dédiées, ainsi que les réglages utilisés. Tout ces choix sont faits pour essayer d'être représentatifs, on prend grand soin à ne pas baisser inutilement les réglages graphiques si cela diminue la charge CPU, etc.  
 
AMD nous a indiqué avoir travaillé très en amont avec Nvidia pour que ses pilotes n'aient pas de problèmes avec Ryzen, et AMD utilise aussi dans ses "reviewer's guide" et dans divers benchs fournis à la presse des 1080, parce que c'est le choix qui permet en général d'être le moins GPU limited.  
 
Je n'ai aucun doute sur le fait qu'on reviendra sur la question des drivers et de leur capacité à utiliser plus de coeurs lorsqu'AMD lancera Vega. Mais de la même manière, si Vega avec de futurs drivers AMD scale mieux sur plus de coeurs, cela profitera à la fois à Intel et à AMD.


Je ne voudrais pas être désagréable, mais la, on parle d'architecture différente, entre les GPU AMD et VNidia, et de l'impact des choix des deux marques. Le CPU/GPU bound est hors sujet.
Je résume: NVidia utilise un scheduler logiciel, qui permet de répartir les draw calls sur 4 cores, même sous directX11. Ce qui offre de meilleur perf sur du 4 core sous directX11 (sur une carte AMD, on ne charge qu'un seul thread). Et ruine les perfs sur du plus de 4 cores sous n'importe quoi de plus moderne (directX12, Vulkan), parce qu'il n'y a que 4 threads de chargé à mort. Ca limite le framerate max, en gros, sous directX12.
Si vous faites un bench CPU CPU bound avec une carte Nvidia, vous n'êtes pas CPU bound, vous êtes API bound, ou driver/bound, comme tu veux.
C'est pas un match AMD/NVidia, c'est jsute qu'à cause de leur architecture, les GPU AMD sont plus transparent sur les tests, et donc plus fibale quand aux résultats. Le pilote NVidia va toujrous favoriser intrinsèquement le CPU avec le plus gros IPC, même sous directX12, en tout cas, pour le framerate max, et donc indirectement, pour le framerate moyen.
Et non, j'ai lu aucune analyse sur ce problème sur aucun média francophone, ni chez vous, ni ailleurs.
Vu que j'aime bien avoir votre avis, j'aimerais l'avoir sur ce sujet. :)

n°10125061
Zumb
Posté le 12-04-2017 à 20:51:12  profilanswer
0Votes positifs
 

bifidus76 a écrit :

A Marc ou internautes "avertis" :
 
Existe t'il à ce jour un site ou un guide qui permet de savoir quel type de mémoire/marque/fréquence, est la plus aboutie pour la conjuguer avec un R5 1600x. Ya t'il la CM à prendre en compte aussi ?
 
Personnellement je m'y perd, si vous pouviez m'éclairer.
En vous remerciant.


Faut lire l'anglais, mais il ya ce thread:
https://forums.anandtech.com/thread [...] 72/page-60
Et celui des builds Ryzen dans le même forum, ou les gens postent leurs config, leurs réglages et ce qu'ils ont obtenu.

n°10125092
sagittaire
Posté le 12-04-2017 à 21:26:00  profilanswer
0Votes positifs
 

C_Wiz a écrit :


 
Passons :o  
 
A notre connaissance donc, non, "5.0 GHz en aircooling" personne ne semble l'avoir atteint y compris les OCers chez AMD.


 
Ben pas bien de ne pas remettre le passage dans son intégralité:
 

Citation :

1) La Gravure GlobalFoundries ne semble pas optimale. Les échantillons de test montaient, semble-t-il beaucoup plus en fréquence (5Ghz en air selon canardPC sur un R7).  
AMD a peut être choisi un autre procédé parce qu'il y avait trop de déchet sur les yields?
AMD voulait limiter la consommation au max et a choisi volontairement un procédé basse conso mais qui monte mal en fréquence?
AMD a volontairement choisi de limiter les possibilités techniques pour avoir quelques chose de nouveau à sortir rapidement?
Qui peux savoir, en tout cas des R7 qui montent à 5.0 Ghz en aircooling ça existe déjà.


 
J'ai clairement mis la source et ce n'est pas moi qui ait clamé quoi que ce soit.
https://www.cpchardware.com/cpc-har [...] ubrations/
 

Citation :

Nous cachons régulièrement quelques easter eggs dans le magazine. En mars dernier, nous avions ainsi codé « Intel GPU = AMD » dans une chaine binaire de la page CPU du guide d’achat. Quasiment personne n’avait relevé l’information à ce moment alors qu’elle a fait grand bruit 6 mois plus tard. Bref, nous sommes taquins. La présence de la chaine du numéro en cours, qui se décode en « ZenOC@Air=5G » dans ce numéro fait jaser sur les forums depuis 2 jours. Étant démasqués, nous vous devons quelques précisions. Tout d’abord, nous n’avons pas résumé un test en quelques bits. Si nous avions pu tester nous-mêmes l’overclocking, nous vous en aurions parlé ouvertement dans la preview. Malgré tout, nous savons avec une quasi-certitude que le CPU qui nous a servi pour les tests a effectivement pu frôler les 5 GHz avec un (imposant) dissipateur à air. Le multiplicateur des ES n’est pas bridé pour le moment et se configure par pas de 0.25x. Un seul cœur était toutefois actif ; les VRM des cartes-mères semblaient à ce moment trop instable pour tester avec l’intégralité des cœurs. D’autres Ryzen ES sont actuellement dans les mains des overclockers et vous ne devriez pas tarder à en savoir plus : une démonstration d’overclocking pourrait intervenir dès le CES si de bons résultats sont atteints.


 
Pour que cela soit bien clair ...  :jap:
 
Et le tweet dont je parlais en prime qui éttonne canard PC du fait de la limitation en OC à 4.0 Ghz.
https://twitter.com/CPCHardware/sta [...] 5898618883
 

Citation :

Ils (AMD) ont cassé quelque chose ces dernières semaines au niveau du contrôleur mémoire et de l'OC visiblement. Étrange.

Message cité 1 fois
Message édité par sagittaire le 12-04-2017 à 21:41:20
n°10125094
Antimasse
Posté le 12-04-2017 à 21:32:37  profilanswer
0Votes positifs
 

j_c_p a écrit :

Le principal souci du phenom II, ce sont les instructions qui lui manquent (SSE3 déjà).
Aussi, le X6 a disparu des graphiques maintenant?

 

Phenom II gère l'SSE3, et même jusqu'à SSE4a.

 

Mais sinon, je confirme pour les instructions.

 

Au Comptoir du Hardware depuis 1 ou 2 ans, les Core 2 et Phenom II se prennent une rouste sévère par Nehalem et Bulldozer 1, surtout en jeu.
Alors qu'à l'origine, l'écart n'était pas si grand que ça...

 


La question maintenant, c'est de savoir quelles sont ces instructions miracles apparues avec Bulldozer et Nehalem; et les lesquelles sont effectivement utilisées.

 

@HFR: Une petite idée sur ces instructions employées ?

Message cité 2 fois
Message édité par Antimasse le 12-04-2017 à 21:41:55
n°10125101
C_Wiz
Profil : Equipe HardWare.fr
Posté le 12-04-2017 à 21:42:09  profilanswer
0Votes positifs
 

Zumb a écrit :


Je ne voudrais pas être désagréable, mais la, on parle d'architecture différente, entre les GPU AMD et VNidia, et de l'impact des choix des deux marques. Le CPU/GPU bound est hors sujet.
Je résume: NVidia utilise un scheduler logiciel, qui permet de répartir les draw calls sur 4 cores, même sous directX11. Ce qui offre de meilleur perf sur du 4 core sous directX11 (sur une carte AMD, on ne charge qu'un seul thread). Et ruine les perfs sur du plus de 4 cores sous n'importe quoi de plus moderne (directX12, Vulkan), parce qu'il n'y a que 4 threads de chargé à mort. Ca limite le framerate max, en gros, sous directX12.
Si vous faites un bench CPU CPU bound avec une carte Nvidia, vous n'êtes pas CPU bound, vous êtes API bound, ou driver/bound, comme tu veux.
C'est pas un match AMD/NVidia, c'est jsute qu'à cause de leur architecture, les GPU AMD sont plus transparent sur les tests, et donc plus fibale quand aux résultats. Le pilote NVidia va toujrous favoriser intrinsèquement le CPU avec le plus gros IPC, même sous directX12, en tout cas, pour le framerate max, et donc indirectement, pour le framerate moyen.
Et non, j'ai lu aucune analyse sur ce problème sur aucun média francophone, ni chez vous, ni ailleurs.
Vu que j'aime bien avoir votre avis, j'aimerais l'avoir sur ce sujet. :)


Nvidia a des stratégies de mitigations plus évoluées au niveau de ses pilotes pour DX11, il me semble, c'est quelque chose qui est abordé dans les articles GPU et qui fait qu'en pratique DX11 est préférable à DX12 dans nombre de titres sur une GeForce. On l'a constaté et on fait le choix approprié quand nécessaire. Mais c'est en grande partie lié a l'architecture du GPU par contre oui, Nvidia estime ces stratégies comme plus efficaces, AMD a une approche différente, mais je ne vois pas trop le rapport sur un avantage quelconque.  
 
Après sur la question de uniquement 4 threads je n'ai pas vu de source, j'en veux bien une (pas de youtube :p). Sachant qu'il s'agit de mitigation, il est un peu facile de dire que parce qu'il n'y a que 4 threads, l'avantage va de facto au meilleur "IPC". L'avantage irait déjà au mieux à la meilleure fréquence, mais si et seulement si ces 4 threads étaient pleinement utilisés systématiquement, ce qui empiriquement ne me semble pas du tout être le cas.  
 
Après dire qu'un GPU AMD est plus fiable sur les résultats, non je ne suis pas d'accord non plus. On ne fait pas de benchmarks synthétiques. Nos benchmarks représentent ce qui se passe pour un utilisateur qui utilise différents CPU et une GeForce, ce qui est quelque chose qui existe et pas juste un cas d'école. Je veux bien entendre que ce n'est pas le meilleur choix, en grande partie parce que en général les GPU Nvidia profitent moins des nouvelles API, mais on a largement détaillé notre raison, qui est la même qui pousse AMD à utiliser une GTX 1080 dans leurs benchs internes aussi : on est beaucoup moins GPU bound avec un GPU plus performant. Nous n'avons pas d'affinité à une marque particulière, on a choisi le GPU le plus rapide et qui nous limiterait le moins dans les benchs lors de l'élaboration du protocole. S'il avait été rouge, vert ou bleu, ça n'aurait rien changé pour nous.

n°10125104
alffir
Posté le 12-04-2017 à 21:45:56  profilanswer
0Votes positifs
 

Antimasse a écrit :


 
Je confirme pour les instructions.
 
Au Comptoir du Hardware depuis 1 ou 2 ans, les Core 2 et Phenom II se prennent une rouste sévère par Nehalem et Bulldozer 1, surtout en jeu.
Alors qu'à l'origine, l'écart n'était pas si grand que ça...
 
 
La question maintenant, c'est de savoir quelles sont ces instructions miracles apparues avec Bulldozer et Nehalem; et les lesquelles sont effectivement utilisées.
 
@HFR: Une petite idée sur ces instructions employées ?


Les instructions modernes sont utilisées en jeux ? Il me semblait que c'était marginal.
 
Pour les jeux, l'interface mémoire (contrôleur et RAM) a toujours eu un fort impact (K8 par rapport au K7), je me demande si les vieux processeurs (C2Q et  Phenom de ton exemple) ne souffrent pas de ça par rapport à leurs successeurs.


---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
mood
Publicité
Posté le 12-04-2017 à 21:45:56  profilanswer
 

n°10125106
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 12-04-2017 à 21:48:01  profilanswer
7Votes positifs
 


 
quasi certitude =! certitude = on ne l'a pas vu de nos yeux
frôler 5 GHz =! 5 GHz
 
Sans parler du 1 coeur. Bref, bla bla bla bla...

n°10125112
GrouikR7
Posté le 12-04-2017 à 21:55:59  profilanswer
3Votes positifs
 

Allons nous voir l'intégration d'un RyZen dans les PC HFR, si oui lequel et avec quel chipset ?

n°10125119
GrouikR7
Posté le 12-04-2017 à 22:04:14  profilanswer
0Votes positifs
 

Un 1600X avec la B350M Pro4 et un BeQuiet Pure Rock, me semble être un excellent compromis prix/temp/perf/dimensions/possibilités en mettant de côté le CF/SLI assez peu intéressant.
 
https://shop.hardware.fr/fiche/AR201703150222.html

n°10125120
sagittaire
Posté le 12-04-2017 à 22:05:07  profilanswer
0Votes positifs
 

Marc a écrit :


 
quasi certitude =! certitude = on ne l'a pas vu de nos yeux
frôler 5 GHz =! 5 GHz
 
Sans parler du 1 coeur. Bref, bla bla bla bla...


 
ben 4.9 Ghz sur un coeur avec quasi certitude si tu veux ... ça me dérange pas. C'est pas contradictoire avec ce que j'ai écrit.
 
En tout cas Canard PC semblait clairement dire que l'échantillon de test allait au delà des limites actuelles en OC.
https://twitter.com/CPCHardware/sta [...] 5898618883

n°10125122
C_Wiz
Profil : Equipe HardWare.fr
Posté le 12-04-2017 à 22:08:06  profilanswer
2Votes positifs
 

Et pour la dernière fois on te dit que ca n'a non seulement pas été reproduit, mais que ca ne colle pas du tout avec les informations que l'on a pu avoir qui sont complètement contradictoires, sur l'IMC c'est même risible pour avoir suivi depuis le début la progression des ingénieurs d'AMD sur la question.  
 
On te remercie donc d'arrêter de colporter cette rumeur.


Message édité par C_Wiz le 12-04-2017 à 22:08:38
n°10125123
Antimasse
Posté le 12-04-2017 à 22:09:09  profilanswer
0Votes positifs
 

alffir a écrit :


Les instructions modernes sont utilisées en jeux ? Il me semblait que c'était marginal.
 
Pour les jeux, l'interface mémoire (contrôleur et RAM) a toujours eu un fort impact (K8 par rapport au K7), je me demande si les vieux processeurs (C2Q et  Phenom de ton exemple) ne souffrent pas de ça par rapport à leurs successeurs.


 
Modernes pour 2011  :D  
 
 
Par contre, je pense pas que le bus soit le facteur limitant.
 
Car Core 2 avec son FSB ne transfert que 10.7 Go/s, Phenom II 7 Go/s à cause de son lien HyperTransport unique à 2Ghz sur 16 bits... alors que Bulldozer utilise le même bus mais à 2.2Ghz au plus, soit à peu près 8Go/s.
 
Si je me rappelle bien aussi, Core 2 ne possède de plus pas de contrôleur mémoire intégré par rapport à Phenom II. C'est sensé le désavantager par rapport à ce dernier mais ça n'a jamais été le cas.
 
 
Du coup, la question sur les instructions reste encore ouverte  :jap:


Message édité par Antimasse le 12-04-2017 à 22:17:57
n°10125154
sowann
Posté le 12-04-2017 à 22:50:58  profilanswer
0Votes positifs
 

fkanker a écrit :


 Je parle même pas d'Apple, ils ont que 2 cores et ils osent vendre ça le prix d'un Galaxy Sx, vraiment pour les moutons.


 
Les iPhone n'ont jamais eu à rougir face à la concurrence, que ce soit en performance de calcul ou en autonomie (pas forcément les premiers, mais pas non plus les derniers). Bref leur CPU a toujours fait le job qu'il fallait.
Pour une fois qu'un constructeur a la tête sur les épaules, et propose un CPU suffisamment puissant pour son terminal sans tomber dans la surenchère pour faire un beau chiffre sur la fiche technique, on ne va pas lui jeter la pierre.

n°10125155
bichoco
Posté le 12-04-2017 à 22:51:07  profilanswer
0Votes positifs
 

neojack3 a écrit :


 
oui après tu as l'usager de base qui se demande  :
 
- tiens pourquoi c'est lent quand je veux afficher l'état des r'sultats sur sage ?
- tiens pourquoi c'est lent quand j'ouvre outlook ( dont les propriétés indiquent une base .ost / .pst de 5 Go)
 
etc
 
Un atom ou celeron ? ahah si tu es admin tes collègues doivent vouloir ta peau.
depuis 2 ans je conseille toujours à mes clients des machines 4 coeurs + SSD.


 
Quand  t'as des parcs de dizaines ou centaines de machines mettre des core i3 ou i5 ça revient très cher, je parle même pas des ssd, pour faire de la simple bureautique s'en vaut pas vraiment la peine.
 
Et des pst de plusieurs Go, c'est que les utilisateurs gèrent n'importe comment leurs archives....en plus s'ils sont stockés sur des serveurs ça arrange rien.

n°10125158
B00lay Ier
Posté le 12-04-2017 à 22:55:43  profilanswer
1Votes positifs
 

C_Wiz a écrit :

Dans le doute on a temporairement retiré les benchs du 1100T, on va les refaire pour voir si il n'y a pas eu un problème.


Et un casse-tête de plus, un! [:dawa]
 
Même si on pourrait penser à une amélioration des perfs des FX au fil des AGESA/microcodes, ça n'expliquerait pas le très net recul face à l'i5-2500K.
 
Pilotes nVidia? :heink:

n°10125168
SynE
Posté le 12-04-2017 à 23:16:38  profilanswer
0Votes positifs
 

bichoco a écrit :


 
Quand  t'as des parcs de dizaines ou centaines de machines mettre des core i3 ou i5 ça revient très cher, je parle même pas des ssd, pour faire de la simple bureautique s'en vaut pas vraiment la peine.
 
Et des pst de plusieurs Go, c'est que les utilisateurs gèrent n'importe comment leurs archives....en plus s'ils sont stockés sur des serveurs ça arrange rien.


 
Toi tu aurais du rencontrer le DG de mon ex boite, tu aurais eu de longues discussions avec lui et ses bal exchange de 20Go.  :D  
 
Quand au ça n'en vaut pas la peine, ça me rappelle la nana de l'info de la boite encore avant qui laissait des gens sur des tbird monocore alors qu'elle se payait un 950 avec 3 ssd.  
Ca coute rien des ssd, pas plus que de prendre des pc i5 chez lenovo ou autre oem, c'est du matos ça se change et ça se passe en compta et en frais. Ou alors c'est que la boite fait pas de fric mais bon la c'est autre chose.

n°10125173
[Toine]
A la demande générale...
Posté le 12-04-2017 à 23:21:33  profilanswer
0Votes positifs
 

GrouikR7 a écrit :

Un 1600X avec la B350M Pro4 et un BeQuiet Pure Rock, me semble être un excellent compromis prix/temp/perf/dimensions/possibilités en mettant de côté le CF/SLI assez peu intéressant.
 
https://shop.hardware.fr/fiche/AR201703150222.html


4 SATA Uniquement .


---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°10125177
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 12-04-2017 à 23:22:53  profilanswer
0Votes positifs
 

Zumb a écrit :


Je ne voudrais pas être désagréable, mais la, on parle d'architecture différente, entre les GPU AMD et VNidia, et de l'impact des choix des deux marques. Le CPU/GPU bound est hors sujet.
Je résume: NVidia utilise un scheduler logiciel, qui permet de répartir les draw calls sur 4 cores, même sous directX11. Ce qui offre de meilleur perf sur du 4 core sous directX11 (sur une carte AMD, on ne charge qu'un seul thread). Et ruine les perfs sur du plus de 4 cores sous n'importe quoi de plus moderne (directX12, Vulkan), parce qu'il n'y a que 4 threads de chargé à mort. Ca limite le framerate max, en gros, sous directX12.
Si vous faites un bench CPU CPU bound avec une carte Nvidia, vous n'êtes pas CPU bound, vous êtes API bound, ou driver/bound, comme tu veux.
C'est pas un match AMD/NVidia, c'est jsute qu'à cause de leur architecture, les GPU AMD sont plus transparent sur les tests, et donc plus fibale quand aux résultats. Le pilote NVidia va toujrous favoriser intrinsèquement le CPU avec le plus gros IPC, même sous directX12, en tout cas, pour le framerate max, et donc indirectement, pour le framerate moyen.
Et non, j'ai lu aucune analyse sur ce problème sur aucun média francophone, ni chez vous, ni ailleurs.
Vu que j'aime bien avoir votre avis, j'aimerais l'avoir sur ce sujet. :)

 

Et quel autre media sérieux à traité ce sujet stp ? Car ce que je tu affirmes sourcé de je ne sais ou semble être un gros mélange entre les thread et le scheduling de la charge GPU et celui de la charge CPU...

 

Sinon comme déjà dit, ce qui est vrai par contre et il y'a déjà eu des discussion sur le sujet c'est qu'en CPU-bound les résultats sont impactés par le driver puisqu'il s'agit d'un logiciel exécuté en plus du jeu et qui a un impact sur la charge et sur sa répartition. En DX12 les résultats sont étonnement généralement nettement moins bon qu'en DX11 et tirent moins partie des coeurs multiples sur Nvidia alors que c'est plutôt l'inverse chez AMD.

 

Ca dépend bien entendu des moteurs, et dans certains cas NV garde tout de même l'avantage en DX11 vs AMD en DX12 ou ne perd pas de perf lors du passage en DX12.

 

C'est un sujet complexe, on reviendra probablement dessus avec Vega, en mono GPU on serait trop vite GPU limited là, mais vu que tu semble sûr de ton fait j'attends les détails techniques.


Message édité par Marc le 12-04-2017 à 23:31:12
n°10125184
MasterDav
Posté le 12-04-2017 à 23:29:13  profilanswer
0Votes positifs
 

bichoco a écrit :

Et des pst de plusieurs Go, c'est que les utilisateurs gèrent n'importe comment leurs archives....en plus s'ils sont stockés sur des serveurs ça arrange rien.


Bah c'est la norme hein, l'utilisateur lambda il archive dans sa corbeille et laisse tout le reste dans la boite de réception, donc bon...

n°10125212
schpounzzz
mangeur de hardware.
Posté le 13-04-2017 à 00:18:39  profilanswer
2Votes positifs
 

Les i5 sont cuits! ;)

n°10125221
samurai80
Posté le 13-04-2017 à 00:43:54  profilanswer
0Votes positifs
 

sagittaire a écrit :

 

ben 4.9 Ghz sur un coeur avec quasi certitude si tu veux ... ça me dérange pas. C'est pas contradictoire avec ce que j'ai écrit.


Tu as dit tres exactement ca:

Citation :

Qui peux savoir, en tout cas des R7 qui montent à 5.0 Ghz en aircooling ça existe déjà.


Ca veut dire ce que ca veut dire. C'est cette phrase qui m'a choqué, meme pas la fameuse rumeur. Y croirons ceux qui veulent, mais ta phrase au present, impliquant donc a priori un R7 disponible actuellement, disant que "en tous cas des R7 a 5GHz ca existe deja" c'est non non non, et c'est completement contradictoire avec "il existe une rumeur disant que les 5GHz ont ete froles sur un coeur sur une version ES". C'est on ne peut plus demago :sarcastic:

 

PS: j'avais pas vu l'appel a clore ce debat, dsl

Message cité 1 fois
Message édité par samurai80 le 13-04-2017 à 00:48:53
n°10125264
seth-01
Posté le 13-04-2017 à 07:19:33  profilanswer
1Votes positifs
 

samurai80 a écrit :


Tu as dit tres exactement ca:


Citation :

Qui peux savoir, en tout cas des R7 qui montent à 5.0 Ghz en aircooling ça existe déjà.Ca veut dire ce que ca veut dire. C'est cette phrase qui m'a choqué, meme pas la fameuse rumeur. Y croirons ceux qui veulent, mais ta phrase au present, impliquant donc a priori un R7 disponible actuellement, disant que "en tous cas des R7 a 5GHz ca existe deja" c'est non non non, et c'est completement contradictoire avec "il existe une rumeur disant que les 5GHz ont ete froles sur un coeur sur une version ES". C'est on ne peut plus demago :sarcastic:  
 
PS: j'avais pas vu l'appel a clore ce debat, dsl


ou il y en a un qui a voulu créer un buzz .....

n°10125266
fkanker
Posté le 13-04-2017 à 07:27:57  profilanswer
0Votes positifs
 

sowann a écrit :

Les iPhone n'ont jamais eu à rougir face à la concurrence, que ce soit en performance de calcul ou en autonomie (pas forcément les premiers, mais pas non plus les derniers). Bref leur CPU a toujours fait le job qu'il fallait.
Pour une fois qu'un constructeur a la tête sur les épaules, et propose un CPU suffisamment puissant pour son terminal sans tomber dans la surenchère pour faire un beau chiffre sur la fiche technique, on ne va pas lui jeter la pierre.


Détends-toi et lis l'autre moitié du post ;)  
 
A part ça, on voit qu'aucun Ryzen ne dépasse franchement les 4 GHz, et les R5 Zeppelin constituent le coeur de la gamme, c'est à dire des volumes plus conséquents que les R7. Ca semble laisser dire que les yields sont pour le moment bien pourris, car garder 50% des cores, et pas à fond dans le cas du 1400, c'est un harvesting sévère.
Du coup la question qui tue : S'ils sortent des Ryzen dual-core, on peut s'attendre à ce qu'ils soient basés sur un die Zeppelin en 1+1? :D

n°10125270
alffir
Posté le 13-04-2017 à 08:04:52  profilanswer
2Votes positifs
 

fkanker a écrit :


Détends-toi et lis l'autre moitié du post ;)  
 
A part ça, on voit qu'aucun Ryzen ne dépasse franchement les 4 GHz, et les R5 Zeppelin constituent le coeur de la gamme, c'est à dire des volumes plus conséquents que les R7. Ca semble laisser dire que les yields sont pour le moment bien pourris, car garder 50% des cores, et pas à fond dans le cas du 1400, c'est un harvesting sévère.
Du coup la question qui tue : S'ils sortent des Ryzen dual-core, on peut s'attendre à ce qu'ils soient basés sur un die Zeppelin en 1+1? :D


AMD a sacrifié la moitié des coeurs de certains die depuis les Phenom X2 pour créer une gamme complète rapidement. Gâcher du silicium doit leur coûter moins cher que de multiplier les références à graver ou d'avoir une gamme réduite et louper des ventes.
 
Il préfère vendre un 1400 aujourd'hui que de laisser le client acheter du Intel.
 
Intel vends bien des 6 coeurs à partir d'une base à 10 coeurs, tu n'en déduit pas pourtant que leurs yields sont pourris.


---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10125289
fkanker
Posté le 13-04-2017 à 08:43:43  profilanswer
0Votes positifs
 

alffir a écrit :


AMD a sacrifié la moitié des coeurs de certains die depuis les Phenom X2 pour créer une gamme complète rapidement. Gâcher du silicium doit leur coûter moins cher que de multiplier les références à graver ou d'avoir une gamme réduite et louper des ventes.
 
Il préfère vendre un 1400 aujourd'hui que de laisser le client acheter du Intel.


Ce n'est pas du sacrifice, pas en début de production en tous cas, c'est de la récupération de die pas 100% fonctionnel. Si la situation dure là ça devient du sacrifice et ça coûte cher. J'imagine que les 1400 et 1500X seront rapidement remplacés par des quad-core natifs ( :sol:), enfin j'espère pour eux...
 

alffir a écrit :

Intel vends bien des 6 coeurs à partir d'une base à 10 coeurs, tu n'en déduit pas pourtant que leurs yields sont pourris.


Car je ne m'étais pas intéressé au dossier. Sur un die de 246 mm^2 vendu à prix d'or, tu peux te permettre de claquer des fusibles même si les yields sont bons. Pas sur un die à 200 mm^2 vendu 250$. A coût de wafer comparable évidemment.

n°10125290
drynek
Posté le 13-04-2017 à 08:44:15  profilanswer
1Votes positifs
 

Je suis assez d'accord avec Alffir, la le but du jeux est d'arriver a glisser le pied sous la porte pour AMD pour pouvoir rentrer complètement dans le marché avec un process mur ensuite quitte a sacrifié un peu de suite

n°10125295
alffir
Posté le 13-04-2017 à 08:51:41  profilanswer
1Votes positifs
 

fkanker a écrit :


Ce n'est pas du sacrifice, pas en début de production en tous cas, c'est de la récupération de die pas 100% fonctionnel. Si la situation dure là ça devient du sacrifice et ça coûte cher. J'imagine que les 1400 et 1500X seront rapidement remplacés par des quad-core natifs ( :sol:), enfin j'espère pour eux...

fkanker a écrit :


Car je ne m'étais pas intéressé au dossier. Sur un die de 246 mm^2 vendu à prix d'or, tu peux te permettre de claquer des fusibles même si les yields sont bons. Pas sur un die à 200 mm^2 vendu 250$. A coût de wafer comparable évidemment.


Pour l'instant ils n'ont pas de 4 cœurs natifs, donc ils occupent le terrain comme ils peuvent, et à mon avis, comme à l'époque des Phenom X2/X3 déblocables en X4, le nombre de puces fonctionnelles mais castrées est important.

 

AMD vend sûrement ses 1400/1500 plus cher qu'ils lui coûtent à produire, mais ils doivent vendre des 1700/1800 chers pour payer les coûts fixes (R&D, industrialisation...). Ils préfèrent vendre un 1800X qu'un 1400, mais ils préfèrent toujours qu'un 1400 soit vendu plutôt qu'un i3.

 

Quand ils auront un APU 4 cœurs natif (je ne pense pas qu'il feront un 4 cœurs sans GPU), ils s’arrangeront pour rendre ces 1400/1500 moins intéressant (quoique le GPU occupera de la place aussi, sans être utilisé par tout le monde).

Message cité 1 fois
Message édité par alffir le 13-04-2017 à 08:54:53

---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10125355
fred1988
Posté le 13-04-2017 à 10:07:55  profilanswer
1Votes positifs
 

Si mon 2500K est OC à 4.5GHz, ce qui représente un gain en fréquence de 4.5/3.3 = +36%, est ce que cela signifie que le gain en jeu est théoriquement de ~36%? Soit meilleur que la plupart de ces processeur?

n°10125357
nic02
Posté le 13-04-2017 à 10:14:39  profilanswer
3Votes positifs
 

C'est la question que je me pose aussi avec mon 2500k@4.7
C'est plus compliqué que ça il y a d'autres facteurs qui influent, je pense principalement à la RAM.
Ceci dit j'aimerai effectivement bien avoir une idée du gain effectif, j'ai essayé de comparer stock vs OC ingame chez moi mais je suis souvent limité par le GPU donc c'est pas probant...
Si HFR pouvait nous sortir un petit comparo spécial OC qu'on ait une base ça serait cool :D

n°10125364
vladobar
J'aime pas quand ça rame…
Posté le 13-04-2017 à 10:21:42  profilanswer
1Votes positifs
 

fred1988 a écrit :

Si mon 2500K est OC à 4.5GHz, ce qui représente un gain en fréquence de 4.5/3.3 = +36%, est ce que cela signifie que le gain en jeu est théoriquement de ~36%? Soit meilleur que la plupart de ces processeur?


Ça marche pas tout a fait aussi simplement que cela. En gros, un 2500K a 4.5-4.7GHz tu dois être en gros au niveau ou poil en dessous d'un 7500.

Message cité 1 fois
Message édité par vladobar le 13-04-2017 à 10:25:31
n°10125367
Lykomax
Posté le 13-04-2017 à 10:23:54  profilanswer
1Votes positifs
 

schpounzzz a écrit :

Les i5 sont cuits! ;)


C'est clair ils sont mal positionnés maintenant, les Ryzen R5 sont beaucoup plus polyvalents.

n°10125374
Eric B
Posté le 13-04-2017 à 10:33:19  profilanswer
0Votes positifs
 

alffir a écrit :

AMD vend sûrement ses 1400/1500 plus cher qu'ils lui coûtent à produire, mais ils doivent vendre des 1700/1800 chers pour payer les coûts fixes (R&D, industrialisation...). Ils préfèrent vendre un 1800X qu'un 1400, mais ils préfèrent toujours qu'un 1400 soit vendu plutôt qu'un i3.
Quand ils auront un APU 4 cœurs natif (je ne pense pas qu'il feront un 4 cœurs sans GPU), ils s’arrangeront pour rendre ces 1400/1500 moins intéressant (quoique le GPU occupera de la place aussi, sans être utilisé par tout le monde).

 

je suis aussi curieux sur ce point: quelle est la marge de AMD sur un R5 1400 avec un die de 1800 ?
Et comme cela avait été dit plus haut, le coût de production (et la marge) est à mettre en balance avec le coût de development d un die dédié. Sur les faibles volumes de vente des 6 et 8C, et vu le choix d Intel et AMD là dessus, on peut imaginer qu un développement supplémentaire aurait été moins intéressant.

 

Surtout que le R5 1400 est qd même vendu près de 200€, sur une gamme de prix où les autres CPU ont des perfs équivalentes: le i5 7500 est au même prix que le R5 1400 à 190€ chez plusieurs vendeurs.
Avec un tel placement, on peut penser que peu de 1400 seront vendus et bcp plus de 1600 (à 250€) et 1700 (à 340€).

 

C est pas très clair, mais avant les APU 4C, il semble que le R3 soit qu un CPU 4C/4T sans GPU  ( tel que décrit par ex ici: https://www.game-debate.com/hardwar [...] 0R3%201100 )
Il faudra attendre ~1 an en 2018 pour voire les APU 4C/4T + GPU

Message cité 1 fois
Message édité par Eric B le 13-04-2017 à 10:35:43
n°10125376
Lykomax
Posté le 13-04-2017 à 10:35:19  profilanswer
0Votes positifs
 

Zumb a écrit :

... Le pilote NVidia va toujrous favoriser intrinsèquement le CPU avec le plus gros IPC, même sous directX12, en tout cas, pour le framerate max, et donc indirectement, pour le framerate moyen.
Et non, j'ai lu aucune analyse sur ce problème sur aucun média francophone, ni chez vous, ni ailleurs.
Vu que j'aime bien avoir votre avis, j'aimerais l'avoir sur ce sujet. :)


 
Peut-être que cet article va t'intéresser :
 

Citation :

AMD Ryzen held back by Nvidia Driver in Rise of the Tomb Raider under DX12?
http://digiworthy.com/2017/04/03/a [...] iver-dx12/
 
The video identifies a possible problem in Nvidia driver that causes graphics cards to work poorly with Ryzen chips.  
This is at least true for DX12 path of Rise of the Tomb Raider.


 
https://i0.wp.com/digiworthy.com/wp-content/uploads/2017/04/Ryzen-bench-RX-480-Cross-Moun_03.png?resize=768%2C327
 
Plus qu'a espérer que le combo à venir Ryzen+Vega fasse des merveilles.

n°10125377
alffir
Posté le 13-04-2017 à 10:38:14  profilanswer
1Votes positifs
 

Eric B a écrit :


 
je suis aussi curieux sur ce point: quelle est la marge de AMD sur un R5 1400 avec un die de 1800 ?
Et comme cela avait été dit plus haut, le coût de production (et la marge) est à mettre en balance avec le coût de development d un die dédié. Sur les faibles volumes de vente des 6 et 8C, et vu le choix d Intel et AMD là dessus, on peut imaginer qu un développement supplémentaire aurait été moins intéressant.
 
Surtout que le R5 1400 est qd même vendu près de 200€, sur une gamme de prix où les autres CPU ont des perfs équivalentes: le i5 7500 est au même prix que le R5 1400 à 190€ chez plusieurs vendeurs.
Avec un tel placement, on peut penser que peu de 1400 seront vendus et bcp plus de 1600 (à 250€) et 1700 (à 340€).
 
C est pas très clair, mais avant les APU 4C, il semble que le R3 soit qu un CPU 4C/4T sansGPU  ( tel que décrit par ex ici: https://www.game-debate.com/hardwar [...] 0R3%201100 )
Il faudra attendre ~1 an en 2018 pour voire les APU 4C/4T + GPU


J'en ai aucune idée... mais :
_ 2 puces, ce n'est pas que de la R&D en plus, c'est une chaîne de production différente, donc un coût unitaire supérieur pour les 8C
_ Intel gâche aussi du silicium avec GPU,qui n'est pas utilisé par tout le monde (mais facilite son intégration par les OEM, j'ai un i5 Haswell au boulot par exemple).


---------------
Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes.
n°10125385
Lykomax
Posté le 13-04-2017 à 10:49:22  profilanswer
1Votes positifs
 

Ah et merci pour ce test!
 

Citation :

Pour rappel, ce protocole introduit plusieurs changements, à commencer par l'utilisation de Windows 10 dans sa version "Anniversary Edition"


 
Il serait bien de faire un ajout au test pour prendre en compte la dernière version de windows 10 puisque apparemment il y aurait un gain intéressant en performance.
A moins que vous aillez déjà optimisé et patché le système manuellement pour que ça fasse pareil.  
 

Citation :

Ryzen benchmarks on Win10 Creators Update: Up to 5% Performance boost
http://digiworthy.com/2017/04/09/r [...] rs-update/
 
AMD Ryzen benchmarks: Some games run faster with Creators Update
 
This, however, changes in The Witcher 3 where there is around 5% increase in performance with the Creators Update.  
The increase is 3% in case of Watch Dogs 2.

n°10125399
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 13-04-2017 à 11:06:05  profilanswer
3Votes positifs
 

Pas encore testé nous-même mais si il semble effectivement y avoir un gain sur la Creators Update, il ne semble pas qu'il soit limité à Ryzen cf. d'ailleurs le lien reddit sur cette même source.
 
Et a priori la Creators Update ne change pas le comportement du mode Balanced sur Ryzen au niveau du core parking.

n°10125403
Zumb
Posté le 13-04-2017 à 11:12:37  profilanswer
0Votes positifs
 

C_Wiz a écrit :


Nvidia a des stratégies de mitigations plus évoluées au niveau de ses pilotes pour DX11, il me semble, c'est quelque chose qui est abordé dans les articles GPU et qui fait qu'en pratique DX11 est préférable à DX12 dans nombre de titres sur une GeForce. On l'a constaté et on fait le choix approprié quand nécessaire. Mais c'est en grande partie lié a l'architecture du GPU par contre oui, Nvidia estime ces stratégies comme plus efficaces, AMD a une approche différente, mais je ne vois pas trop le rapport sur un avantage quelconque.  
 
Après sur la question de uniquement 4 threads je n'ai pas vu de source, j'en veux bien une (pas de youtube :p). Sachant qu'il s'agit de mitigation, il est un peu facile de dire que parce qu'il n'y a que 4 threads, l'avantage va de facto au meilleur "IPC". L'avantage irait déjà au mieux à la meilleure fréquence, mais si et seulement si ces 4 threads étaient pleinement utilisés systématiquement, ce qui empiriquement ne me semble pas du tout être le cas.  
 
Après dire qu'un GPU AMD est plus fiable sur les résultats, non je ne suis pas d'accord non plus. On ne fait pas de benchmarks synthétiques. Nos benchmarks représentent ce qui se passe pour un utilisateur qui utilise différents CPU et une GeForce, ce qui est quelque chose qui existe et pas juste un cas d'école. Je veux bien entendre que ce n'est pas le meilleur choix, en grande partie parce que en général les GPU Nvidia profitent moins des nouvelles API, mais on a largement détaillé notre raison, qui est la même qui pousse AMD à utiliser une GTX 1080 dans leurs benchs internes aussi : on est beaucoup moins GPU bound avec un GPU plus performant. Nous n'avons pas d'affinité à une marque particulière, on a choisi le GPU le plus rapide et qui nous limiterait le moins dans les benchs lors de l'élaboration du protocole. S'il avait été rouge, vert ou bleu, ça n'aurait rien changé pour nous.


D'après ce que j'ai put en comprendre, le scheduler des GPu est logiciel et donc s’appuie sur le CPU. En dehors de marginalement fausser les tests de conso GPU (dont on se fout ici), ça a forcément un impact sur la charge CPU.
En imaginant que leur système fonctionne idéalement, et que le charge soit uniformément réparti, alors de toute façon, on sera à 100% de charge plus rapidement sur les cores en question. Schématiquement.
Les sources sur le sujet sont rare, et la, j'en ai pas sous la main, désolé.
Après, je n'ai rien à dire sur votre méthodologie de bench en elle même, hein. C'est toujours un équilibre instable entre nécessité de se mettre au plus prêt de l'utilisateur, tout en aillant besoin d'avoir des résultats synthétique, facilement reproductible, et fiable. Ce qui est généralement contradictoire avec le premier besoin.
Le problème ici est que contrairement aux bench habituels de CPU Intel, qui sont relativement insensible au GPU utilisé, ici, les résultats peuvent montrer des écarts en fonction du GPU utilisé, ce qui complique grandement votre tache. Je ne vouas accuse pas de partialité, hein. Si je vous trouvais partiaux, je ne serais pas ici. ^^

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Inno3D lance 5 GTX 1080 Ti X2, X3 et X4[HFR] Actu : Palit passe les 1080 Ti au JetStream
[HFR] Actu : Intel avance le lancement du LGA 2066[HFR] Sondage : Quel est votre ratio d'écran idéal ?
[HFR] Actu : Des dalles 32:9 et 32:10 à venir chez Samsung ?Benchmark CPU - testez votre Rysen - Comparez vos résultats avec HFR
Problème AMD Radeon 7800 series - drivers[HFR] Actu : Patch pour le Core Parking pour Ryzen !
[HFR] Actu : Pilotes GeForce 381.65 WHQL 
Plus de sujets relatifs à : [HFR] Dossier : AMD Ryzen 5 1600X, 1600, 1500X et 1400 en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR