Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2057 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

[HFR] Actu : Les AMD Ryzen Pinnacle Ridge en précommande

n°10354494
xbala
Posté le 14-04-2018 à 13:45:50  profilanswer
0Votes positifs
 

Reprise du message précédent :

Antimasse a écrit :


 
C'est un fake car ça ne colle pas.
 
Aucune chance qu'un R5 1400 (2933) puisse talonner un R7 1700X (2933) qui a 8 cores et deux fois plus de cache.
Et aussi aucune chance qu'un R5 1400 (2933) puis dépasser un I7 6700K (3000) dont l'IPC (+30%) et la fréquence sont meilleurs.
 
Et ce, même si c'est en Ultra 4K.


 
Ce n'est pas un fake, mais un test avec une 1070 (donc à l'intérêt limité).
 
https://elchapuzasinformatico.com/2 [...] 700x-x470/

mood
Publicité
Posté le 14-04-2018 à 13:45:50  profilanswer
 

n°10354497
Antimasse
Posté le 14-04-2018 à 14:09:59  profilanswer
0Votes positifs
 

Même en 1080p, les résultats ne collent pas: https://elchapuzasinformatico.com/w [...] -HD-01.jpg

 

L'R7 1700X (2400) fait mieux qu'un I7 6700K (3000) alors qu'un R5 1600 (2400) le frôle, c'est impossible même en GPU limited moyen.
Idem pour l'R5 1400 (2933) vs R5 1600 (2933) qui sont au coude-à-coude, alors que 8Mo de cache L3 et 200Mhz les séparent.

 

D'autant plus qu'ils ont un problème avec la DDR4 2933Mhz.

Message cité 1 fois
Message édité par Antimasse le 14-04-2018 à 18:23:59
n°10354548
boudeficel​le
Posté le 14-04-2018 à 16:46:56  profilanswer
0Votes positifs
 

computersmsa a écrit :


 
La t° max influence forcément ce qui est annoncé dissipable par le fabricant d'un ventirad, mais je doute que cela influence le TDP annoncé par le fabricant d'un processeur... :??:
Le fabriquant du processeur annonce un TDP et il est de la responsabilité du fabricant du ventirad que la t° max soit respectée à un TDP processeur donné... en tenant compte de qualité de la dissipation et pas uniquement au Groenland... tout cela n'est pas du ressort du fabricant de processeurs :jap:
Cela dit, le TDP annoncé par AMD et Intel n'est pas une mesure précise ou un calcul précis... et leurs interprétations semblent être un peu différentes.
 
C'est en tout cas plus logique ainsi :jap:
Vous semblez confondre les deux notions :(


 
C'est pourtant le cas : le TDP se calcule ainsi : (Tjmax-Tcase)/RésistivitéDuRad
 
Unités : W = (°C-°C)/(C°/W)
 
Le TDP ne se mesure pas, il se calcule à partir d'expériences faite en labo. Ils prennent un TAmbiant donné (dans le cas des Ryzen c'est 42°C car ils prennent l'hypothèse où le boîtier est mal ventilé). Ils décrètent un Tjmax, autour de 64°C dans le cas des Ryzen.
Ensuite à partir de là, ils regarde avec quelle résistivité maximale du ventirad ils parviennent à reste sous le Tjmax en usage intensif.
 
Une fois la résistivité maximale acceptée trouvée (par exemple 0.19°/W), ils ont leur trois données et n'ont plus qu'à faire le calcul et ils ont le résultat de leur TDP.
 
Et ce fameux résultat est surtout utile aux OEM.
 
Ainsi, si on augmente la température max sur un processeur, on diminue son TDP (et si on diminue la température Max, on augmente le TDP). De la même manière, si on transforme un joint en indium en pâte thermique pourrie et qu'on garde la température max identique, il faudra un plus gros rad pour rester sous cette température (donc résistivité plus faible, qui est sous la fraction, donc TDP qui augmente).
 
A aucun moment, la consommation du CPU ne rentre en ligne de compte. Elle influe forcément sur le TDP, mais de manière indirecte, car elle joue bcp sur la température et donc le rad nécessaire (et donc le dénominateur de la fraction).
Dans l'absolu, pour caricaturer, tu peux prendre une copie parfaite de Core i7 de PC portable, mais tu remplaces la pâte interne par du Nutella, et tu peux avoir un CPU qui consomme 20 W en charge mais qui a un TDP de 50 W. Exemple extrême, mais qui montre que les deux n'ont rien à voir.
 
Gros TDP => besoin de gros rad
Petit TDP => besoin d'un moins gros rad.
Ca ne veut rien "dire" de plus.
 
C'est utile aux intégrateurs surtout, nous on s'en fout, nos rad sont jamais sous-dimensionnés ou presque.
 
J'espère avoir été plus clair cette fois-ci (j'ai pris la peine d'écrire depuis un PC). Je sais que cette notion n'est pas évidente, et que bcp confondent avec la consommation du processeur.

Message cité 1 fois
Message édité par boudeficelle le 14-04-2018 à 20:38:03
n°10354555
damien440
Posté le 14-04-2018 à 17:13:31  profilanswer
0Votes positifs
 

Hello, donc dans le cas du 105w de TDP de zen+ c'est simple.
 
10w* en idle + 200w* en charge nominale (sans overclock) = 210w* divisé par 2 = 105w tdp ou thermal design power.
 
Chiffre pris en exemple n'ayant pas de justification réel autre que démontrer le pourquoi du tdp.

n°10354558
xbala
Posté le 14-04-2018 à 17:21:44  profilanswer
0Votes positifs
 

Antimasse a écrit :

Même en 1080p, les résultats ne collent pas: https://elchapuzasinformatico.com/w [...] -HD-01.jpg

 

L'R7 1700X (2400) fait mieux qu'un I7 6700K (3000) alors qu'un R5 1600 (2400) le frôle, c'est impossible même en GPU limited moyen.
Idem pour l'R5 1400 (2933) vs R5 (2933) qui sont au coude-à-coude, alors que 8Mo de cache L3 les sépare, et 200 Mhz.

 

Surtout qu'ils ont un problème avec la DDR4 2933Mhz.

 

Cpafo  :O

 

Enfin dans tous les cas on est d'accord, on peut pas se baser sur ces résultats en jeu  :jap:

n°10354564
madpo
lève toi et marche
Posté le 14-04-2018 à 17:35:13  profilanswer
0Votes positifs
 

boudeficelle a écrit :


A aucun moment, la consommation du CPU ne rentre en ligne de compte. Elle influe forcément sur le TDP, mais de manière indirecte, car elle joue bcp sur la température et donc le rad nécéssaire (et donc le dénominateur de la fraction).
Dans l'absolu, pour caricaturer, tu peux prendre une copie parfaite de Core i7 de PC portable, mais tu remplaces la pâte interne par du Nutella, et tu peux avoir un CPU qui consomme 20 W en charge mais qui a un TDP de 50 W. Exemple extrême, mais qui montre que les deux n'ont rien à voir.


 
 [:cerveau heink]  
 
le TDP est une valeur fixe , c'est une caractéristique du cpu parmi d'autre.
La t es en train de confondre tdp et dissipation thermique réel qui elle est identique à la conso du CPU
 

boudeficelle a écrit :


Gros TDP => besoin de gros rad
Petit TDP => besoin d'un moins gros rad.
Ca ne veut rien "dire" de plus.


 [:orly2]  
 


---------------
"La perfection ne consiste pas à faire des choses extraordinaires, mais à faire des choses ordinaires de façon extraordinaire,"BDD cartes MINI ITX
n°10354574
Antimasse
Posté le 14-04-2018 à 18:40:48  profilanswer
4Votes positifs
 

J'ai toujours souhaité qu'HFR fasse plusieurs dossiers (avec une section totalement dédiée) non théoriques qui permettraient aux débutants de passer au niveau avancé, mais aussi à ces derniers de passer au niveau expert.
 
Les débutants ne savent en général pas ce qu'est l'IPC, la signification de tous les réglages de BIOS, ce que représentent tous les timings mémoire et leur signification, l'achat pour le moyen-long terme, les instructions,etc
 
Et pour les avancés qui ont souvent du mal à comprendre la totalité des détails sur les architectures dans lesdites sections de dossiers et ce qu'ils signifient ainsi que de leur subtilités, les arcanes de l'overclocking poussif (au dessus de 5Ghz pour Intel et 4Ghz pour AMD) et ses réglages, etc...
 
 
Le problème c'est qu'ils ont déjà pas le temps, et que la team se réduit d'année en année en plus... :(
 
Perso je fais ma part en leur signalant les bugs du site ici et là, mais quand je vois que de gros bugs ne sont pas pris en compte, on comprends pourquoi.
 
Mais on est avec vous pour la qualitance ! Même si ça prend plus de temps qu'avant  :D


Message édité par Antimasse le 14-04-2018 à 20:19:24
n°10354586
mazingerz
Posté le 14-04-2018 à 19:21:50  profilanswer
0Votes positifs
 

Antimasse a écrit :

Il n'y a même pas besoin de tests.
 
En connaissant l'IPC (et on le connait), on peut très facilement avec une règle de trois extrapoler à partir d'un R7 1800X. Il suffit de faire le calcul avec la fréquence turbo sur tous les cores du Zen+ visé.
Et en se basant sur les chiffres d'HardwareFR bien sûr.
 
Ainsi, en estimant sans overhype un turbo 8C à 3.9Ghz et vu que l'IPC change de même pas 5%, tu peux sans trop de prolème dire que l'R7 2700X sera égal au I7 4790K.
Soit environ 4% de performances de plus par rapport au R7 1800X au total en gaming.
 
Donc à 4.3Ghz sur tous les cores sur un R7 2700X, tu devrais être entre un I7 4790K et un I7 6700K en gaming.
 
 
C'est un fake car ça ne colle pas.
 
Aucune chance qu'un R5 1400 (2933) puisse talonner un R7 1700X (2933) qui a 8 cores et deux fois plus de cache.
Idem, un R5 1400 (2933) ne peut dépasser un I7 6700K (3000) dont l'IPC (+30%) est meilleur et la fréquence plus grande.
 
Et ce, même si c'est en Ultra 4K.


 
c'est vrais c'est louche
 
après pas forcement fake ça peut être du à des "bug" du jeux ou des pilote graphiques  
 
édit : apparemment pas fake juste des problèmes de drivers video je dirait  
 
https://elchapuzasinformatico.com/2 [...] 700x-x470/
 
donc conclusion en 4K peux importe le pross ^^  
 


Message édité par mazingerz le 14-04-2018 à 19:25:38
n°10354608
Antimasse
Posté le 14-04-2018 à 20:21:05  profilanswer
0Votes positifs
 

Si c'est un bug de drivers GPU, ça ne fait pas très sérieux...  :sweat:  
C'est comme tester avec des drivers Beta.
 
Ceci dit, même en 1080p le CPU n'a plus trop d'importance si on joue tout au max à partir du moment où c'est un 8T et +.
Même pour l'inutile 144Hz, où l'FRV apporte largement plus.


Message édité par Antimasse le 14-04-2018 à 20:40:57
n°10354613
boudeficel​le
Posté le 14-04-2018 à 20:29:34  profilanswer
0Votes positifs
 


Je ne confonds rien. Si tu crois que je confonds un truc c'est que tu ne sait pas ce qu'est un TDP.
Auquel cas, c'est pas grave, relis plus attentivement mon commentaire précédent. Je sais que ce sont pas des notions "intuitives", mais je ne pourrai pas expliquer mieux.
 
J'explique notamment que cette valeur fixe est issue d'une expérience de labo (qui a pour but de déterminer quel ThetaCA maximum le refroidissement peut avoir sans atteindre le TCase ou Tjmax). Et deux expériences différentes donneront deux TDP différents. Cette valeur n'est pas absolue du tout.
 
Si malgré ça tu ne comprends toujours pas, je te conseille d'aller voir des articles d'électroniques qui parlent de ce sujet.
 
EDIT : tiens voilà je t'ai trouvé un truc qui t'aidera un peu à comprendre tout ça :
https://books.google.fr/books?id=1_ [...] ax&f=false


Message édité par boudeficelle le 14-04-2018 à 20:39:34
mood
Publicité
Posté le 14-04-2018 à 20:29:34  profilanswer
 

n°10354617
boudeficel​le
Posté le 14-04-2018 à 20:32:45  profilanswer
1Votes positifs
 

damien440 a écrit :

Hello, donc dans le cas du 105w de TDP de zen+ c'est simple.
 
10w* en idle + 200w* en charge nominale (sans overclock) = 210w* divisé par 2 = 105w tdp ou thermal design power.
 
Chiffre pris en exemple n'ayant pas de justification réel autre que démontrer le pourquoi du tdp.


 
Non, dans le cas du Ryzen 7 2700X :
Tjmax = 61.8°C
Tambiant = 42°C
ResistanceThermique = 0.189 °C/W
Donc TDP = (61.8 - 42)/0.189 = 104.76 W
 
cf doc officielle d'AMD.


Message édité par boudeficelle le 14-04-2018 à 20:34:32
n°10354621
Antimasse
Posté le 14-04-2018 à 20:40:41  profilanswer
0Votes positifs
 

@boudeficelle:
 
Mec, quote madpo qu'une fois et regroupe tes trois posts en un seul, tu ne fais pas de pavés donc inutile de les séparer.
 
Sinon à toi et à madpo (et les autres aussi): https://en.wikipedia.org/wiki/Thermal_design_power
 
 
De toute façon, le TDP est une mesure à chier.
 
Ca ne prends ni le pire des cas en compte, ni n'est une valeur fiable à cause des fausses valeurs que les constructeurs essaient de nous faire avaler.
Et je ne parle même pas de chacune de leur inombrables interprétatons, ni même des conneries comme le cTDP ou sTDP.


Message édité par Antimasse le 14-04-2018 à 20:50:22
n°10354714
boudeficel​le
Posté le 14-04-2018 à 23:31:29  profilanswer
0Votes positifs
 

Antimasse a écrit :

@boudeficelle:
 
Mec, quote madpo qu'une fois et regroupe tes trois posts en un seul, tu ne fais pas de pavés donc inutile de les séparer.
 
Sinon à toi et à madpo (et les autres aussi): https://en.wikipedia.org/wiki/Thermal_design_power
 
 
De toute façon, le TDP est une mesure à chier.
 
Ca ne prends ni le pire des cas en compte, ni n'est une valeur fiable à cause des fausses valeurs que les constructeurs essaient de nous faire avaler.
Et je ne parle même pas de chacune de leur inombrables interprétatons, ni même des conneries comme le cTDP ou sTDP.


 
Je n'ai pas besoin du lien Wikipedia, c'est les autres qui ne comprennent pas ^^
 
Ensuite le TDP n'est pas "une mesure à chier" pour la simple et bonne raison que ce n'est pas une mesure, mais un calcul, cf pour commentaire précédent.
 
Enfin il n'y a pas "d'interprétation", c'est un calcul issu d'une formule avec trois variables. Point. Il y a pas de philosophie ou de plan sur la comète derrière.
 
 
Si ca t'intéresse, tu peux avoir plus de détails sur ces 3 variables sur les docs techniques des processeurs, du même style que ce que j'ai fourni précédemment sur le Ryzen 7 2700X.
 
J'ai l'impression de me répéter depuis hier un peu ^^


Message édité par boudeficelle le 14-04-2018 à 23:36:24
n°10354715
Antimasse
Posté le 14-04-2018 à 23:42:47  profilanswer
0Votes positifs
 

Vu que chacun défend ses points, il y aura forcément de la répétition :D
 
 
Pour l'interprétation, il y en a bien plusieurs (section "TDP et TDP..." ): https://www.hardware.fr/articles/95 [...] e-tdp.html
 
Intel et AMD ont une vision différente de ce qu'est le TDP.


Message édité par Antimasse le 14-04-2018 à 23:47:59
n°10354723
boudeficel​le
Posté le 15-04-2018 à 00:05:59  profilanswer
0Votes positifs
 

Antimasse a écrit :

Vu que chacun défend ses points, il y aura forcément de la répétition :D
 
 
Pour l'interprétation, il y en a bien plusieurs (section "TDP et TDP..." ): https://www.hardware.fr/articles/95 [...] e-tdp.html
 
Intel et AMD ont une vision différente de ce qu'est le TDP.


 
C'est pas une interprétation ou une vision différente. Le tdp est un calcul, rien de plus.
Il est possible d'utiliser le résultat de ce calcul (le tdp) comme limite de consommation instaurée. Ou ne pas le faire.
Mais c'est au niveau de "l'usage" de cette valeur que ca se joue alors, non sur l'existence de la valeur en elle-même.
 
Le tdp reste ce qu'il est. C'est à dire la resistance thermique maximale d'un ventirad pour faire tourner le cpu sous le tcase. Rien de plus, rien de moins.
 
Le fait que hfr vienne parler de consommation contribue à semer le trouble dans l'esprit des gens qui déjà mélangent consommation et tdp qui sont des concepts differents (complètement).


Message édité par boudeficelle le 15-04-2018 à 00:10:05
n°10354726
Krutors
Posté le 15-04-2018 à 00:17:42  profilanswer
0Votes positifs
 

Antimasse a écrit :

Je ne parle pas de minimum, mais de tenir sur la durée.
 
D'ailleurs, la grosse majorité des gens qui achètent un PC ne sont généralement pas dans l'optique de changer de pièces ou de revendre tous les 2-3 ans. (J'en ai vu pas mal sortir cet "argument" ).
Pour eux, il faut tabler sur 5 ans minimum pour le CPU. C'est d'ailleurs même atteignable pour le GPU je dirais.
 
Sinon, pour tes limitations, ça ne reste que ton expérience personnelle. Tu ne sauras jamais qui jouera à quoi dans le présent ou dans le futur, eux-même non plus d'ailleurs.
 
 
Après, tu as remplacé quel CPU avec ton I5 4670K ?


 
Désolé pour le temps de réponse, je n'avais pas vu que tu m'avais posé une question. Mon 4670k a remplacé un 2500K que j'ai fait cramé suite a une trèèès grossière erreur de ma part (et donc la carte-mère avec, naturellement...)
 
Evidemment que cela relève de mon expérience personnelle. Mais n'est-ce pas là le centre du problème ? Evidemment que "mieux c'est mieux", mais finalement, tant qu'une machine ou un composant n'est pas "obsolète" dans l'utilisation qu'on en as...est-ce qu'il y a vraiment BESOIN de mettre à jour ? Certes, 4 pauvres threads, c'est peu. Mais c'est encore tout a fait suffisant pour jouer en 60 Hz pour peux que l'IPC soit correct. Pour info, si je n'avais pas cramé mon 2500K, je pense qu'il serait encore dans ma tour, alors que je l'ai acheté en 2010. Avec comme seul bémol le support de l'USB3 qui était tout simplement catastrophique (ceux avec un controleur NEC/Renasas s'en souviennent sûrement...)
 
Après, pour le changement de pièces "anticipé", ca dépend là aussi de ce que chacun fait de sa machine. Moi par exemple je joue beaucoup, et c'est une de mes passions. Donc si demain un jeu sors sur PC, que ce jeu m'intéresse et qu'il m'est impossible d'y jouer dans des conditions correctes (60FPS constants avec des détails graphiques "élevés" ) et bien je passerait sans hésiter à la caisse. J'attends toujours que ce jeu arrive... ce sera sans doute Star Citizen d'ailleurs.


Message édité par Krutors le 15-04-2018 à 00:23:40
n°10354735
SirGallaha​d
What's your favorite color ?
Posté le 15-04-2018 à 00:37:37  profilanswer
2Votes positifs
 

sebaas a écrit :

c'est plaisant de voir amd s'accrocher avec ces nouveaux cpu.  
 
Mais quel dommage que leur gpu soit a la ramassent. Une config full amd serait idéale.
chez moi le couple intel + amd c'est pas possible.


A la ramasse....
Perso, je trouve que les perf de la RX Vega 56/64 sont bien (mais pas top). Le vrai défaut c'est la consommation. (et le prix actuellement)
 
Mais une config 2700X + RX Vega 56, n'aura surement pas de problème à faire tourner absolument tous les jeux du marché.


Message édité par SirGallahad le 15-04-2018 à 00:41:14

---------------
Blue,no ! Yellow ! ... Aaaaaaaaaaaaahhhhhhhhhh
n°10354739
Antimasse
Posté le 15-04-2018 à 01:23:55  profilanswer
0Votes positifs
 

Je sais pas ce qui est le pire franchement.
Ces fautes très grosses, ou ce cancer que sont les gens qui écrivent sans ponctuation et sans majuscules...
 
Le problème de Vega/GCN 5, c'était d'avoir misé sur l'HBM depuis les Fury/GCN 3 au lieu d'améliorer GCN correctement, à défaut de travailler directement sur Navi, même si il fallait abandoner les (inutiles) Rx 3xx et Fury.
En améliorant l'architecture et la compression delta, ils auraient pu ne pas avoir besoin d'HBM et auraient pu mettre de la GDDR5 sur un bus 512 bits pour GCN 5.
 

Krutors a écrit :


 
Désolé pour le temps de réponse, je n'avais pas vu que tu m'avais posé une question. Mon 4670k a remplacé un 2500K que j'ai fait cramé suite a une trèèès grossière erreur de ma part (et donc la carte-mère avec, naturellement...)
 
Evidemment que cela relève de mon expérience personnelle. Mais n'est-ce pas là le centre du problème ? Evidemment que "mieux c'est mieux", mais finalement, tant qu'une machine ou un composant n'est pas "obsolète" dans l'utilisation qu'on en as...est-ce qu'il y a vraiment BESOIN de mettre à jour ? Certes, 4 pauvres threads, c'est peu. Mais c'est encore tout a fait suffisant pour jouer en 60 Hz pour peux que l'IPC soit correct. Pour info, si je n'avais pas cramé mon 2500K, je pense qu'il serait encore dans ma tour, alors que je l'ai acheté en 2010. Avec comme seul bémol le support de l'USB3 qui était tout simplement catastrophique (ceux avec un controleur NEC/Renasas s'en souviennent sûrement...)
 
Après, pour le changement de pièces "anticipé", ca dépend là aussi de ce que chacun fait de sa machine. Moi par exemple je joue beaucoup, et c'est une de mes passions. Donc si demain un jeu sors sur PC, que ce jeu m'intéresse et qu'il m'est impossible d'y jouer dans des conditions correctes (60FPS constants avec des détails graphiques "élevés" ) et bien je passerait sans hésiter à la caisse. J'attends toujours que ce jeu arrive... ce sera sans doute Star Citizen d'ailleurs.


 
Pas de soucis, tu as quand même répondu :)
 
Le problème n'est pas tant d'avoir une pièce adaptée à l'utilisation qu'on va en faire, mais plutôt de savoir si on va garder cet usage et le faire durer dans ce cas.
L'idée est d'éviter une situation de rachat permanent qui revient plus cher, ainsi que les fausses économies.
Le cas général étant que la machine devra durer au moins 5 ans, il faut du coup faire avec et sur le fait que les gens eux-mêmes ne savent pas ce qu'ils vont faire, ni comment  demain sera fait car ils n'ont pas les éléments de réflexion.
Vu que les principales demandes concerne en plus les PC de gaming, la route est quasiment toute tracée.
 
Pour en revenir au sujet du 4C/4T, ce n'est plus totalement suffisant depuis 2016 avec des jeux comme Battlefield 1 ou Call of Duty Infinity Warfare (pas mal de cas de stuttering en réglages élevés) et le CPU est de plus en plus poussé dans ses derniers retranchements (ex: 4C/4T à 100%).
L'I5 2500K est sorti en 2011 par contre.
 
Tu peux effectivement repasser à la caisse si tu as les moyens, mais ce n'est pas le cas majoritaire, et ils ne pourraient donc pas le faire.
Ca signifie donc que tu/ils vas/vont payer plus cher pour la même durée dans le temps. Et que cet argent aurait pû être investi dans une meilleure carte graphique par exemple, ou économiser pour la prochaine config ou un meilleur grand saut.


Message édité par Antimasse le 15-04-2018 à 01:39:36
n°10354759
mazingerz
Posté le 15-04-2018 à 04:55:42  profilanswer
2Votes positifs
 

SirGallahad a écrit :


A la ramasse....
Perso, je trouve que les perf de la RX Vega 56/64 sont bien (mais pas top). Le vrai défaut c'est la consommation. (et le prix actuellement)
 
Mais une config 2700X + RX Vega 56, n'aura surement pas de problème à faire tourner absolument tous les jeux du marché.


 
c'est clair... y a vraiment des gent qui se rentre de fausses idée dans la tête...  
 
et pareil pour toute la gamme
 
faut m'expliquer en quoi une 580 est à la ramasse face a une 1060....  
 
les perf sont similaire voir meilleur pour la 580
seul la conso fait un peut honte...  
mais ça n'empêche en rien de se monter une configue full AMD
 
le seul problème actuellement c'est la flambé des prix  
 

Message cité 1 fois
Message édité par mazingerz le 15-04-2018 à 16:37:29
n°10354797
Riseoflege​nds
Posté le 15-04-2018 à 10:05:53  profilanswer
0Votes positifs
 

boudeficelle a écrit :


 
Non, dans le cas du Ryzen 7 2700X :
Tjmax = 61.8°C
Tambiant = 42°C
ResistanceThermique = 0.189 °C/W
Donc TDP = (61.8 - 42)/0.189 = 104.76 W
 
cf doc officielle d'AMD.


 
C'est quoi ce calcul? Que représente la résistance thermique dans ce cas? Celle du ventirad? Qui est donc obtenu... en partant de la puissance moyenne émise par le processeur sous une charge sur tous les coeurs (C'est comme ça que intel décrit son TDP). On reviendra forcément au même point, la base pour construire le TDP est bien la consommation du processeur.
 

boudeficelle a écrit :


Le tdp reste ce qu'il est. C'est à dire la resistance thermique maximale d'un ventirad pour faire tourner le cpu sous le tcase. Rien de plus, rien de moins.


 
C'est faux le TDP n'est pas une résistance thermique mais une puissance...
 
 

boudeficelle a écrit :


Ensuite le TDP n'est pas "une mesure à chier" pour la simple et bonne raison que ce n'est pas une mesure, mais un calcul, cf pour commentaire précédent.
 
Enfin il n'y a pas "d'interprétation", c'est un calcul issu d'une formule avec trois variables. Point. Il y a pas de philosophie ou de plan sur la comète derrière.


 
Bien sûr que c'est une mesure, tu crois que tes 3 variables sont obtenu comment? A la base il y a quand-même une mesure empirique, c'est obligé.

Message cité 1 fois
Message édité par Riseoflegends le 15-04-2018 à 10:10:32
n°10354799
fullstuffm​an
Les poches pleines de loot
Posté le 15-04-2018 à 10:13:51  profilanswer
3Votes positifs
 

mazingerz a écrit :


 
c'est clair... y a vraiment des gent qui se rentre de fausses idée dans la tête...  
 
et pareil pour toute la gamme
 
faut m'expliquer en quoi une 580 est à la ramasse face a une 1600....  
 
les perf sont similaire voir meilleur pour la 580
seul la conso fait un peut honte...  
mais ça n'empêche en rien de se monter une configue full AMD
 
le seul problème actuellement c'est la flambé des prix  
 


 
L'inconscient collectif, qui est pour beaucoup très collectif. Les 3/4 ont des configs ( comme moi héhé ) moyenne c'est à dire FHD 60Ips et ils crient tous non il faut du Intel bande d'hérétique !!!! Et la 1060 est mieux!!!! . Ah bon et pourquoi??? Ben enfaite elle est pareil mais elle consomme moins ..... ah! Je n'aurais pas de 970 j'aurais prix une 580 8gb au moins niveau vram tu peux pousser les potards à fond . Mais bon l'écart n'est pas assez conséquent donc j'attend les nouvelles gammes pour voir combien de temps je garde la 970 encore jusqu'à avoir un GPU AMD pour accompagner mon 1600x.

n°10354816
sagittaire
Posté le 15-04-2018 à 11:23:09  profilanswer
1Votes positifs
 

Bon ben c'est le retour d'antimasse pour entendre le pire avec son lot de trolling comme d'habitude
 

Citation :

- Une légère amélioration des latences, mais ça ne changera pas beaucoup.


 
Le gain n'est pas léger. Et il peut apporter au contraire des gains très fort. Et c'est particulièrement justement le cas en jeux en 1080p sur GTX 1080.
 
 

Citation :

L'IPC de Zen+ en applicatif équivaudra à Haswell et à Ivy Bridge en gaming (vs entre Ivy Bridge-Haswell et entre Sandy Bridge-Ivy Bridge respectivement pour Zen).


 
Je t'ai déjà démontré que c'était complètement faux.  
 
- Zen en applicatif c'est juste un peu inférieur à broadwell et Intel n'a pas considérablement progressé depuis en matière d'IPC. D'ailleurs sur le test HFR, l'écart se fait avec des appli qui dépendent surtout de la rapidité du système mémoire (compression 7zip et winrar). C'est aussi une implémentation plus complète d'AVX2 pour des applications comme le x265.
 
- Ce qui fait la perf en jeux c'est pas le CPU mais le GPU. Les tests hardware sont souvent fait dans des conditions qui mettent artificiellement en évidence les perfs CPU par exemple en testant une GTX 1080 OC, voire même une GTX 1080 TI OC en 1080p. Mais de fait, il n'y aura que de très faibles différence entre les CPU HDG avec une GTX 1060 en 1080p, avec une GTX 1080 en 1440p ou avec une GTX 1080 Ti en 2160p.
 
 

Citation :

Je dis ça car beaucoup de gens ne jurent que par la fréquence, et de plus en plus. On se croirait revenir aux temps des Pentium 4/D, et qu'ils n'ont pas retenu une leçon du passé toujours d'actualité.


 
Ca aussi c'est complètement faux.  
 
Ce qui fait les performances actuelles d'Intel c'est justement la fréquence très importante atteinte par Intel à presque 5 Ghz. Justement parce que l'écart l'IPC entre AMD et Intel n'est en fait pas si grand. C'est au contraire un gros avantage pour Intel, y compris pour les jeux (tests en 1080p sur GTX 1080). A une même fréquence un i7-8700K se ferait littéralement balayer en applicatif par un 2700X à 4.7 Ghz et ne serait certainement pas très loin non plus en jeux (toujours en 1080p sur GTX 1080).
 
D'ailleurs un vieux i7-4790K qu fonctionne à très haute fréquence (4 Ghz de mémoire) reste un excellent processeur pour le jeux et aura un niveau de fps très comparable à tous les CPU HDG actuel par en exemple en 1080p sur GTX 1060. Cela sera aussi le cas d'un vieux i7-2700K avec un OC extrême.

n°10354819
Asthon
Posté le 15-04-2018 à 11:30:34  profilanswer
0Votes positifs
 

fullstuffman a écrit :


[...]
configs ( comme moi héhé ) moyenne c'est à dire FHD 60Ips et ils crient tous non il faut du Intel bande d'hérétique !!!!


 
Si tu veux que la config reste "moyenne" autant de temps que possible il est assez évident qu'un processeur plus efficace en jeu soit recherché, on achète pas du matériel pour ses specs à temps T on espère toujours avoir un peu de marge !
 

fullstuffman a écrit :


Et la 1060 est mieux!!!! . Ah bon et pourquoi??? Ben enfaite elle est pareil mais elle consomme moins .....


 
https://www.hardware.fr/articles/96 [...] tique.html
 
125W pour la GTX 1060 la plus consommatrice testée sur H.fr contre 210W pour la plus économe des RX 580, même en prenant les valeurs extrêmes favorables à AMD et défavorables à Nvidia c'est juste stupide de s'assoir sur une différence de 85W, c'est la consommation d'un Core i7 mainstream !
 
Perso j'ai une alimentation semi-Passive et une config compacte, ajouter plus de 80W à dissipé et à alimenter sans raison ça me viendrai pas à l'esprit.

Message cité 2 fois
Message édité par Asthon le 15-04-2018 à 11:31:16
n°10354825
sagittaire
Posté le 15-04-2018 à 11:47:57  profilanswer
5Votes positifs
 

Asthon a écrit :

 

https://www.hardware.fr/articles/96 [...] tique.html

 

125W pour la GTX 1060 la plus consommatrice testée sur H.fr contre 210W pour la plus économe des RX 580, même en prenant les valeurs extrêmes favorables à AMD et défavorables à Nvidia c'est juste stupide de s'assoir sur une différence de 85W, c'est la consommation d'un Core i7 mainstream !

 

Perso j'ai une alimentation semi-Passive et une config compacte, ajouter plus de 80W à dissipé et à alimenter sans raison ça me viendrai pas à l'esprit.

 

C'est pas faux.

 

Ceci étant 200W pour un GPU cela reste raisonnable et assez facile aujourd'hui à refroidir, sans avoir de nuisance sonores. Une alim bas de gamme sera aussi suffisante pour alimenter une config 1600X + GTX 580. Le problème se pose surtout à mon avis pour une GTX 1080 vs VEGA 64. Une RX 580 8 Go reste une excellente solution face à la GTX 1060 6 Go. D'ailleurs comme d'habitude, je dirais que le RX 580 vieillira mieux que la GTX 1060 et deviendra de plus en plus perf face à elle dans le temps (c'est déjà un peu le cas avec les jeux DX12/Vulkan de plus en plus nombreux).

 

Ne jamais oublier qu'une GTX 680 et une radeon 7970 étaient comparables en terme de performances à leur sortie. Aujourd'hui on peut encore jouer avec une radeon 7970, qui balaye littéralement en terme de performance une GTX 680.

Message cité 1 fois
Message édité par sagittaire le 15-04-2018 à 11:57:08
n°10354845
drynek
Posté le 15-04-2018 à 12:51:35  profilanswer
1Votes positifs
 

xbala a écrit :


 
Ce n'est pas un fake, mais un test avec une 1070 (donc à l'intérêt limité).
 
https://elchapuzasinformatico.com/2 [...] 700x-x470/


en même temps bencher en 4k ultra avec une 1070 forcement même un nouveau pentium G suit la cadence sans trop de peine en effet  :lol:
c'est ça le truc, en competitif 1080P +140fps oui un gros processeur s'impose, mais en 4k l'avantages c'est que même un vieux i5 sandy bridge sans trop d'OC sortira 60fps les CG ne suivent pas  :lol:  
donc si les 4c/4t ne sont pas mort pour autant, 60fps tous peuvent les sortir sans peine tous les joueurs ne joue pas au FPS a vouloir 140++ ou font de la simu ultra poussé, y à tellement d'autre type de jeux ou le framerate est secondaire par rapport à la qualité.  
pas besoin de 90-100fps pour ouvrir un coffre sur un rpg  [:piranhas1]  
 


---------------
"Toute voiture restant en un morceau pendant plus d'une course est trop lourde"  
n°10354856
Antimasse
Posté le 15-04-2018 à 13:56:17  profilanswer
2Votes positifs
 

Nan mais le 2500K faut arrêter, ça fait 7 ans qu'il est sorti et certains jeux même en 1080p ont du mal avec:
https://www.hardware.fr/articles/96 [...] ux-3d.html
 
Je rappelle que dans ces benchs, c'est une GTX 1080 qui tourne, et là ils sont CPU limited.
Donc le fait que tu trouves le 2500K c'est ton expérience personnelle et non significative.
Et y'a pas que les FPS dans la vie, y'a aussi le stuttering et le manque de threads à prendre en compte et c'est très peu mentionné dans les benchs HardwareFR.
 
J'aimerais bien voir la tête de certains quand cerains jeux refuseront de se lancer à cause du manque de threads, ou auront des performances ridicules dans 1-2 ans...
 

Asthon a écrit :


 
https://www.hardware.fr/articles/96 [...] tique.html
 
125W pour la GTX 1060 la plus consommatrice testée sur H.fr contre 210W pour la plus économe des RX 580, même en prenant les valeurs extrêmes favorables à AMD et défavorables à Nvidia c'est juste stupide de s'assoir sur une différence de 85W, c'est la consommation d'un Core i7 mainstream !
 
Perso j'ai une alimentation semi-Passive et une config compacte, ajouter plus de 80W à dissipé et à alimenter sans raison ça me viendrai pas à l'esprit.


 
Une alimentation semi-Passive ne change rien (à partir du moment où elle est efficace, et y'a de fortes chances que oui), et la config compacte un peu pour le reste de la config.
Mais tu es un cas minoritaire.
 
Après, quelle que soit la consommation de la carte, à partir du moment où le ventirad fait son boulot, ça n'a aucune importance vu que les températures seront maîtrisées.
Ca marche exactement comme pour les CPUs.
 
En dessous de 250W, se soucier de la chauffe et de la consommation d'une carte graphique est un non-sens.  
A moins d'avoir mal choisi sa carte graphique custom, où avoir une alimentation inférieure à 500W (en comptant un overclock CPU atteignant 200W, et je doute que beaucoup de gens y arrivent), le cas général et pas mal de minoritaires seront tranquile.
 

mazingerz a écrit :


 
c'est clair... y a vraiment des gent qui se rentre de fausses idée dans la tête...  
 
et pareil pour toute la gamme
 
faut m'expliquer en quoi une 580 est à la ramasse face a une 1600....  
 
les perf sont similaire voir meilleur pour la 580
seul la conso fait un peut honte...  
mais ça n'empêche en rien de se monter une configue full AMD
 
le seul problème actuellement c'est la flambé des prix  
 


 
La raison est toute simple: C'est que les gens veulent avoir le sentiment d'appartenir au groupe "dominant" (Intel/Nvidia).
En tout cas, c'est bien eux qui se font dominer par ces groupes. Ils en redemandent même avec tous les abus qu'ils subissent et surtout nous font subir.
 

fullstuffman a écrit :


 
L'inconscient collectif, qui est pour beaucoup très collectif. Les 3/4 ont des configs ( comme moi héhé ) moyenne c'est à dire FHD 60Ips et ils crient tous non il faut du Intel bande d'hérétique !!!! Et la 1060 est mieux!!!! . Ah bon et pourquoi??? Ben enfaite elle est pareil mais elle consomme moins ..... ah! Je n'aurais pas de 970 j'aurais prix une 580 8gb au moins niveau vram tu peux pousser les potards à fond . Mais bon l'écart n'est pas assez conséquent donc j'attend les nouvelles gammes pour voir combien de temps je garde la 970 encore jusqu'à avoir un GPU AMD pour accompagner mon 1600x.


 
Et le marketting, faut pas oublier ces manipulateurs ;)
 
Les gens oublient très vite le passé aussi, on sait très bien que le support des cartes AMD depis GCN est excellent, mais non les gens disent que c'est nVidia avec son GeForce experience qui a un meilleur suivi :lol:
Surtout que l'R9 290X est maintenant devant une GTX 780Ti, et que même l'R7 280X (équivalent d'une HD 7970...) est devant une GTX 780, n'en parlons même pas de la GTX 680/770...
 
Le sentiment d'appartenance à un groupe (se sentir "unis", "ensemble", etc dans la connerie marketting oui), les marketteux savent très bien comment ça marche, et l'utilisent pleinement sur une Génération Z désespérément en manque d'attention.


Message édité par Antimasse le 15-04-2018 à 16:13:43
n°10354858
fullstuffm​an
Les poches pleines de loot
Posté le 15-04-2018 à 14:07:59  profilanswer
1Votes positifs
 

Asthon a écrit :


 
Si tu veux que la config reste "moyenne" autant de temps que possible il est assez évident qu'un processeur plus efficace en jeu soit recherché, on achète pas du matériel pour ses specs à temps T on espère toujours avoir un peu de marge !
 


 

Asthon a écrit :


 
https://www.hardware.fr/articles/96 [...] tique.html
 
125W pour la GTX 1060 la plus consommatrice testée sur H.fr contre 210W pour la plus économe des RX 580, même en prenant les valeurs extrêmes favorables à AMD et défavorables à Nvidia c'est juste stupide de s'assoir sur une différence de 85W, c'est la consommation d'un Core i7 mainstream !
 
Perso j'ai une alimentation semi-Passive et une config compacte, ajouter plus de 80W à dissipé et à alimenter sans raison ça me viendrai pas à l'esprit.


 
Ué alors pour le moyen plus haut dans ton message je rigole, mon 1600x tourne tout en ultra au delà des 60 fps donc pour mon écran 1080/60 c'est suffisant et non moyen car il sort ces résultats en étant autour des 30/40% d'utilisation sur les derniers gros triple A et si jamais plus tard je décide de jouer en 2K ou + mon 1600 est au même niveau qu'un I7.... et puis comme dis plus haut on verra dans 3-4 ans si la 1060 boxe encore la 580 grâce à sa faible conso.

n°10354860
Antimasse
Posté le 15-04-2018 à 14:14:00  profilanswer
0Votes positifs
 

Je t'ai +1 mais sérieusement, utilise la ponctuation et des majuscules s'il te plait.
 
Quasiment personne va vouloir te lire, et t'auras écris ces lignes pour rien limite.
C'est juste quasi-impossible à comprendre.


Message édité par Antimasse le 15-04-2018 à 14:14:55
n°10354883
Antimasse
Posté le 15-04-2018 à 15:45:48  profilanswer
0Votes positifs
 

sagittaire a écrit :


Quote saggitaire


 

Citation :


Le gain n'est pas léger. Et il peut apporter au contraire des gains très fort. Et c'est particulièrement justement le cas en jeux en 1080p sur GTX 1080.


 
Les latences ne sont qu'une partie mineure de l'équation, si Zen a un IPC tel que nous le connaissons aujourd'hui, c'est surtout à cause de la partie principale de l'architecture autre que les latences.
 

Citation :


Je t'ai déjà démontré que c'était complètement faux.  
 
- Zen en applicatif c'est juste un peu inférieur à broadwell et Intel n'a pas considérablement progressé depuis en matière d'IPC. D'ailleurs sur le test HFR, l'écart se fait avec des appli qui dépendent surtout de la rapidité du système mémoire (compression 7zip et winrar). C'est aussi une implémentation plus complète d'AVX2 pour des applications comme le x265.


 
Broadwell, c'est Haswell(+)...
L'eDram c'est juste du bonus tout autant que la quantité de cache variable et les instructions, ça ne rentre pas en compte dans l'architecture.
 
Pour l'applicatif, ça m'étonnerais fortement que les programmes utilisant massivement le système mémoire atteigne les 50%, c'est un cas minoritaire.
 
Chose que je regrette fortement dans les tests d'HFR, c'est qu'il n'y ait pas d'I7 4770K, ni d'I5 3570K dans son comparatif 2008-2017.
Donc remontons ici: https://www.hardware.fr/articles/94 [...] tives.html
 
L'I7 4790K de par sa fréquence dépasse l'I7 4770K d'environ 10%.
L'I7 4770K de par son architecture dépasse l'I7 3770K d'aussi 10% environ.
 
En x265, la différence entre l'R5 1500X et l'I7 4790K est d'environ 20%, donc c'est même un cas défavorable pour AMD, car son IPC se situe donc au niveau d'Ivy Bridge si ce dernier avait l'AVX2.
 
Bref, c'est donc bien ce que je dis, Zen est entre Ivy Bridge et Haswell+ en applicatif.
Et vu le peu d'amélioration architecturales qu'aura Zen+, ça montera pour égaliser Haswell+.
 

Citation :


 
- Ce qui fait la perf en jeux c'est pas le CPU mais le GPU. Les tests hardware sont souvent fait dans des conditions qui mettent artificiellement en évidence les perfs CPU par exemple en testant une GTX 1080 OC, voire même une GTX 1080 TI OC en 1080p. Mais de fait, il n'y aura que de très faibles différence entre les CPU HDG avec une GTX 1060 en 1080p, avec une GTX 1080 en 1440p ou avec une GTX 1080 Ti en 2160p.
 


 
Le CPU importe beaucoup pour le moyen-long terme, on l'a maintes fois vu et revu quand les gens ont un problème de stuttering, de jeux qui ne se lancent pas à cause d'un nombre insuffisant de threads ou avec des performances ridicules.
 
Les 4C/4T sont le bas de gamme depuis Mars 2017, bien avant qu'Intel lance ses Core I3 8xxx et il y a une raison derrière.
Ils sont en plus très souvent utilisés à 100%, preuve en est qu'ils sont en fin de parcours pour le gaming.
 
Ce n'est d'ailleurs pas les portages consoles (consoles qui sont 8C) qui vont arranger les choses. Et on est en plus déjà aux 3/4 de la durée de vie commerciale des PS4 et XBox One, je doute fortement qu'ils vont prendre autre chose que du 8T minimum après.
 

Citation :


Ce qui fait les performances actuelles d'Intel c'est justement la fréquence très importante atteinte par Intel à presque 5 Ghz. Justement parce que l'écart l'IPC entre AMD et Intel n'est en fait pas si grand. C'est au contraire un gros avantage pour Intel, y compris pour les jeux (tests en 1080p sur GTX 1080). A une même fréquence un i7-8700K se ferait littéralement balayer en applicatif par un 2700X à 4.7 Ghz et ne serait certainement pas très loin non plus en jeux (toujours en 1080p sur GTX 1080).


 
C'est faux, et ça fait des années (15 ans !) que l'IPC a montré son importance avec l'Athlon 64.
 
Partons d'ici:
https://www.hardware.fr/articles/96 [...] ux-3d.html
 
Je rappelle que l'I7 6700K est à 4.0Ghz et l'I7 7700K à 4.4Ghz sur tous leur cores, soit +400Mhz pour une différence de seulement 5% de performances en plus. Donc à 4.8Ghz, ce qui représente les limites classiques de l'I7 7700k et 8700k, ça n'apportera que 5% de plus encore. Soit +800Mhz pour seulement 10% de plus par rapport à un 6700K. Donc pas grand chose avec en prime une consommation et une chauffe démesurée digne des FX Bulldozer.
C'est bien là la preuve que la fréquence est loin d'être importante.
 
Je sais pas ce que tu racontes, mais l'IPC de Zen par rapport à Skylake+++ c'est -25% en gaming et -15% en applicatif. Et ça explique très bien pourquoi l'I5 7500 de 3.6Ghz full cores dépasse l'R3 1300X (aussi à 3.6Ghz) de 23%.
 
Et c'est la preuve même que l'IPC est largement plus important que la fréquence.
 
Si la fréquence était si importante, nous serions encore à avoir des Pentium D à 10Ghz avec l'"efficacité" énergétique et les "performances" que l'on connait... Et je n'ai même pas encore parlé des CPUs laptops...
Et nous n'aurions d'ailleurs jamais vu les Athlon 64 battre à plate couture les Pentium 4/D, ni Core 2 qui non seulement à battu ces derniers, mais aussi les Athlon 64 à une fréquence inférieure d'1/3.
 
Bref, niveau importance: IPC avant les cores/threads, et la fréquence en dernier.
 

Citation :


D'ailleurs un vieux i7-4790K qu fonctionne à très haute fréquence (4 Ghz de mémoire) reste un excellent processeur pour le jeux et aura un niveau de fps très comparable à tous les CPU HDG actuel par en exemple en 1080p sur GTX 1060. Cela sera aussi le cas d'un vieux i7-2700K avec un OC extrême.  


 
Skylake+++ n'est qu'à environ 10% de plus qu'Haswell+, donc normal qu'un I7 4790K marche encore à l'instant T d'aujourd'hui.
 
L'I7 2700K de 3.6Ghz full cores (pas beaucoup de gens l'ont en plus) c'est Sandy Bridge, qui accuse environ 20% d'IPC en moins qu'Haswell+.
Et ce n'est pas un overclocking à 4.8Ghz qui va rattraper cet écart.
On l'a vu avec Skylake+++, +800Mhz n'apporte que 10% de performances.
Donc avec un I7 2700K, passer de 3.6Ghz à 4.8Ghz n'apportera que 15% de performances en plus avec +1200Mhz au mieux (à cause de l'IPC plus faible), ce qui est toujours pas assez pour rattraper un I7 4770K.
Et encore, je n'ai même pas parler du fait que Sandy Bridge n'a pas d'AVX2.
 
Bref, Il est grand temps de relèguer les 4C à autre chose qu'à du gaming. 2019 sera là pour ça si on a pas encore fait le saut du 8T+.
 

Citation :


Bon ben c'est le retour d'antimasse pour entendre le pire avec son lot de trolling comme d'habitude


 
Vu ce que tu nous sors, permet-moi donc de très largement te réattribuer ce titre.


Message édité par Antimasse le 15-04-2018 à 21:00:07
n°10354896
mazingerz
Posté le 15-04-2018 à 16:41:26  profilanswer
1Votes positifs
 

Asthon a écrit :


 
https://www.hardware.fr/articles/96 [...] tique.html
 
125W pour la GTX 1060 la plus consommatrice testée sur H.fr contre 210W pour la plus économe des RX 580, même en prenant les valeurs extrêmes favorables à AMD et défavorables à Nvidia c'est juste stupide de s'assoir sur une différence de 85W, c'est la consommation d'un Core i7 mainstream !
 
Perso j'ai une alimentation semi-Passive et une config compacte, ajouter plus de 80W à dissipé et à alimenter sans raison ça me viendrai pas à l'esprit.


 
dans ton cas spécifique peux être, mais je doute que ça soit le problème de la masse des gents.
une alim 500w fera tourner le PC sans problème  
 
donc dire à la ramasse pas possible de mettre de l'AMD dans le PC de mr tout le monde faut pas déconner...  
 
et il est clair pour qui est mainstream et ne change pas de CG souvent prendre de l'AMD est généralement gagnant (si je compare les perf de ma 290 face à la NVIDIA 780 de l'époque vendu plus cher je me marre)  
https://www.techspot.com/review/141 [...] ars-later/ (vs une 390 mais ça donne une idée d'ailleur même la 970 se fait niquer )  
 
 


Message édité par mazingerz le 15-04-2018 à 16:50:43
n°10354964
Antimasse
Posté le 15-04-2018 à 19:46:35  profilanswer
0Votes positifs
 

Mieux avec l'indentation, mais t'as oublié les Majuscules :)

n°10354981
computersm​sa
Posté le 15-04-2018 à 20:37:54  profilanswer
0Votes positifs
 

Riseoflegends a écrit :


 
C'est quoi ce calcul? Que représente la résistance thermique dans ce cas? Celle du ventirad? Qui est donc obtenu... en partant de la puissance moyenne émise par le processeur sous une charge sur tous les coeurs (C'est comme ça que intel décrit son TDP). On reviendra forcément au même point, la base pour construire le TDP est bien la consommation du processeur.
 


 

Riseoflegends a écrit :


 
C'est faux le TDP n'est pas une résistance thermique mais une puissance...
 
 


 

Riseoflegends a écrit :


 
Bien sûr que c'est une mesure, tu crois que tes 3 variables sont obtenu comment? A la base il y a quand-même une mesure empirique, c'est obligé.


 
On est d'accord :jap:
 
TDP (Watts) = (tCase°C - tAmbient°C)/(HSF Theta ca) => cette formule permet de calculer quel TDP peut gérer un ventirad selon une situation et sa résistance thermique, ou calculer quel Theta ca il faut par exemple.
Mais le TDP d'un processeur est lié à sa dissipation thermique... qui n'est pas 100 % égale à sa consommation et dont le chiffre peut varier selon le fabricant, par exemple, Intel semble parler de valeur haute moyenne, pas maximum absolue.
 
P = Power, soit puissance... en Watts, c'est une dissipation thermique :hello:
Ce dont parle boudeficelle, c'est le Theta ca...qui lui est bien calculé :)


Message édité par computersmsa le 15-04-2018 à 20:48:58

---------------
www.compumsa.eu : le meilleur e-commerce informatique :D Surtout pour les Belges :)
n°10355126
Jerry_Cbn
Posté le 16-04-2018 à 08:41:27  profilanswer
2Votes positifs
 

Je viens déjà de commander une palette de 2200G ..
 
http://jerry.cbn.free.fr/RavenRidge.jpg
 
Est-ce bien raisonnable ?
 
Allez, go go go AMD !


Message édité par Jerry_Cbn le 16-04-2018 à 08:56:21
n°10355168
HashBoost
Posté le 16-04-2018 à 10:59:37  profilanswer
0Votes positifs
 

boudeficelle a écrit :

tu peux avoir un CPU qui consomme 20 W en charge mais qui a un TDP de 50 W.


Je pense que tu as raté quelque chose avec ton exemple (et par extension ton raisonnement), ou alors tu viens de solutionner le problème mondial de la production d'énergie !

n°10355171
Jerry_Cbn
Posté le 16-04-2018 à 11:10:12  profilanswer
0Votes positifs
 

Tout dépend de la charge remarque xD

n°10355172
HashBoost
Posté le 16-04-2018 à 11:15:07  profilanswer
1Votes positifs
 

Antimasse a écrit :

Bref, niveau importance: IPC avant les cores/threads, et la fréquence en dernier.


Avec tes œillères et ton enthousiasme pour nous écrire des pavés, tu oublies que IPC = instructions par cycle et que donc une légère augmentation de fréquence sera tout autant bénéfique qu'un gain d'IPC. La vraie interrogation est : est il plus facile d'augmenter l'IPC ou la fréquence ? Chez AMD c'est l'IPC (et comme tu es un fanboy de cette marque c'est ce que tu défends), chez Intel c'est la fréquence.
 
Question réglée.

n°10355198
sagittaire
Posté le 16-04-2018 à 12:23:09  profilanswer
2Votes positifs
 

C'est quand même assez fatigant de lire ta masse d'approximation antimasse ...
 

Citation :


Les latences ne sont qu'une partie mineure de l'équation, si Zen a un IPC tel que nous le connaissons aujourd'hui, c'est surtout à cause de la partie principale de l'architecture autre que les latences.


 
Non encore une fois c'est du n'importe quoi. La latence et la vitesse mémoire ont un rôle primordiale en jeux, comme la fréquence CPU du reste. Le 2700X permettra des gain importants en jeux (enfin au sens du test de HFR, aka avec une GTX 1080 en 1080p, ce qui amplifie nettement les écarts, encore une fois). Arrête avec tes histoires d'IPC. L'archicture Skylake-X qui a un IPC comparable à Skylake (si on exclu l'AVX-512), est assez lourdement handicapé en jeux à cause de l'interconnexion mesh qui pénalise la latence et BP mémoire.
 
 

Citation :

Pour l'applicatif, ça m'étonnerais fortement que les programmes utilisant massivement le système mémoire atteigne les 50%, c'est un cas minoritaire.


 
Non! 7zip et winrar, c'est 16% du poids de l'indice moyen de HFR.  
 
 

Citation :

En x265, la différence entre l'R5 1500X et l'I7 4790K est d'environ 20%, donc c'est même un cas défavorable pour AMD, car son IPC se situe donc au niveau d'Ivy Bridge si ce dernier avait l'AVX2.


 
Non! Intel à un avantage assez grand face à AMD en x265 à cause d'une implémentation AVX2 plus complète. Si tu fais un encodage x265 en désactivant les SIMD AVX2, tu retrouve à peu près la même hiérarchie qu'avec un encodage x264.
 
 

Citation :

Bref, c'est donc bien ce que je dis, Zen est entre Ivy Bridge et Haswell+ en applicatif.
Et vu le peu d'amélioration architecturales qu'aura Zen+, ça montera pour égaliser Haswell+.


 
Non! Moi je pourrais aussi dire que Zen c'est entre un PIV et Broadwell en terme de performance. Mais il n'en demeure pas moins qu'un Zen est nettement plus proche de Broadwell. A fréquence égale, et à nombre de coeur égal, Zen fait aussi bien que Haswell sur l'indice applicatif de HFR. Un R5 1500X, 4C/8T, à 3.5 Ghz c'est un indice moyen de 155, un i7-6700K, 4C/8T, à 4.0 Ghz c'est un indice moyen de 195. En scalant parfaitement la fréquence, on est donc à une différence de performance de 10% entre Zen et Kaby Lake en applicatif sur l'indice de HFR. Et Zen+, ayant un système mémoire plus performant que celui de Zen, on aura certainement de bien meilleures performances en compression 7zip et winrar. Ce qui réduira encore l'écart entre Zen+ et Kaby Lake en applicatif sur l'indice de HFR.
 
 

Citation :

Les 4C/4T sont le bas de gamme depuis Mars 2017, bien avant qu'Intel lance ses Core I3 8xxx et il y a une raison derrière.
Ils sont en plus très souvent utilisés à 100%, preuve en est qu'ils sont en fin de parcours pour le gaming.


 
Cela n'a rien avoir avec les jeux si Intel a revu sa gamme. C'est juste sous la pression d'AMD que cela c'est fait. Dans les fait un i3-7350K 2C/4T va te lancer tous les jeux existants sans aucun problème. Et tu aura un niveau de performance très comparable en 1080p avec une GTX 1060 entre un i3-7350K et un i7-8700K.  
 
 

Citation :

C'est faux, et ça fait des années (15 ans !) que l'IPC a montré son importance avec l'Athlon 64.


 
Ca fait 15 ans comme tu dis. Compare par exemple Skylake et Skylake-X.  
 
 

Citation :

Je rappelle que l'I7 6700K est à 4.0Ghz et l'I7 7700K à 4.4Ghz sur tous leur cores, soit +400Mhz pour une différence de seulement 5% de performances en plus. Donc à 4.8Ghz, ce qui représente les limites classiques de l'I7 7700k et 8700k, ça n'apportera que 5% de plus encore. Soit +800Mhz pour seulement 10% de plus par rapport à un 6700K. Donc pas grand chose avec en prime une consommation et une chauffe démesurée digne des FX Bulldozer. C'est bien là la preuve que la fréquence est loin d'être importante.


 
Mais 5% c'est déjà énorme ... pour l'influence d'un CPU sur les performances GPU. De plus je pense que le test HFR atteind les limites de la GTX 1080 même en 1080p. D'ailleurs un i7-8700K ne fait pas mieux qu'un i7-7700K en jeux dans le test de HFR. Et je pense qu'un i7-4790K avec un gros OC devrait faire aussi bien qu'un i7-8700K à sa fréquence de base.
 
 

Citation :

L'I7 2700K de 3.6Ghz full cores (pas beaucoup de gens l'ont en plus) c'est Sandy Bridge, qui accuse environ 20% d'IPC en moins qu'Haswell+.
Et ce n'est pas un overclocking à 4.8Ghz qui va rattraper cet écart.


 
https://www.youtube.com/watch?v=D8x4X5rpR30
test réalisé avec i7-2700K, i7-4790K et i7-8700K à 4.7 Ghz sur GTX 1080 Ti en 1440p. Comme tu peux le voir, un i7-2700K à 4.7 Ghz, c'est encore largement correct pour jouer même avec une GTX 1080 Ti en 1440p avec réglages Ultra.
 
 

Citation :

On l'a vu avec Skylake+++, +800Mhz n'apporte que 10% de performances.
Donc avec un I7 2700K, passer de 3.6Ghz à 4.8Ghz n'apportera que 15% de performances en plus avec +1200Mhz au mieux (à cause de l'IPC plus faible), ce qui est toujours pas assez pour rattraper un I7 4770K.


 
Je viens de te prouver le contraire ci-dessus. Un i7-2700K à 4.7 Ghz te poutre largement un i7-4770K à ses fréquences de base en jeux sur le test de HFR. Le problème c'est que le scaling que tu fais n'est pas linéaire et donc tes calculs sont faux. Comme je te l'ai dit, on arrive sans doute très proche des limites GPU avec une GTX 1080 OC en 1080p (test de HFR) avec les CPU HDG. Or on est sans doute très loin de les atteindre avec un i7-2600K à ses fréquences de bases. Tu aura donc une augmentation de performance bien plus importante en jeux si tu passe de 3.5 Ghz à 4.0 Ghz que si tu passe de 4.0 Ghz à 4.5 Ghz et encore moins si tu passe de 4.5 Ghz à 5.0 Ghz.
 
 

Citation :

Et encore, je n'ai même pas parler du fait que Sandy Bridge n'a pas d'AVX2.


 
Cela n'a strictement aucune influence en jeu. Je ne crois pas que les jeux utilisent les SIMD AVX2.


Message édité par sagittaire le 16-04-2018 à 12:27:25
n°10355203
sagittaire
Posté le 16-04-2018 à 12:47:39  profilanswer
1Votes positifs
 

et plein d'autre vidéos ici qui comparent des vieux CPU face à des CPU récents:
 
- i3 8350K (4.9GHz) vs i7 2600K (4.7GHz) sur GTX 1080 Ti en 1080p
https://www.youtube.com/watch?v=kBtjyOkZhUQ
 
-i7 2600K (4.7GHz) OC vs i7 7700K (4.7GHz) OC sur Vega56 en 1080p
https://www.youtube.com/watch?v=IwKHheLHPDo
 
Y'a plein d'autres tests comme qui confrontent de vieilles configs avec ou sans OC sur ce site. Et ça permet aussi de casser pas mal de légendes urbaines, surtout sur les performances en jeux pour les CPU.


Message édité par sagittaire le 16-04-2018 à 13:06:33
n°10355401
castfrt
Posté le 16-04-2018 à 19:57:22  profilanswer
1Votes positifs
 

Vous êtes faits l'un pour l'autre, joli couple ! :lol:
 
Pourquoi faire compliqué quand on peut faire simple ?:
https://www.gamersnexus.net/images/media/2017/CPUs/2600k/2600k-revisit-wd2_1.png
Voilà qui devrait clore le débat :jap:

Message cité 1 fois
Message édité par castfrt le 16-04-2018 à 20:26:40
n°10355413
havoc_28
Posté le 16-04-2018 à 20:15:10  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
C'est pas faux.
 
Ceci étant 200W pour un GPU cela reste raisonnable et assez facile aujourd'hui à refroidir, sans avoir de nuisance sonores. Une alim bas de gamme sera aussi suffisante pour alimenter une config 1600X + GTX 580. Le problème se pose surtout à mon avis pour une GTX 1080 vs VEGA 64. Une RX 580 8 Go reste une excellente solution face à la GTX 1060 6 Go. D'ailleurs comme d'habitude, je dirais que le RX 580 vieillira mieux que la GTX 1060 et deviendra de plus en plus perf face à elle dans le temps (c'est déjà un peu le cas avec les jeux DX12/Vulkan de plus en plus nombreux).  
 
Ne jamais oublier qu'une GTX 680 et une radeon 7970 étaient comparables en terme de performances à leur sortie. Aujourd'hui on peut encore jouer avec une radeon 7970, qui balaye littéralement en terme de performance une GTX 680.


 
Hum, les jeux DX12/Vulkan de plus en plus nombreux ? ça semble pas vraiment la tendance, si on compare le nombre de sorties de jeux DX12/Vulkan en 2016 et 2017 : /. Ces Deux APIs ne semblent pas vraiment prendre ...  
 
De plus Kepler a vieilli à cause de certaines limitations sur le plan architecturales, où par exemple une GTX 780 Ti est sur certains tests théorique au niveau d'une GTX 960 ... (Fillrate, Triangles rendus), limitations que n'ont pas Maxwell et Pascal.
 
Si on compare Hawaii au GM 204, GM204 sorti 1 an quasiment après hawaii,  mais qui a déjà plus de 3 ans et demis et donc 4 ans et demi pour Hawaï, l'écart est resté relativement stable, petite amélioration coté AMD mais rien de très significatif.  
 
Quasiment 2 ans après la sortie des GTX 1060 / RX480/580, l'écart n'a pas non plus énormément bougé, en faveur d'AMD mais rien de transcendent non plus. A nouveau, le fait est que DX12/Vulkan ne s'implante pas vraiment, au contraire de ce que tu as affirmé, ça changera peut être cette année, mais pour l'instant c'est pas trop ça.


Message édité par havoc_28 le 16-04-2018 à 20:40:09
n°10355530
castfrt
Posté le 17-04-2018 à 00:05:04  profilanswer
2Votes positifs
 

Savoir qui de vous deux à raison, on s'en fout un peu à vrai dire.
 
Par contre, prendre Youtube comme source c'est comme citer CNN. :whistle:

Message cité 1 fois
Message édité par castfrt le 17-04-2018 à 00:41:52
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
Problème FPS, LAGG. GTX 1060 ET RYZEN 3 1200[HFR] Actu : Nvidia : fin du support Fermi et 32-bit
[HFR] Actu : be quiet! lance les Dark Rock 4 et Dark Rock Pro 4[HFR] Actu : LGA4189 pour les Xeon Ice Lake !
Compatibilite carte mere AMD Rysen 2-1Crossfire AMD Radeon HD 7870
win 7 peut installer un ryzen ? 
Plus de sujets relatifs à : [HFR] Actu : Les AMD Ryzen Pinnacle Ridge en précommande


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR