Forum |  HardWare.fr | News | Articles | PC | Prix | S'identifier | S'inscrire | Aide | Shop Recherche
2027 connectés 

 



 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

[HFR] Actu : Un Coffee Lake 8 coeurs en préparation ?

n°10365408
Dark Schne​iderr
⭐⭐
Posté le 08-05-2018 à 11:41:34  profilanswer
1Votes positifs
 

Reprise du message précédent :
Par contre en applicatif un R5 2600X c'est + 27,4% de perfs en plus par rapport au i5 8400.

 

Par conséquent, les R5 ont une réserve de puissance encore inutilisée par les jeux actuellement.

 

Avec les très bonnes ventes des Ryzen auprès du grand public, cela ne pourra que s'améliorer pour que cela soit bien prise en compte dans les jeux futurs.

 

Message cité 1 fois
Message édité par Dark Schneiderr le 08-05-2018 à 11:43:13

---------------
Darsch
mood
Publicité
Posté le 08-05-2018 à 11:41:34  profilanswer
 

n°10365449
HashBoost
Posté le 08-05-2018 à 13:29:58  profilanswer
4Votes positifs
 

Dark Schneiderr a écrit :

Par contre en applicatif un R5 2600X c'est + 27,4% de perfs en plus par rapport au i5 8400.
Par conséquent, les R5 ont une réserve de puissance encore inutilisée par les jeux actuellement.  
Avec les très bonnes ventes des Ryzen auprès du grand public, cela ne pourra que s'améliorer pour que cela soit bien prise en compte dans les jeux futurs.


J'avais préparé une réponse un peu longue sur ton fantasme d'exploiter la "réserve de puissance" des AMD mais je me rends compte que si tu n'es pas capable de comprendre ce qui a été expliqué plusieurs fois dans les articles de tests des Ryzen et dans les commentaires, c'est peine perdue. N'est pire aveugle que celui qui ne veut pas voir.

n°10365457
sagittaire
Posté le 08-05-2018 à 14:00:14  profilanswer
0Votes positifs
 

Dark Schneiderr a écrit :

Par contre en applicatif un R5 2600X c'est + 27,4% de perfs en plus par rapport au i5 8400.
Par conséquent, les R5 ont une réserve de puissance encore inutilisée par les jeux actuellement.  
 
Avec les très bonnes ventes des Ryzen auprès du grand public, cela ne pourra que s'améliorer pour que cela soit bien prise en compte dans les jeux futurs.


 
Non. Ce qui est valable pour AMD l'est aussi pour Intel. Les jeux tirent mal parti des CPU modernes car ils ne sont pas capables d'exploiter leur très fort nombres de thread. Mais si demain les jeux y arrivent cela profitera autant à AMD qu'à Intel. Ce qui explique le "déficit" actuel d'AMD en jeux, et je met "déficit" entre guillemets car c'est un déficit virtuel (en 1080p sur GTX 1080) qui ne correspond pas la réalité, s'explique par 3 choses:
- Latence mémoire plus haute pour AMD: même si le 2700X améliore grandement la situation, Intel garde un avantage avec coffee lake.
- Fréquence plus haute pour AMD: même si le 2700X améliore la situation, Intel garde un gros avantage avec coffee lake.
- Architecture en module CCX pour AMD (qui explique aussi les latences plus hautes): l'utilisation de DDR4 rapide (3200 et plus) permettra de combler encore un peu plus les écarts sur Intel.
 
Mais bon encore une fois ce qui fait la performance en jeux c'est le GPU et pas le CPU, dans le haut de gamme en tout cas. Dans la quasi-intégralité des configurations réalistes gamer, AMD avait déjà atteint les seuils maximum de performances avec zen, qui faisaient qu'un 1800X ou un 1600X étaient au niveau d'un i7-7700K ou d'un i7-8700K en jeu. En fait un 2700X n'apporte strictement rien face à un 1800X, sinon que même sur GTX 1080 Ti en 1080p il n'y a presque plus d'écart entre Intel et AMD. De la même façon un i7-7700K n'apportait déjà rien face à un i7-6700K.
 
Là où Intel a réellement les moyens de faire mal à AMD c'est en applicatif. Si demain Intel se décide à lâcher les watts (dans tous les sens du terme) sur un CPU 8C/16T avec une base d'archi Coffee Lake cela donne ça:
- i7-9700K 8C/16T
- Fréquence turbo 1C/4.9 2C/4.8 4C/4.7 6C/4.6 8C/4.5
- eDram de 128 Mo
 
Alors bien sûr ce CPU serait très largement au-dessus de 100W en TDP, et certainement plus proche de 200W que de 100W. Il ne se vendrait certainement pas à moins de 400$ non plus. Mais Intel a actuellement techniquement au moins les moyens de faire ça. Et un tel CPU se rapprocherait sérieusement de la barre des 400 points dans l'indice de HFR.


Message édité par sagittaire le 08-05-2018 à 14:11:33
n°10365519
sebaas
Posté le 08-05-2018 à 16:39:36  profilanswer
1Votes positifs
 

hum quel prix Intel va t'il bien pouvoir appliquer pour ce joli monstre a 8 têtes / 16 pâtes  
 
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcT7IUyq4mfWXBNZXFsa-oRMDCY0qW4EMaZbgBVe3nH4Vvyn9G2O


Message édité par sebaas le 08-05-2018 à 16:40:38
n°10365559
despe1990
Posté le 08-05-2018 à 18:41:06  profilanswer
0Votes positifs
 

@sagittaire: Tu as raison de rappeler dans quasiment chacun de tes messages que les CPUs Intel sont devant ceux d'AMD dans des conditions de test faites pour montrer la dépendance CPU mais qui n'est pas franchement représentative des conditions réelles.
Mais combien de fois va-t-il falloir le rabâcher avant que les kikoolols arrêtent de balancer bêtement: "un i5 poutre un R7 in game!!! lol"?
Moi quand je regarde les tests qui me concernent, ie en 1440p avec une 1080Ti ben j'en conclue que i5, i7 , R5 et R7 c'est équivalent.

n°10365633
Dark Schne​iderr
⭐⭐
Posté le 08-05-2018 à 21:08:34  profilanswer
2Votes positifs
 

HashBoost a écrit :


J'avais préparé une réponse un peu longue sur ton fantasme d'exploiter la "réserve de puissance" des AMD mais je me rends compte que si tu n'es pas capable de comprendre ce qui a été expliqué plusieurs fois dans les articles de tests des Ryzen et dans les commentaires, c'est peine perdue. N'est pire aveugle que celui qui ne veut pas voir.

 

Tu as tout à fait raison de t'être épargné une réponse plus longue.

 

Quand je vois en commentaire "HashBoost",

 

Je sais que la raison fait souvent kaputt.

 

Bien le bonsoir !

 



Message édité par Dark Schneiderr le 08-05-2018 à 21:12:09

---------------
Darsch
n°10365660
HashBoost
Posté le 08-05-2018 à 22:12:08  profilanswer
0Votes positifs
 

Sagittaire te l'a quand même faite mais je suppose que tu n'aura toujours pas compris.

n°10365664
Zack38
Posté le 08-05-2018 à 22:16:55  profilanswer
0Votes positifs
 

despe1990 a écrit :

@sagittaire: Tu as raison de rappeler dans quasiment chacun de tes messages que les CPUs Intel sont devant ceux d'AMD dans des conditions de test faites pour montrer la dépendance CPU mais qui n'est pas franchement représentative des conditions réelles.
Mais combien de fois va-t-il falloir le rabâcher avant que les kikoolols arrêtent de balancer bêtement: "un i5 poutre un R7 in game!!! lol"?
Moi quand je regarde les tests qui me concernent, ie en 1440p avec une 1080Ti ben j'en conclue que i5, i7 , R5 et R7 c'est équivalent.


 
Tu déformes ses propos là :o  
 
Mais sinon tu as raison, avec seulement 10 et 7% d'avance entre un i7-8700K/R7-2700X et un i5-8600K/R5-2600X en jeu, on peut dire que l'écart est trop mince pour être significatif. Surtout qu'on parle des CPU parmi les plus puissants pour jouer.
 
Rien à voir avec un FX 9595 qui se prenait 77% par un i7-7700K : aujourd'hui, les CPU Intel et AMD se valent. :)


---------------
Méta-Topic Hardware
n°10365690
dave76
A momentary lapse of reason
Posté le 08-05-2018 à 23:06:39  profilanswer
1Votes positifs
 

L'écart est peut être mince mais il est tout de même là, entre un sprinter qui court en 9.7 le 100m et l'autre en 9.9, l'écart est mince mais l'un est premier et l'autre 3ème, je ne fais pas mon fanboy c'est juste que personnellement mettre un peu plus d'argent ne me dérange pas si la qualité est au rendez vous.Surtout que derrière j'overclocke mes cpu au maximum de leur capacité et là dessus Amd à un train de retard

Message cité 1 fois
Message édité par dave76 le 08-05-2018 à 23:08:39
n°10365701
sagittaire
Posté le 08-05-2018 à 23:51:20  profilanswer
0Votes positifs
 

dave76 a écrit :

L'écart est peut être mince mais il est tout de même là, entre un sprinter qui court en 9.7 le 100m et l'autre en 9.9, l'écart est mince mais l'un est premier et l'autre 3ème, je ne fais pas mon fanboy c'est juste que personnellement mettre un peu plus d'argent ne me dérange pas si la qualité est au rendez vous.Surtout que derrière j'overclocke mes cpu au maximum de leur capacité et là dessus Amd à un train de retard


 
Si c'est juste pour jouer, cela ne sert strictement à rien. Tu flingue ton CPU pour rien. Un i7-8700K à 5.0 Ghz avec une GTX 1080 (Ti) en 1440p ou une GTX 1060 en 1080p ne sera pas plus rapide qu'un i7-8700K stock. Et en applicatif un 2700X à 4.3 Ghz reste devant un i7-8700K à 5.0 Ghz.
 
Pour finir, sur les CPU modernes, l'OC ne sert plus à grand chose. Tout simplement parce que si un i7-8700K est donné à 3.7 Ghz de base, en jeux il tournera certainement à 4.5 Ghz la plupart du temps, voir plus (un i7-8700K ça tourne à 4.3 Ghz sur une charge 100% sur 6 coeurs). De la même façon, le turbo du 2700X a une ganularité très fine: tu n'obtiendra un réel gain avec le 2700X, qu'avec un OC à 4.3 Ghz sur des charge CPU à 100% sur ses 8 coeurs (genre encodage x264). A mon avis ça ne sert plus à grand chose de faire un OC, particulièrement sur un 2700X. Sur un i7-8700K, il n'est vraiment utile que sur des application à charge forte, dans ce cas tu aura un gain max de l'ordre de 15% à 5.0 Ghz. Mais en tout cas c'est beaucoup moins que du temps des Sandy Bridge: là tu pouvais avoir des gains de 30 à 50% avec un i7-2600K qui montait au minimum à 4.5 Ghz et à 5.0 Ghz avec de la chance.


Message édité par sagittaire le 09-05-2018 à 00:01:02
mood
Publicité
Posté le 08-05-2018 à 23:51:20  profilanswer
 

n°10365712
dave76
A momentary lapse of reason
Posté le 09-05-2018 à 00:51:15  profilanswer
0Votes positifs
 
n°10365738
Dark Schne​iderr
⭐⭐
Posté le 09-05-2018 à 07:36:32  profilanswer
0Votes positifs
 

Iil y a des moments où le R7 est au-dessus du 8700K.

 

https://youtu.be/rt6h-D1ZG9g?t=2m34s

 

Le reste c'est en moyenne une différence de 10%, avec un CPU usage moindre pour le R7.

 

A noter des perfs similaires dans Far Cry 5 et AC:O quand la caméra englobe une grande part de la map.

 

En fait le R7 2700X correspondrait à un i7 8700 non-k dans les jeux.

 

Dans la vidéo, il y a des choix de settings en 1280x720. Quid en 1440p ou en 4K ? A mon avis les scores seraient bien similaires entre les 2 CPU.

 

C'est pas mal sachant d'où revient AMD.

  


Message cité 1 fois
Message édité par Dark Schneiderr le 09-05-2018 à 07:43:25

---------------
Darsch
n°10365741
oufouf84
Posté le 09-05-2018 à 07:44:33  profilanswer
0Votes positifs
 

Dark Schneiderr a écrit :

Iil y a des moments où le R7 est au-dessus du 8700K.  
 
https://youtu.be/rt6h-D1ZG9g?t=2m34s
 
Le reste c'est en moyenne une différence de 10%, avec un CPU usage moindre pour le R7.
 
En fait le R7 2700X correspondrait à un i7 8700 non-k dans les jeux.
 
C'est pas mal sachant d'où revient AMD.
 
 
 
 


 
 
c'est même plus que pas mal, car depuis sandy, intel ne se bougeait plus vraiment le cul, et là ryzen arrive et dans la foulé intel nous pond enfin (un peut en catimini) des CPU à plus de 4c pour LGA 11xx sans hausse significative de prix, donc merci AMD de faire un peut bouger les choses  :jap:  

n°10365745
yvrogne89
Posté le 09-05-2018 à 08:22:37  profilanswer
2Votes positifs
 


 
mais qui joue en 720p de nos jours...
un peu de sérieux stp.

n°10365748
vladobar
J'aime pas quand ça rame…
Posté le 09-05-2018 à 08:46:06  profilanswer
1Votes positifs
 

yvrogne89 a écrit :

 

mais qui joue en 720p de nos jours...
un peu de sérieux stp.


Surtout, qui joue en 720p avec un 8700K et un gros GPU :p

 

Sinon, sur les gros titre je joue en 720p … sur ma télé et avec un A10 7850K :D


Message édité par vladobar le 09-05-2018 à 08:47:39
n°10365761
despe1990
Posté le 09-05-2018 à 10:01:31  profilanswer
1Votes positifs
 


 
Oui elle est net en 720p, mais qui joue en 720p avec un 8700k et une 1080?????
 
C'est pas possible les gens comme toi qui généralise sans réfléchir! Regarde les tests de guru3d en 1440p pour changer.

n°10365859
landouille
yolo
Posté le 09-05-2018 à 14:39:37  profilanswer
0Votes positifs
 

http://www.guru3d.com/articles_pag [...] ew,25.html
 
en 1440P y'a quasi aucune difference sur les fps du coup autant prendre le 2700X pour avoir les perfs en applicatif en plus, je vais plutot attendre un intel 8 cores perso :D


Message édité par landouille le 09-05-2018 à 14:40:48
n°10365917
sagittaire
Posté le 09-05-2018 à 16:44:37  profilanswer
1Votes positifs
 


 
Ah bon tu joue avec une GTX 1080 en 720p? Sérieusement? C'est même parfaitement absurde de jouer avec des jeux à 180 fps quand on a un refresh écran qui est limité à 144 Hz. C'est vraiment consommer des watts pour rien. C'est toujours amusant de voir que ces résultats sont pris au premier degré sans se poser la question de leurs pertinences. Si tu fais les même tests en 800x600 tu obtiendra même des écarts encore plus grand.
 
Voilà ce que tu obtiendra avec une GTX 1080 (Ti) dans la très grande majorité des cas:
 
http://www.guru3d.com/index.php?ct=articles&action=file&id=39853
 
http://www.guru3d.com/index.php?ct=articles&action=file&id=39854
 
http://www.guru3d.com/index.php?ct=articles&action=file&id=39855
 
 
... Un nivellement des performances avec les hautes résolutions. Avec une GTX 1080 Ti (ou GPU inférieure) cela se fera à partir de 1440p (ou résolution supérieure) et avec une GTX 1060 (ou GPU inférieure) cela se fera à partir de 1080p (ou résolution supérieure). Et ces cas de figures doivent représenter la quasi-intégralité des configurations gamers sinon l'intégralité à cette date (sauf sur portable bien sûr). C'est pour ça que la supériorité supposée d'Intel en jeux est en fait une supériorité théorique, qui ne correspond pas à la réalité des configs gaming actuelles. Bon après c'est vrai que présenter des tests jeux pour des review CPU avec tous les CPU a égalité présente peu d'intérêt mais c'est pourtant ces graphiques qui représentent la réalité des performances in game. Ce genre de graphique permet de voir qu'un vieux i7-2600K avec un OC à 4.5 Ghz permettra aussi d'obtenir les seuils max de performances en 1440p ou en 2160p. Et oui qui l'eut cru. Après avoir vu ça on doit se trouver bien bête d'avoir mis 400€ dans un CPU récent pour une config dédiée aux jeux en 1440p ou 2160p alors que cela ne sert strictement à rien ... ;-)


Message édité par sagittaire le 09-05-2018 à 17:10:27
n°10366094
dave76
A momentary lapse of reason
Posté le 09-05-2018 à 22:03:34  profilanswer
0Votes positifs
 

Vu le test de HDFR en appli le 2700x est devant le 8700k grâce a ses 2 cores en plus et en gaming l'Intel est devant ( 166.2 vs 152.1 ) , du tout bon pour le 9700k qui quand il sortira aura droit à quelques optimisations en plus, s'il sort à un prix qui tourne entre 370/399 euros c'est du tout bon.En passant vous ne devinez pas pourquoi le test est fait en 720p? vous êtes sérieux?

Message cité 1 fois
Message édité par dave76 le 09-05-2018 à 22:12:39
n°10366145
sagittaire
Posté le 09-05-2018 à 23:38:44  profilanswer
3Votes positifs
 

dave76 a écrit :

Vu le test de HDFR en appli le 2700x est devant le 8700k grâce a ses 2 cores en plus et en gaming l'Intel est devant ( 166.2 vs 152.1 ) , du tout bon pour le 9700k qui quand il sortira aura droit à quelques optimisations en plus, s'il sort à un prix qui tourne entre 370/399 euros c'est du tout bon.En passant vous ne devinez pas pourquoi le test est fait en 720p? vous êtes sérieux?

 

1) Non on devine pas. C'est juste un paramètre qui te permet d'être CPU limited et rien d'autre. Ils auraient très bien pu utiliser une résolution de 800x600 aussi. Cela ne correspond à strictement aucune réalité gaming aujourd'hui. L'entrée de gamme des écrans c'est 1080p. Et tu n'utilise certainement pas une GTX 1080 à 600€ pour jouer avec un écran 1080p d'entrée de gamme.

 

2) Un i7-9700K n'apportera strictement rien de plus en jeux, de la même manière qu'un i7-8700K n'apporte strictement rien de plus par rapport à un i7-7700K.

 

3) En applicatif un i7-9700K 8C/16T aurait certainement le potentiel technique pour mettre un 2700X à genou (et même un 2800X si AMD voulait le sortir), mais cela devrait se faire, je pense, avec une explosion du côté du TDP. Je ne pense pas qu'Intel le fera et c'est tant mieux d'ailleurs, car faire des CPU qui explosent les limites de consommation électrique ne fait plus sens. Et puis ceux qui voudront aller plus loin en terme de perf pourront toujours faire un gros OC à 5.0 Ghz. Après tout c'est bien la philosophie des CPU de type K de pouvoir faire ça si on le veut. Moi je préfère un 2700, extrêmment efficace et performant qui consomme peu, à un 2700X qui apporte 15% de perf en plus mais en consommant le double.


Message édité par sagittaire le 09-05-2018 à 23:52:13
n°10366196
Asthon
Posté le 10-05-2018 à 07:11:07  profilanswer
0Votes positifs
 

sagittaire a écrit :


1) Non on devine pas. C'est juste un paramètre qui te permet d'être CPU limited et rien d'autre. Ils auraient très bien pu utiliser une résolution de 800x600 aussi. Cela ne correspond à strictement aucune réalité gaming aujourd'hui. L'entrée de gamme des écrans c'est 1080p. Et tu n'utilise certainement pas une GTX 1080 à 600€ pour jouer avec un écran 1080p d'entrée de gamme.


 
T'es au courant que les benchmarks c'est synthétique ?
 
Autant les benchs de jeux en basse résolution pour éviter de ne tester que le GPU que les benchs applicatifs du genre compression vidéo ?
 
Le but des tests c'est de comparer des produits entre eux, pas de comparer la config de Kevin avec la config Jean-Eudes !
 
Tu t'imagines faire un bench de débit réseau entre deux processeurs mais utiliser une carte 100 Mbits pour conclure "il n'y a pas de différence entre ces deux produits" ?

n°10368470
sagittaire
Posté le 12-05-2018 à 18:49:10  profilanswer
0Votes positifs
 

Asthon a écrit :


 
T'es au courant que les benchmarks c'est synthétique ?
 
Autant les benchs de jeux en basse résolution pour éviter de ne tester que le GPU que les benchs applicatifs du genre compression vidéo ?
Le but des tests c'est de comparer des produits entre eux, pas de comparer la config de Kevin avec la config Jean-Eudes !
Tu t'imagines faire un bench de débit réseau entre deux processeurs mais utiliser une carte 100 Mbits pour conclure "il n'y a pas de différence entre ces deux produits" ?


 
bien sûr que non. Presque aucun (sinon aucun) des benchs du protocole HFR n'est un test synthétique. Ils correspondent à une situation réelle d'utilisation. Un benchmark synthétique c'est par exemple 3Dmark, PCMark ou cinebench.
 
J'ai créé le bench x264 et x265 qu'utilise le protocole applicatif HFR et c'est une situation d'encodage bien réelle d'un sample de bluray bien réel, donc je sais de quoi je parle. Même chose pour les jeux: ce sont des exemples d'utilisation bien réel en conditions bien réelles. Même si à mon humble avis très peu de monde jouent en 1080p avec une GTX 1080 OC et qu'il aurait mieux valu utiliser une GTX 1060 en 1080p ou une GTX 1080 en 1440p.
 
Tu raconte donc n'importe quoi sans même savoir de quoi tu parle. Dans un bench jeux en 480p, 600p ou en 720p, tu donnera une très grande importance au CPU et donc tu verra d'importantes différences entre les CPU sur une GTX 1060 par exemple. Mais si tu passe en 1080p ou 1440p sur GTX 1060, tu ne verra plus aucune différence entre les CPU, même avec un vieux 2600K à 4.5 Ghz. L'un est un bench synthétique qui ne correspond à aucune situation réel d'utilisation. L'autre test est une simulation qui va te montrer quelle seront les différences d'une configuration réaliste à l'autre. La vérité c'est que pour la quasi-intégralité des configurations réalistes, tu ne pourra mesurer aucune différence en jeux entre le haut et moyen de gamme de Intel vs AMD, à moins de te mettre dans une configuration artificielle qui va faire apparaitre des différences non moins artificielles. Faut donc arrêter avec les poncifs du genre: "un CPU Intel c'est mieux pour jouer qu'un CPU AMD". C'est complètement faux et c'est très simple à démontrer.
https://www.tomshardware.fr/article [...] -2817.html

Message cité 1 fois
Message édité par sagittaire le 12-05-2018 à 19:30:38
n°10368480
Zack38
Posté le 12-05-2018 à 19:05:34  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
J'ai créé le bench x264 et x265 qu'utilise le protocole applicatif HFR et c'est une situation d'encodage bien réelle d'un sample de bluray bien réel, donc je sais de quoi je parle. Même chose pour les jeux: ce sont des exemples d'utilisation bien réel en conditions bien réelles. Même si à mon humble avis très peu de monde jouent en 1080p avec une GTX 1080 OC et qu'il aurait mieux valu utiliser une GTX 1060 en 1080p ou une GTX 1080 en 1440p.
 


 
Tu fais/faisais partie de la team HFR ?? :??:  
 
(Je reviens après une longue vacance, désolé :o )


---------------
Méta-Topic Hardware
n°10368495
sagittaire
Posté le 12-05-2018 à 19:23:59  profilanswer
1Votes positifs
 

Zack38 a écrit :

 

Tu fais/faisais partie de la team HFR ?? :??:

 

(Je reviens après une longue vacance, désolé :o )

 

Non j'ai juste créé leur bench x264/x265.

 

Il n'est d'ailleurs pas parfait: un encodage x265 en 2160p aurait été bien meilleur. Le codec HEVC possède un design qui est bien plus adapté aux encodages 2160p. Une source 1080p n'arrive pas à saturer un CPU à plus de 8 threads et l'efficience du codec est maximum pour les sources UHD HDR 10/12 bits. Mais bon y'avait quasiment aucune sources de ce type dispo à ce moment là. Et le codec x265 n'était pas très mature non plus. Aujourd'hui c'est une des seule applications grand publique qui utilise les SMID AVX-512. Sans doute de quoi faire exploser le TDP des skylake-X (offset AVX désactivé). Malheureusement c'est pas dans un test HFR qu'on verra ça maintenant.


Message édité par sagittaire le 12-05-2018 à 19:35:26
n°10371607
lottte
STFW
Posté le 18-05-2018 à 22:37:47  profilanswer
1Votes positifs
 

Est-ce que déjà INtel compte régler son PB de température CPU des coffee Lake. Le 8700k est bien gavant à refroidir en silence (en fait, une plaie pour le portefeuille), alors avec 2 cores en plus, faudra chercher de la glace ?

n°10372170
sagittaire
Posté le 20-05-2018 à 13:53:38  profilanswer
0Votes positifs
 

Peut-être que l'AVX-512 sera de la partie pour ce nouveau CPU 8C/16T et les gains ne seront pas faibles:
https://networkbuilders.intel.com/d [...] ns-512.pdf
 
Il faut lire ce document en sachant que l'AVX2 d'Intel est déjà bien plus rapide que celui d'AMD (~15% de gain sur x265). Et donc l'AVX-512 apporterait encore un gain substantiel sur x265.
 
De plus, ce n'est pas dit dans le document mais je pense que les gains affichés le sont à fréquence constante. Or les SIMD AVX2 et AVX-512 impliquent un surcoût important en consommation. Cela oblige donc Intel a appliquer un offset pour abaisser la fréquence et rester dans les limites de consommation affichées.  
 
Ceci étant lors d'un encodage 1080p avec le x265, un CPU 8C/16T sera très loin d'être en pleine charge, ce qui impliquera certainement un maintient de la fréquence max turbo (pas d'activation de l'offset dans ce cas). les gains annoncés en 1080p sur le graphique de document sont donc des gains obtenu sur CPU en configuration "stock".


Message édité par sagittaire le 20-05-2018 à 13:59:34
n°10372172
sagittaire
Posté le 20-05-2018 à 13:56:54  profilanswer
1Votes positifs
 

Ceci étant même si l'AVX-512 est présent sur ce CPU, je doute sérieusement qu'une review ne la mette en évidence. Faut le dire, la profondeur technique des review Hardware est de plus en plus faible. Et c'est pas la disparation de HFR qui va arranger les chose.

n°10372264
Tigrou
Repose en paix
Posté le 20-05-2018 à 19:02:08  profilanswer
0Votes positifs
 

sagittaire a écrit :

Faut le dire, la profondeur technique des review Hardware est de plus en plus faible. Et c'est pas la disparation de HFR qui va arranger les chose.


Malheureusement :pfff:


---------------
Salut l'artiste   -   Feedback
n°10372373
ppn7
Posté le 21-05-2018 à 00:26:10  profilanswer
0Votes positifs
 

Y a peut-être aucune différence en 1440p avec une 1080ti mais quid dans 3 ans, quand la 2080ti ou la 3080ti sera 2 ou 3 fois plus puissante ?
 
L'idée c'est de garder le processeur le plus longtemps possible, donc si différence il y a en 720p actuellement, on peut se demander si en 1080 voire 1440p quand les GPU seront plus puissant si le 8700k sera pas devant le 2700x.
 
Et dernièrement, la moyenne FPS c'est pas suffisant, l'expérience de jeu se fait aussi et surtout sur les FPS drop, donc sans 1% low, c'est inexploitable, même si un écran G-sync ou freesync peut pallier à ce problème, c'est pas la solution miracle

n°10372624
Ciyanure
\"L"\
Posté le 21-05-2018 à 16:54:56  profilanswer
0Votes positifs
 

ppn7 a écrit :

Y a peut-être aucune différence en 1440p avec une 1080ti mais quid dans 3 ans, quand la 2080ti ou la 3080ti sera 2 ou 3 fois plus puissante ?
 
L'idée c'est de garder le processeur le plus longtemps possible, donc si différence il y a en 720p actuellement, on peut se demander si en 1080 voire 1440p quand les GPU seront plus puissant si le 8700k sera pas devant le 2700x.


 
Non. Si c'était comme ça que ça marchait on verra des écarts ENORME entre les proco d'il y a trois ans et ceux d'aujourd'hui, ce qui en 1440p n'est pas le cas. On peut tout a fait jouer sur un i5/i7 2xxx couplé à une 1080ti encore aujourd'hui sans perte de fps notable.


---------------
"Un jour j'irai vivre en Théorie, car en Théorie tout se passe bien."
n°10372729
sagittaire
Posté le 21-05-2018 à 21:27:45  profilanswer
0Votes positifs
 

ppn7 a écrit :

Y a peut-être aucune différence en 1440p avec une 1080ti mais quid dans 3 ans, quand la 2080ti ou la 3080ti sera 2 ou 3 fois plus puissante ?
 
L'idée c'est de garder le processeur le plus longtemps possible, donc si différence il y a en 720p actuellement, on peut se demander si en 1080 voire 1440p quand les GPU seront plus puissant si le 8700k sera pas devant le 2700x.
 
Et dernièrement, la moyenne FPS c'est pas suffisant, l'expérience de jeu se fait aussi et surtout sur les FPS drop, donc sans 1% low, c'est inexploitable, même si un écran G-sync ou freesync peut pallier à ce problème, c'est pas la solution miracle


 
Oui ... mais non en fait. Comme c'est déjà dans le post précédent, un vieux i7-2600K@4.5ghz de 2011 va aussi saturer une GTX 1080 ti en 1440p, et c'est aussi vrai pour une GTX 1060 en 1080p.
 
Entre la résolution 1080p et 1440p, tu as en fait un gap de 175% en nombre de pixel. Donc une GTX 1080 ti va beaucoup plus souffrir sur du 1440p, qu'une GTX 1080 sur du 1080p.
 
De plus même en 1080p sur GTX 1080 ti, la différence entre un i7-8700K et un 2700x est déjà faible. En sachant en plus que de la DDR4 rapide (3200 ou plus) va encore faire diminuer cette faible différence. Pas de raison que cette différence augmente sensiblement sur du 1440p avant très longtemps, même avec des GTX 1180 ou 1280 Ti. Pour finir rien ne dit non plus que les prochains jeux ne profiteront pas mieux des 8C d'un 2700X que des 6C du i7-8700K.  
 
 

n°10372749
ppn7
Posté le 21-05-2018 à 22:21:08  profilanswer
0Votes positifs
 

Ciyanure a écrit :


 
Non. Si c'était comme ça que ça marchait on verra des écarts ENORME entre les proco d'il y a trois ans et ceux d'aujourd'hui, ce qui en 1440p n'est pas le cas. On peut tout a fait jouer sur un i5/i7 2xxx couplé à une 1080ti encore aujourd'hui sans perte de fps notable.


 

sagittaire a écrit :


 
Oui ... mais non en fait. Comme c'est déjà dans le post précédent, un vieux i7-2600K@4.5ghz de 2011 va aussi saturer une GTX 1080 ti en 1440p, et c'est aussi vrai pour une GTX 1060 en 1080p.
 
Entre la résolution 1080p et 1440p, tu as en fait un gap de 175% en nombre de pixel. Donc une GTX 1080 ti va beaucoup plus souffrir sur du 1440p, qu'une GTX 1080 sur du 1080p.
 
De plus même en 1080p sur GTX 1080 ti, la différence entre un i7-8700K et un 2700x est déjà faible. En sachant en plus que de la DDR4 rapide (3200 ou plus) va encore faire diminuer cette faible différence. Pas de raison que cette différence augmente sensiblement sur du 1440p avant très longtemps, même avec des GTX 1180 ou 1280 Ti. Pour finir rien ne dit non plus que les prochains jeux ne profiteront pas mieux des 8C d'un 2700X que des 6C du i7-8700K.  
 
 


 
Je veux bien vous croire mais j'ai aucun benchmark sous les yeux pour comparer, je sais juste que d'après gamernexus, un i7 2600k sature à 100fps en 1080p avec un 1070 donc au dessus c'est inutile, je me rappelle plus sur quel jeu, mais j'ai du mal à croire qu'un SLI de 1080ti sature en 1440p avant le 2600K

n°10372758
sagittaire
Posté le 21-05-2018 à 22:41:30  profilanswer
0Votes positifs
 

ppn7 a écrit :


 
Je veux bien vous croire mais j'ai aucun benchmark sous les yeux pour comparer, je sais juste que d'après gamernexus, un i7 2600k sature à 100fps en 1080p avec un 1070 donc au dessus c'est inutile, je me rappelle plus sur quel jeu, mais j'ai du mal à croire qu'un SLI de 1080ti sature en 1440p avant le 2600K


 
sauf que le SLI n'est plus vraiment d'actualité et n'est plus mis en avant même par les constructeurs ou les éditeurs de jeux du fait de pilotes très difficiles à mettre au point et d'une expérience de jeu finalement très décevante (nombreuses saccades). Dans les faits tu aura certainement une meilleure expérience de jeu avec une seule GTX 1080 ti en 1080p qu'avec deux GTX 1080 ti en 1440p. De plus je ne vois pas pourquoi un 2700x 8C/16T ferait moins bien qu'un i7-8700K 6C/12T avec un SLI de GTX 1080 Ti en 1440p. Donc c'est un faux argument. Les faits c'est qu'Intel ne procurera pas un gain visible de performance par rapport aux CPU AMD dans la même gamme/prix pour des configurations usuelles actuelles.

Message cité 1 fois
Message édité par sagittaire le 21-05-2018 à 22:56:43
n°10372797
ppn7
Posté le 22-05-2018 à 03:33:00  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
sauf que le SLI n'est plus vraiment d'actualité et n'est plus mis en avant même par les constructeurs ou les éditeurs de jeux du fait de pilotes très difficiles à mettre au point et d'une expérience de jeu finalement très décevante (nombreuses saccades). Dans les faits tu aura certainement une meilleure expérience de jeu avec une seule GTX 1080 ti en 1080p qu'avec deux GTX 1080 ti en 1440p. De plus je ne vois pas pourquoi un 2700x 8C/16T ferait moins bien qu'un i7-8700K 6C/12T avec un SLI de GTX 1080 Ti en 1440p. Donc c'est un faux argument. Les faits c'est qu'Intel ne procurera pas un gain visible de performance par rapport aux CPU AMD dans la même gamme/prix pour des configurations usuelles actuelles.


 
C'était simplement pour pas parler d'une 2080ti, car quand je vois un sli 980ti vs une sule 1080ti en 1440p, on peut dire que c'est équivalent en perf.
Je pense qu'il faut voir si les prochains GPU permettront d'exploser en 1440p

n°10460034
snowden
Posté le 04-11-2018 à 16:32:04  profilanswer
0Votes positifs
 

Le joli SPAM  :pfff:  
 
https://forum.hardware.fr/hfr/Windo [...] m#t3327199


---------------
« A l’origine de toute erreur attribuée à l’ordinateur, vous trouverez au moins deux erreurs humaines. Dont celle consistant à attribuer l’erreur à l’ordinateur. »
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : Cadence et Micron pour la DDR5-4400[HFR] Actu : Nvidia abandonne son GeForce Partner Program
[HFR] Actu : Le 10nm d'Intel (encore) retardé, le 7nm TSMC lancé[HFR] Actu : AMD Vega 7nm en laboratoire, Zen 2 échantillonné en 2018
[HFR] Actu : Jim Keller rejoint... Intel ! 
Plus de sujets relatifs à : [HFR] Actu : Un Coffee Lake 8 coeurs en préparation ?


Copyright © 1997-2018 Hardware.fr SARL (Signaler un contenu illicite) / Groupe LDLC / Shop HFR