Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1673 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6
Page Suivante
Auteur Sujet :

[HFR] Dossier : GeForce GTX 1070 et GTX 1060 : les cartes d'Asus et Ga

n°9892259
ouam49
Posté le 25-07-2016 à 15:27:56  profilanswer
0Votes positifs
 

Reprise du message précédent :

mukumi a écrit :

Ce serait bien d'avoir une petite page sur le CPU scaling des tests de CG. Par exemple pour 10€ de plus on peut prendre une RX 480 avec un i5 6400 par rapport à un i3 6100 et une GTX 1060. Mais quelle serait la meilleure combinaison?
 
Dans les tests CPU bien souvent les tests sont fait avec la CG hdg du moment et dans les tests GPU c'est souvent avec le CPU hdg du moment.
 
Des tests sur un i3 / i5 / i7 sur deux-trois jeux ça pourrait être chouette; mais bon c'est un sacré boulot en plus je le concède.


 
C'est plutôt un site de test de jeux qui répondrait a tes interrogations, ici c'est le nouveau hardware qui est testé , d'ou le titre du site :) et les 12 premières page de cet article  
Tu connais surement ce site appelé gamegpu qui consacre ses tests et son actualité à un jeu en particulier. Là bas c'est un peu comme si la page dédiée à un  seul jeu ici était beaucoup plus détaillée et faisait un article entier (charge cpu,25 cartes différentes, 3 résolutions, usage vram,conso de ram), mais que tout le travail des 12 premieres pages était passée à la trappe, ainsi que les autres jeux...quasiment rien à voir quoi Xd.
http://gamegpu.com/action-/-fps-/- [...] a-test-gpu

mood
Publicité
Posté le 25-07-2016 à 15:27:56  profilanswer
 

n°9892266
mukumi
Hands up! Guns out!
Posté le 25-07-2016 à 15:34:11  profilanswer
0Votes positifs
 

ouam49 a écrit :

 

C'est plutôt un site de test de jeux qui répondrait a tes interrogations, ici c'est le nouveau hardware qui est testé , d'ou le titre du site :) et les 12 premières page de cet article
Tu connais surement ce site appelé gamegpu qui consacre ses tests et son actualité à un jeu en particulier. Là bas c'est un peu comme si la page dédiée à un seul jeu ici était beaucoup plus détaillée et faisait un article entier (charge cpu,25 cartes différentes, 3 résolutions, usage vram,conso de ram), mais que tout le travail des 12 premieres pages était passée à la trappe, ainsi que les autres jeux...quasiment rien à voir quoi Xd.
http://gamegpu.com/action-/-fps-/- [...] a-test-gpu

 

Oui oui je connais mais ils testent tous les gpu avec un 5960x et les cpu avec un sli de 980ti (ou une 1080 maintenant).

 

On connaît la puissance de chaque composant séparé mais on n'a pas de connaissance réelle du mélange de composants.

 

On peut le supposer selon les jeux mais ça reste de l'estimation  :D


---------------
Isn't it strange to create something that hates you?
n°9892286
dark oopa
PSN: Dark_Oopa
Posté le 25-07-2016 à 15:48:37  profilanswer
0Votes positifs
 

Digital foundry fait ça de temps à autres. Ils avaient justement mis en exergue le fait que els cartes AMD se faisaient déchirer sur des i3  à cause du driver overlay

n°9892298
standalone
Posté le 25-07-2016 à 15:59:10  profilanswer
0Votes positifs
 

assez d'accord avec mukumi, genre j'ai un vieil i5-2500k et un trop vieux crossfire de 5850. Du coup je pense prendre la rx480 car je suppose que la 1060 sera bridé par mon proc mais en fait j'en sais rien.
 
Et si ça se trouve c'est ma ram qui limitera le plus (8go 1333). Mais bon c'est mon problème et pas du tout la ligne éditoriale de hfr.

n°9892301
Yeagermach​42
Posté le 25-07-2016 à 16:01:08  profilanswer
0Votes positifs
 

standalone a écrit :

assez d'accord avec mukumi, genre j'ai un vieil i5-2500k et un trop vieux crossfire de 5850. Du coup je pense prendre la rx480 car je suppose que la 1060 sera bridé par mon proc mais en fait j'en sais rien.
 
Et si ça se trouve c'est ma ram qui limitera le plus (8go 1333). Mais bon c'est mon problème et pas du tout la ligne éditoriale de hfr.


Elle sera pas bridé dans la majorité des cas. Et dans la minorité, la 480 le sera tout autant.

n°9892512
pronitron
Quoi?! Oui, quoi?!
Posté le 25-07-2016 à 18:29:52  profilanswer
0Votes positifs
 

standalone a écrit :

assez d'accord avec mukumi, genre j'ai un vieil i5-2500k et un trop vieux crossfire de 5850. Du coup je pense prendre la rx480 car je suppose que la 1060 sera bridé par mon proc mais en fait j'en sais rien.
 
Et si ça se trouve c'est ma ram qui limitera le plus (8go 1333). Mais bon c'est mon problème et pas du tout la ligne éditoriale de hfr.


 
Salut ,
 
-Garde ton i5 2500k et direction 4.5 ghz (voir ton fan!sinon achete en un,pour ton i5 2500k et 3770k) ! plus tard ,trouve un 3770k et hop 4.5 ghz !
 
https://www.youtube.com/results?sea [...] z+crysis+3
 
-Suivant ta carte mére ,ajoute 2x8gb de ram au max de frequence quelle peut supporter ,2133mhz,2400mhz etc... ou va carrement a 4x8gb (les prix sont bas actuellement) max frequence et alloue 10 gb a un ramdisk (voir sur le net) !
 
-Rajoute 512 gb de ssd. samsung evo.
 
-Reste sur du 1080p. jusqu'en 2020-22 => 4k .
 
Si tu veux changer de carte graphique attend noel 2016 (fiabilisation CG) ! Tu en trouveras peut être un sous le sapin  :lol:  
 
a+

Message cité 1 fois
Message édité par pronitron le 25-07-2016 à 18:44:47
n°9892531
pronitron
Quoi?! Oui, quoi?!
Posté le 25-07-2016 à 18:41:30  profilanswer
1Votes positifs
 

rx 480 8gb vs gtx 1060 6gb ...tous depend aussi de l'ecran !
 
Avec une RX 480 8 gigat SAPPHIRE nitro+ et un Iiyama G-Master GB2788HS 144hz FreeSync/AdaptiveSync on en a pour max 600 euros !
 
http://i1.wp.com/www.eteknix.com/wp-content/uploads/2016/07/dfsfsd.png?w=800
 
On a quoi du coté de la gtx 1060 + ecran 144hz en prix ?
 
-------------------------------------------------------
 
J'ai piqué sur un forum un excellent commentaire :
 
"""Il faut considérer deux choses: AMD a construit ses puces Graphics Core Next (donc HD7xxx+) autour de l'idée d'en faire de vrais coprocesseurs graphiques (ça entre dans leur initiative HSA), et donc de pouvoir leur déléguer une part importante de leur propre gestion; les GCN 1.0 et surtout les GCN 1.1 incluent donc une part non négligeable de silicone dédié à la gestion des ressources.
 
Cependant, DX11 et OpenGL ne permettent pas d'exploiter ces ressources, l'abstraction étant trop forte - ce qui rend l'écriture de pilotes alambiquées. AMD a alors proposé l'API Mantle, qui permet justement de gérer ces ressources (ou de déléguer la gestion des ressources à une unité ad hoc) sans avoir à passer par des trous de souris. Mantle a fait ses preuves avec les quelques jeux supportant l'API qui sont arrivés sur le marché. Comme Intel a commencé à s'intéresser à Mantle, Microsoft a développé DirectX12 en l'espace de 6 mois et l'a livré avec Windows 10. AMD, que développer des API n'intéresse pas plus que ça (leur truc à eux c'est le matos), a proposé Mantle comme base pour GLnext (la future "OpenGL 5" ). Intel a trouvé ça cool, Apple a créé Metal (c'est Apple, hein, ils ne font rien comme les autres), Google a dit que ça serait bien pour Android, les autres éditeurs de puces mobiles ont jeté un oeil intéressé (écrire un pilote OpenGL ES est compliqué, écrire un pilote Mantle est beaucoup plus simple)... Et Nvidia a hurlé au loup et a demandé plein de modifications, qui ont été acceptées parce que AMD, tant que l'API permet de causer direct au matos, ils s'en foutent un peu.
 
Le résultat, c'est Vulkan.
 
Mais, sachant que leurs puces Pascal n'étaient pas du tout conçues pour une gestion fine des ressources, Nvidia s'est lancé encore plus avant dans la gestion d'API propriétaires: PhysX est ultra-verrouillé, et GameWorks requiert de signer son âme et la vie de son premier né pour pouvoir s'en servir. Ces API sont optimisées pour le matériel Nvidia et ne fournissent qu'un support sommaire, via CPU uniquement, sur le matos d'autres fabricants.
 
Et nous avons donc le résultat actuel: un jeu DX11 + PhysX + Gameworks va littéralement massacrer les performances d'une puce AMD (mais aussi Intel, et les anciennes puces Nvidia). Inversement, un jeu programmé pour faire proprement usage de Vulkan, Mantle ou DX12 va cartonner sur matos AMD GCN 1.0 (2012, quand même) et plus récent, sur les puces Intel les plus récentes, mais aussi sur puces mobiles capables... Et donner des résultats seulement correct sous matos Nvidia.
 
Après, c'est un choix: si on souscrit à l'écosystème Nvidia (G-sync, etc.) et qu'on ne joue qu'à des jeux GameWorks+PhysX (essentiellement DirectX 11, donc), la 1060 est la meilleure carte sur le segment 250-300€.  
 
Ou alors, on veut jouer à des jeux en dehors de l'écosystème Nvidia et faisant appel à des API modernes, et à ce moment-là la RX480 est la meilleure carte sur ce segment de prix."""
 
a+
 

n°9892543
standalone
Posté le 25-07-2016 à 18:51:01  profilanswer
0Votes positifs
 

pronitron a écrit :


 
Salut ,
 
-Garde ton i5 2500k et direction 4.5 ghz (voir ton fan!sinon achete en un,pour ton i5 2500k et 3770k) ! plus tard ,trouve un 3770k et hop 4.5 ghz !
 
https://www.youtube.com/results?sea [...] z+crysis+3
 
-Suivant ta carte mére ,ajoute 2x8gb de ram au max de frequence quelle peut supporter ,2133mhz,2400mhz etc... ou va carrement a 4x8gb (les prix sont bas actuellement) max frequence et alloue 10 gb a un ramdisk (voir sur le net) !
 
-Rajoute 512 gb de ssd. samsung evo.
 
-Reste sur du 1080p. jusqu'en 2020-22 => 4k .
 
Si tu veux changer de carte graphique attend noel 2016 (fiabilisation CG) ! Tu en trouveras peut être un sous le sapin  :lol:  
 
a+


 
Merci de la réponse,
 
oc-> le ventirad peut tenir le coup, il tourne à 4.1GHz actuellement. J'augmenterais si besoin.
ma carte mère peut encaisser jusqu'à 2133 mhz pour la ram, j'y passerais donc (visiblement ça aide bien : http://www.eurogamer.net/articles/ [...] e-i5-2500k ). les vielles barrettes iront dans un vieux pc.
j'ai déjà un ssd donc je change pas ça, idem pour mon écran, j'ai une bonne dalle ips, pas envie de changer.
 
 
Par contre la cg je pense la prendre avant, mes cartes ont 6 ans quand même...

n°9892994
sasuke87
Posté le 26-07-2016 à 08:03:33  profilanswer
0Votes positifs
 

Yeagermach42 a écrit :


http://www.hardware.fr/news/14711/ [...] -doom.html
 
Ben si, mais que chez AMD. Ils bossent avec Nvidia pour le support.

Ok au temps pour moi.

n°9893026
vladobar
J'aime pas quand ça rame…
Posté le 26-07-2016 à 09:00:27  profilanswer
0Votes positifs
 

pronitron a écrit :


Mais, sachant que leurs puces Pascal n'étaient pas du tout conçues pour une gestion fine des ressources, Nvidia s'est lancé encore plus avant dans la gestion d'API propriétaires: PhysX est ultra-verrouillé, et GameWorks requiert de signer son âme et la vie de son premier né pour pouvoir s'en servir. Ces API sont optimisées pour le matériel Nvidia et ne fournissent qu'un support sommaire, via CPU uniquement, sur le matos d'autres fabricants.
 
Et nous avons donc le résultat actuel: un jeu DX11 + PhysX + Gameworks va littéralement massacrer les performances d'une puce AMD (mais aussi Intel, et les anciennes puces Nvidia). Inversement, un jeu programmé pour faire proprement usage de Vulkan, Mantle ou DX12 va cartonner sur matos AMD GCN 1.0 (2012, quand même) et plus récent, sur les puces Intel les plus récentes, mais aussi sur puces mobiles capables... Et donner des résultats seulement correct sous matos Nvidia.
 
Après, c'est un choix: si on souscrit à l'écosystème Nvidia (G-sync, etc.) et qu'on ne joue qu'à des jeux GameWorks+PhysX (essentiellement DirectX 11, donc), la 1060 est la meilleure carte sur le segment 250-300€.  
 
Ou alors, on veut jouer à des jeux en dehors de l'écosystème Nvidia et faisant appel à des API modernes, et à ce moment-là la RX480 est la meilleure carte sur ce segment de prix."""
 
a+
 


Je suis en partie d’accord avec toi mais je suis moins « entier » sur la réflexion.  
Les perfs de Vulkan sont plutôt encourageantes pour AMD, mais comme d’habitude, il faut d’abord voir si les éditeurs suivent.  
Pour DX 12, j’attends de voir si les moteurs graphiques exploiteront au max ce qui peut être fait sur les AMD (et de la même façon pour les Nvidia) ou si on va avoir des moteurs « qui tourne sur tous » mais avec le minimum syndical sans aucune optimisation d’archi.


Message édité par vladobar le 26-07-2016 à 09:01:50
mood
Publicité
Posté le 26-07-2016 à 09:00:27  profilanswer
 

n°9894160
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-07-2016 à 23:09:01  profilanswer
0Votes positifs
 

elecman a écrit :

On m'as toujours pas répondu, l'encodage et décodage du x265 a changer a comparer des 1070 et 1080?


HEVC ou H.265 tu veux dire ? Les fonctionnalités sont les mêmes entre GP104 et GP106

n°9896379
fabinos
Posté le 28-07-2016 à 19:40:30  profilanswer
2Votes positifs
 

pronitron a écrit :


 
J'ai piqué sur un forum un excellent commentaire :
 
"""Il faut considérer deux choses: AMD a construit ses puces Graphics Core Next (donc HD7xxx+) autour de l'idée d'en faire de vrais coprocesseurs graphiques (ça entre dans leur initiative HSA), et donc de pouvoir leur déléguer une part importante de leur propre gestion; les GCN 1.0 et surtout les GCN 1.1 incluent donc une part non négligeable de silicone dédié à la gestion des ressources.
 
Cependant, DX11 et OpenGL ne permettent pas d'exploiter ces ressources, l'abstraction étant trop forte - ce qui rend l'écriture de pilotes alambiquées. AMD a alors proposé l'API Mantle, qui permet justement de gérer ces ressources (ou de déléguer la gestion des ressources à une unité ad hoc) sans avoir à passer par des trous de souris. Mantle a fait ses preuves avec les quelques jeux supportant l'API qui sont arrivés sur le marché. Comme Intel a commencé à s'intéresser à Mantle, Microsoft a développé DirectX12 en l'espace de 6 mois et l'a livré avec Windows 10. AMD, que développer des API n'intéresse pas plus que ça (leur truc à eux c'est le matos), a proposé Mantle comme base pour GLnext (la future "OpenGL 5" ). Intel a trouvé ça cool, Apple a créé Metal (c'est Apple, hein, ils ne font rien comme les autres), Google a dit que ça serait bien pour Android, les autres éditeurs de puces mobiles ont jeté un oeil intéressé (écrire un pilote OpenGL ES est compliqué, écrire un pilote Mantle est beaucoup plus simple)... Et Nvidia a hurlé au loup et a demandé plein de modifications, qui ont été acceptées parce que AMD, tant que l'API permet de causer direct au matos, ils s'en foutent un peu.
 
Le résultat, c'est Vulkan.
 
Mais, sachant que leurs puces Pascal n'étaient pas du tout conçues pour une gestion fine des ressources, Nvidia s'est lancé encore plus avant dans la gestion d'API propriétaires: PhysX est ultra-verrouillé, et GameWorks requiert de signer son âme et la vie de son premier né pour pouvoir s'en servir. Ces API sont optimisées pour le matériel Nvidia et ne fournissent qu'un support sommaire, via CPU uniquement, sur le matos d'autres fabricants.
 
Et nous avons donc le résultat actuel: un jeu DX11 + PhysX + Gameworks va littéralement massacrer les performances d'une puce AMD (mais aussi Intel, et les anciennes puces Nvidia). Inversement, un jeu programmé pour faire proprement usage de Vulkan, Mantle ou DX12 va cartonner sur matos AMD GCN 1.0 (2012, quand même) et plus récent, sur les puces Intel les plus récentes, mais aussi sur puces mobiles capables... Et donner des résultats seulement correct sous matos Nvidia.
 
Après, c'est un choix: si on souscrit à l'écosystème Nvidia (G-sync, etc.) et qu'on ne joue qu'à des jeux GameWorks+PhysX (essentiellement DirectX 11, donc), la 1060 est la meilleure carte sur le segment 250-300€.  
 
Ou alors, on veut jouer à des jeux en dehors de l'écosystème Nvidia et faisant appel à des API modernes, et à ce moment-là la RX480 est la meilleure carte sur ce segment de prix."""
 
a+
 


 
Tout ça c'est de la théorie, et on peux désigner des gentils et des méchants tant qu'on veux. Ce qui intéresse le consommateur final c'est les perfs réel dans la réalité des sorties des jeux. Pas les hypothétique futur performances, d'hypothétique jeux qui utiliseraient certaine API et pas d'autres. Personnellement je me fou de la guerre des fanboy AMD/Nvidia, mais choisir une RX480 parceque" dans le meilleur des mondes des gentils, elle aurait de meilleur performances", ça me parait un peu poussé.
La RX480 a d'autres avantages à son actif et qui eux sont tangible, comme son rapport perf/prix très intéressant.
Et surtout résumer l'avantage en performance des carte Nvidia en générale a seulement un contexte de fourberie industrielle, ça me parait un poil exagérer. Je parle même pas du fait de penser que DX12 a été fait en 6 mois... (genre les ingénieurs chez MS se sont tourné les pouces entre 2008 et 2014)
De même qu'affirmer qu'en dehors du scénario "jouer en G-sync uniquement a des jeux Gameworks", les 1060 ne sont pas intéressantes, c'est vraiment de la mauvaise fois.
Ca fait surement mal de le dire, mais les puce Kepler, Maxwell et désormais Pascal sont tout simplement des puces très bien conçues et adaptées au jeux du moment de leur sortie. Nvidia fait preuve de réalisme tout simplement.

n°9896644
sasuke87
Posté le 28-07-2016 à 23:27:53  profilanswer
0Votes positifs
 

Après ça commence quand même à se voir qu'AMD est plus compétitif sur du DX12/Vulkan. D'ailleurs pourquoi HFR n'a pas testé Tomb Raider avec DX12?

n°9896658
mukumi
Hands up! Guns out!
Posté le 28-07-2016 à 23:35:32  profilanswer
1Votes positifs
 

sasuke87 a écrit :

Après ça commence quand même à se voir qu'AMD est plus compétitif sur du DX12/Vulkan. D'ailleurs pourquoi HFR n'a pas testé Tomb Raider avec DX12?


 
Je pense que le DX12 de Tomb Raider est un peu nul. Que ce soit chez AMD ou Nvidia les perfs sont moins bonnes en DX12: https://www.computerbase.de/2016-03 [...] s_ultra_hd


---------------
Isn't it strange to create something that hates you?
n°9896678
petit-tigr​e
miaou
Posté le 28-07-2016 à 23:51:40  profilanswer
1Votes positifs
 

sasuke87 a écrit :

Après ça commence quand même à se voir qu'AMD est plus compétitif sur du DX12/Vulkan. D'ailleurs pourquoi HFR n'a pas testé Tomb Raider avec DX12?


DX12/Vulkan, ça concerne 0.1% des jeux aujourd'hui... Quand les API seront maitrisées, les cartes du moment ne seront plus d'actualité. Au final, cet "avantage" pour les AMD est, en plus d'être franchement relatif, complètement inutile en plus d'être purement temporaire (d'ici là, Nvidia aura fait le nécessaire).

 

Comme dit plus haut, Nvidia fait dans le réalisme, pas la spéculation. Ca nous fait une belle jambe de savoir que les HD 7000 gèrent ou non l'AC vu le piètre niveau de perfs qu'elles offrent aujourd'hui et offriront demain.


Message édité par petit-tigre le 28-07-2016 à 23:53:21

---------------
mIaOuUuUuUuUuUu
n°9896767
tridam
Profil : Equipe HardWare.fr
Posté le 29-07-2016 à 05:20:14  profilanswer
0Votes positifs
 

sasuke87 a écrit :

Après ça commence quand même à se voir qu'AMD est plus compétitif sur du DX12/Vulkan. D'ailleurs pourquoi HFR n'a pas testé Tomb Raider avec DX12?


 
Sur notre scène de test, Tomb Raider est plus lent en DX12 sur toutes les cartes graphiques, Radeon et GeForce.
 
Par ailleurs pour Doom, ce n'est pas très clair d'où viennent ces gains. Ce n'est pas impossible qu'il s'agisse de l'utilisation de fonctions intrinsèques (remplacement de shaders par un code ASM plus optimisé), comme c'est le cas sur console. Et ça AMD le supporte autant avec Vulkan qu'avec DX12 qu'avec DX11. Les bruits de couloir disent qu'un nouveau pilote sera finalisé sous peu chez Nvidia pour ramener les GeForce à niveau.

n°9898015
petit-tigr​e
miaou
Posté le 30-07-2016 à 06:56:42  profilanswer
0Votes positifs
 

A noter la bonne perf de la 780 Ti.


---------------
mIaOuUuUuUuUuUu
n°9898747
sasuke87
Posté le 30-07-2016 à 23:44:15  profilanswer
0Votes positifs
 

tridam a écrit :


 
Sur notre scène de test, Tomb Raider est plus lent en DX12 sur toutes les cartes graphiques, Radeon et GeForce.
 
Par ailleurs pour Doom, ce n'est pas très clair d'où viennent ces gains. Ce n'est pas impossible qu'il s'agisse de l'utilisation de fonctions intrinsèques (remplacement de shaders par un code ASM plus optimisé), comme c'est le cas sur console. Et ça AMD le supporte autant avec Vulkan qu'avec DX12 qu'avec DX11. Les bruits de couloir disent qu'un nouveau pilote sera finalisé sous peu chez Nvidia pour ramener les GeForce à niveau.


C'est cocasse ça, c'est pourtant avec nvidia que les premieres demos de Doom sous Vulkan ont été faites...

n°9898786
sasuke87
Posté le 31-07-2016 à 00:19:42  profilanswer
0Votes positifs
 

Petites questions pour Tridam: Pourquoi les Radeon ne sont pas testé sous Mantle avec BF4? Les contres performances des Radeon sur ce jeu sont dû à la combinaison msaa + frostbite ou est-ce plutôt un manque d'optimisation d'utilisation du cpu (d'où l'utilité de Mantle)?

n°9898789
tridam
Profil : Equipe HardWare.fr
Posté le 31-07-2016 à 00:23:16  profilanswer
0Votes positifs
 

D'une part la version Mantle est un poil moins performante que la version DX11, excepté en multi quand ça charge beaucoup le CPU. D'autre part Mantle n'est tout simplement pas supporté sur les GPU GCN3 et GCN4.

Message cité 1 fois
Message édité par tridam le 31-07-2016 à 00:23:31
n°9898868
seth-01
Posté le 31-07-2016 à 08:07:42  profilanswer
0Votes positifs
 

tridam a écrit :

D'une part la version Mantle est un poil moins performante que la version DX11, excepté en multi quand ça charge beaucoup le CPU.  


on peut vérifier ceci par exemple dans le centre de test ? là bas la charge CPU ne doit pas être très élevée non ?

n°9899220
Yeagermach​42
Posté le 31-07-2016 à 16:24:08  profilanswer
0Votes positifs
 

sasuke87 a écrit :

Petites questions pour Tridam: Pourquoi les Radeon ne sont pas testé sous Mantle avec BF4? Les contres performances des Radeon sur ce jeu sont dû à la combinaison msaa + frostbite ou est-ce plutôt un manque d'optimisation d'utilisation du cpu (d'où l'utilité de Mantle)?


On pourrait se demander aussi pourquoi hairworks n'est pas activé pour les tests avec tw3. Apres tout, hairworks utilise une feature officiel de DX11   :whistle:

n°9904948
wiwitop
Posté le 05-08-2016 à 21:15:45  profilanswer
0Votes positifs
 

wiwitop a écrit :

Est ce que vous allez tester d'autres GTX 1070 ? Je pense notamment au modèle MSI. Je cherche en fait à savoir comment est réparti la consommation sur les deux connecteurs PCIE car il y a sur ce modèle un connecteur 6 broches et un connecteur 8 broches.
Tom's hardware indique une conso sur le connecteur PCIE d'environ 30 Watts, le reste venant des deux autres connecteurs. Je suppose que c'est du 1/3, 2/3 et que c'est forcément un ratio. Si on a 180W de Conso, on a (180-30)*2/3=100W sur le PCIE 8 broches ?
Autre question, comment connait-on la limite de consommation d'un modèle ? (en dehors de toute contrainte de température). Les fabricants ne donnent pas officiellement de chiffres ? On ne l'obtient que grâce à des mesures en jeu ? Vous indiquez 165W pour la strix, c'est en en vous basant uniquement sur ce que vous avez mesuré ?


 
Pour les rares que ça intéresse :)
 
MSI GTX 1070, FurMark, limite de conso@100%, en 12V :
41W sur le connecteur PCIE
41W et 96W sur les 6 & 8 broches (on doit donc bien être sur du 2/3, 1/3)
Et c'est toujours 41W sur le connecteur PCIE, peu importe les limites de conso renseignées (50 à 126%).

n°9929115
zatzwaii
Posté le 29-08-2016 à 17:24:49  profilanswer
0Votes positifs
 

Bonjour, quelqu'un sait-il si la carte rentre dans une tour micro ATX ? La référent de ma tour : CoolerMaster Elite 342 Matx
Merci d'avance

n°9929127
mukumi
Hands up! Guns out!
Posté le 29-08-2016 à 17:35:24  profilanswer
0Votes positifs
 

zatzwaii a écrit :

Bonjour, quelqu'un sait-il si la carte rentre dans une tour micro ATX ? La référent de ma tour : CoolerMaster Elite 342 Matx
Merci d'avance

 

Quelle carte ?
Celle ci rentre dans quasi tous les boitiers:
http://m.ldlc.com/fiche/PB00213411.html

 

Cooler Master sur son site dit 363mm max. A voir si c'est rack hdd inclus ou exclus.


---------------
Isn't it strange to create something that hates you?
n°9929281
zatzwaii
Posté le 29-08-2016 à 19:55:15  profilanswer
0Votes positifs
 

mukumi a écrit :


 
Quelle carte ?  
Celle ci rentre dans quasi tous les boitiers:
http://m.ldlc.com/fiche/PB00213411.html
 
Cooler Master sur son site dit 363mm max. A voir si c'est rack hdd inclus ou exclus.


 
Apparemment la MSI GeForce GTX 1060 Gaming X - 6 Go fait 277mm, ce qui semblerait bon!
Merci pour la réponse

n°10053388
pythongami​ng
Posté le 25-01-2017 à 15:02:22  profilanswer
0Votes positifs
 

Quelqu'un pourrait m'expliquer pourquoi je n'ai que 55 FPS de moyenne avec une gtx 1070 sur ce jeu ?

n°10114205
Till Linde​mann
heirate mich
Posté le 31-03-2017 à 14:40:17  profilanswer
0Votes positifs
 

bon je viens de profiter de la vente flash d'amazon, GTX 1060 3 gigas à 155,90€ :D


---------------
Wer hält deine Hand wenn es dich nach unten zieht ?  
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
carte mère asus ou msi ?une gtx 1060 msi gaming a 359.90 c'est pas trop chere?
[GTX 1070] Strix OC ou AMP Extreme ?Lecteur DVD ASUS mort vivant !?
Carte graphique NVidia égale à la RX 480Garantie Asus X99 Rampage V
GTX 1070 sur vieille CM (h81m+)? PCIE 2.0 sur PCIE3.0 ?Corsair h110i GTX changer les ventilateurs?
Plus de sujets relatifs à : [HFR] Dossier : GeForce GTX 1070 et GTX 1060 : les cartes d'Asus et Ga


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR