Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2641 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12
Auteur Sujet :

[HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?

n°9607949
soulfate
Posté le 13-09-2015 à 19:38:28  profilanswer
1Votes positifs
 

Reprise du message précédent :
Pour l'anecdote, ça fait maintenant plusieurs générations qu'AMD optimise aussi les anciennes gammes puisque leurs architectures n'ont pas bien changé.
Ça fait bizarre de réaliser qu'un mauvais point peut se transformer en bon point...

mood
Publicité
Posté le 13-09-2015 à 19:38:28  profilanswer
 

n°9607964
petit-tigr​e
miaou
Posté le 13-09-2015 à 19:56:39  profilanswer
0Votes positifs
 

Heureusement qu'il y a un minimum de suivi du reste :D


---------------
mIaOuUuUuUuUuUu
n°9608183
the_skwi
Posté le 14-09-2015 à 08:27:38  profilanswer
0Votes positifs
 

AMD ou NVIDIA, c'est le même principe. Si tu veux rester au top alors oui tu dois claquer 800€ tous les 2ans juste pour le GPU.
 
Après si tu recherches un bon rapport durabilité/prix, il peut être intéressant de se poser la question si DX12 sera devenue la norme, et si c'est simplement un problème d'optimisation des drivers côté NVIDIA aujourd'hui ou pas.
 
*Sort sa boule de cristal*
 
Edit: oups, j'ai pas vu qu'il y avait 1 page de décalage :')


Message édité par the_skwi le 14-09-2015 à 08:30:11
n°9608521
zz6
Posté le 14-09-2015 à 15:16:25  profilanswer
0Votes positifs
 

SirGallahad a écrit :

...Pour moi mettre 800€ dans une CG, c'est pour avoir le top.
Le top reste le top uniquement 1ans ou dans les années de disette 2ans.
Au bon de 2 ans, elle fonctionne au mieux aussi bien que le milieu de gamme.
Donc une carte a 800€ pour plus de 2 ans est à mon gout une connerie.
pour le même investissement, il faut mieux une carte a 250-300€ tout les 1 ou 2 ans. Le rendu sera supérieur sur la durée. (pour rester dans le même budget)
 
...

 
 
Moi j'achète toujours le top à 800 boules pour 2-3 ans et économiquement c'est effectivement équivalent à acheter du moyen-bas de gamme à 300 tous les ans/1.5 ans, sauf que j'ai le plaisir de jouer au jeux récents avec tous les détails pendant une bonne partie de ces 2/3 ans, ce que le moyen de gamme ne permet pas du tout.  
 
Ma dernière acquisition (GTX 690 - 800 EUR) je l'ai gardée plus de 3 ans et j'ai pu la vendre sur ebay a un très bon prix il y à un mois !!! (Elles se négocient 250-350 EUR. ok, on récupère pas toujours autant...), et franchement si ce n'était pas pour la limite des 2Gb VRAM, j'aurrais pu la garder encore 2 ans (elle équivaut toujours à une GTX 980 dans pas mal de jeux).

n°9608629
tyrgann
Posté le 14-09-2015 à 16:52:25  profilanswer
0Votes positifs
 

"(elle équivaut toujours à une GTX 980 dans pas mal de jeux)."
 
 
Non. Vraiment, non. Ou alors on ne joue définitivement pas aux mêmes jeux et certainement pas avec les mêmes réglages.

n°9608671
cortexzehe​f
Posté le 14-09-2015 à 17:52:08  profilanswer
0Votes positifs
 

Il t'a dit que si, et que 800 boules pour 3 ans ça valait le coup :lol:

n°9609301
zz6
Posté le 15-09-2015 à 14:20:29  profilanswer
0Votes positifs
 

Probablement qu'on ne joue pas aux mêmes jeux. A quel jeux joues-tu?
http://www.techpowerup.com/reviews [...] SLI/3.html
 
Je réitère: 800 boules (en fait 500 avec la revente) sur 3 ans ça vaut le coup, mais je suis sûr que Cortexzehef à des arguments plus sérieux qu'un smiley.
 
PS: je joue en 2560x1440x120Hz (avec un IPS Overlord que j'ai aussi depuis 3 ans) avec les détails au maximum.

Message cité 2 fois
Message édité par zz6 le 15-09-2015 à 14:54:08
n°9609307
zz6
Posté le 15-09-2015 à 14:27:10  profilanswer
0Votes positifs
 

et en comparant ces deux tableaux reprenant les Titan, 980 Ti, titanX, GTX 690, regarde un peu "stream processors", "unités de texture", "interface mémoire", "bande passante", gravure, interface, ... et dis-moi ce que tu en pense:
 
http://www.clubic.com/carte-graphi [...] 80-ti.html
 
http://www.clubic.com/carte-graphi [...] x-690.html

Message cité 1 fois
Message édité par zz6 le 15-09-2015 à 14:50:03
n°9609361
bjone
Insert booze to continue
Posté le 15-09-2015 à 15:00:48  profilanswer
0Votes positifs
 

zz6 a écrit :

Probablement qu'on ne joue pas aux mêmes jeux. A quel jeux joues-tu?
http://www.techpowerup.com/reviews [...] SLI/3.html
 
Je réitère: 800 boules (en fait 500 avec la revente) sur 3 ans ça vaut le coup, mais je suis sûr que Cortexzehef à des arguments plus sérieux qu'un smiley.
 
PS: je joue en 2560x1440x120Hz (avec un IPS Overlord que j'ai aussi depuis 3 ans) avec les détails au maximum.


 
Disons que sur une transition 680~980 ça va, car on est toujours sur une archi D3D11 avec le même process de fab.
 
Par contre je déconseillerai de mettre 800€ maintenant dans une carte 3d, car y'a rupture l'année prochaine.


Message édité par bjone le 15-09-2015 à 15:16:47
n°9609391
Tagadur
Easy Peasy Lemon Squizzy
Posté le 15-09-2015 à 15:15:00  profilanswer
0Votes positifs
 

zz6 a écrit :

et en comparant ces deux tableaux reprenant les Titan, 980 Ti, titanX, GTX 690, regarde un peu "stream processors", "unités de texture", "interface mémoire", "bande passante", gravure, interface, ... et dis-moi ce que tu en pense:
 
http://www.clubic.com/carte-graphi [...] 80-ti.html
 
http://www.clubic.com/carte-graphi [...] x-690.html


 
GTX690 : 2 GPU sur un PCB
GTX980 Ti et Titan (X) : 1 GPU sur un PCB
 
C'est pas vraiment la même chose

mood
Publicité
Posté le 15-09-2015 à 15:15:00  profilanswer
 

n°9609413
zz6
Posté le 15-09-2015 à 15:31:33  profilanswer
0Votes positifs
 

Citation :


GTX690 : 2 GPU sur un PCB
GTX980 Ti et Titan (X) : 1 GPU sur un PCB
 
C'est pas vraiment la même chose


 
Pour la discussion en cours (concernant le prix d'une carte et ses performances)... si (je n'ai pas payé 2x800 boules)
 
Par contre, effectivement, dire que la GTX 690 à plus d'unité de texture ou de stream processors ou de bande passante que les Titan, Titan X et 980 Ti, n'est pas représentatifs de l'évolution des GPU pour les raisons que vous invoquez (ils sont effectivement doublés du fait de la présence de deux puces au lieu d'une) mais reste néanmoins vrai.  
 
Mon but était juste de démontrer que cette carte est encore d'actualité malgré ses 3 ans (et techniquement supérieur à une 980)

Message cité 1 fois
Message édité par zz6 le 15-09-2015 à 15:35:48
n°9609498
Punkenjoy
Posté le 15-09-2015 à 17:09:46  profilanswer
0Votes positifs
 

zz6 a écrit :

Citation :

GTX690 : 2 GPU sur un PCB
GTX980 Ti et Titan (X) : 1 GPU sur un PCB
 
C'est pas vraiment la même chose


Pour la discussion en cours (concernant le prix d'une carte et ses performances)... si (je n'ai pas payé 2x800 boules)
 
Par contre, effectivement, dire que la GTX 690 à plus d'unité de texture ou de stream processors ou de bande passante que les Titan, Titan X et 980 Ti, n'est pas représentatifs de l'évolution des GPU pour les raisons que vous invoquez (ils sont effectivement doublés du fait de la présence de deux puces au lieu d'une) mais reste néanmoins vrai.  
 
Mon but était juste de démontrer que cette carte est encore d'actualité malgré ses 3 ans (et techniquement supérieur à une 980)


Tant que Nvidia maintient les profils SLI à jour, oui, mais sinon, les performances seront loin derrière.

n°9609507
mazingerz
Posté le 15-09-2015 à 17:27:42  profilanswer
1Votes positifs
 

tridam a écrit :

Le but de Nvidia comme d'AMD c'est de vendre de nouveaux GPU, pas de faire durer le plus longtemps les anciens. Ceci dit je ne pense pas qu'il y ait un complot en vue de favoriser les nouveaux modèles.  
 
Ca se fait plutôt naturellement en fait d'une part suivant la fréquence des changements d'architecture (plus souvent ça change moins longtemps les optimisations profitent à une gamme de GPU donnée), et d'autre part suivant l'orientation des architectures plus ou moins vers les types de charges à venir (ce qui demande de bonnes prévisions et peut se faire au détriment du court terme).


 
bas faire durer les anciens permet de faire du renommage
 
ça coute vachement moins cher que faire des nouveau GPU  
 
depuis 4 ans AMD vend les même GPU donc forcement ils vont tout faire pour les optis et leur démarche et d'économiser partout

n°9609568
zz6
Posté le 15-09-2015 à 18:38:26  profilanswer
0Votes positifs
 

Citation :


Tant que Nvidia maintient les profils SLI à jour, oui, mais sinon, les performances seront loin derrière.


en 3 ans, je n'ai jamais eu qu'un jeu qui ne supportait pas le SLI, et il tournait déjà ultra avec un seul GPU. Je pense que les cartes bi-GPU n'étaient qu'un début. Quand ils pouront mettre 4 gpu sur une carte mainstream, le support Quad SLI sera "miraculeusement" plus performant. La prochaine génération Nvidia supportera 8 GPU en SLI, et je ne crois pas que les cartes-mères vont changer de taille et prévoir 8 slots. Fort à parier que d'ici quelques années on aurra plus que des cartes multi-GPU, un peu comme dans le monde des processeurs.

Message cité 1 fois
Message édité par zz6 le 15-09-2015 à 18:41:26
n°9609572
Le Profana​teur
Passéiste désincarné
Posté le 15-09-2015 à 18:42:17  profilanswer
0Votes positifs
 

T'as raison vivement que 3dfx revienne avec une voodoo 5 6000 (quad gpu) par exemple :love:


---------------
Abordez la pente du bon côté ! \o/ Let the light surround you \o/ To bleed or not to be...
n°9609574
zz6
Posté le 15-09-2015 à 18:46:53  profilanswer
0Votes positifs
 

Le Profanateur a écrit :

T'as raison vivement que 3dfx revienne avec une voodoo 5 6000 (quad gpu) par exemple :love:


Rigole pas j'ai encore une Voodoo 2 dans un tirroir, au cas où...

n°9609582
cortexzehe​f
Posté le 15-09-2015 à 18:55:46  profilanswer
0Votes positifs
 

zz6 a écrit :

Probablement qu'on ne joue pas aux mêmes jeux. A quel jeux joues-tu?
http://www.techpowerup.com/reviews [...] SLI/3.html


 
Je ne joue pas aux jeux d'Ubisoft comme ça c'est clair ;)
 
GTA5 doit être le jeu qui consomme le plus dans mon DD. Puis viens Project CARS.
Je joue en Full HD (4K trop cher, GPU pas près,  sauf ceux à 800€...)
Détails en élevé la plupart du temps (j'essaie d'opti en baissant ceux qui consomment et qui ne servent "à rien", en gros mon jeu n'est jamais TOUT A FOND)
 
C'est quoi le but de mettre tout à fond, mis à part montrer qui a la plus grosse ? (question ironique, mais sérieuse :D )

n°9609620
zz6
Posté le 15-09-2015 à 19:42:22  profilanswer
1Votes positifs
 

Citation :


Je ne joue pas aux jeux d'Ubisoft comme ça c'est clair ;)
 
GTA5 doit être le jeu qui consomme le plus dans mon DD. Puis viens Project CARS.
Je joue en Full HD (4K trop cher, GPU pas près,  sauf ceux à 800€...)
Détails en élevé la plupart du temps (j'essaie d'opti en baissant ceux qui consomment et qui ne servent "à rien", en gros mon jeu n'est jamais TOUT A FOND)
 
C'est quoi le but de mettre tout à fond, mis à part montrer qui a la plus grosse ? (question ironique, mais sérieuse :D )


 
La qualité ne t'intéresse pas, soit. Ta question est un peu étrange pour un gamer(surtout concernant les jeux que tu cites). C'est quoi le but de jouer à des jeux de façon fluide avec une qualité d'image maximum? Pourquoi j'ai un écran 2560x1440x120Hz IPS et pas simplement du TN full HD 60Hz? C'est un peu comme si je te demandais pourquoi tu n'es pas encore en 320x200.
Il y en a qui aime le bluray en 7.1 DTS MA, d'autres qui regarde des xvid de 100 Mb en mono. Il y en a qui écoute la musique en mp3 64Kbit d'autre qui ne veulent que du FLAC. Y'en a qui bouffe mac do et d'autres qui mangent bio. Je ne crois pas qu'il soit question ici de montrer la plus grosse. As-tu déjà eu l'occasion de voir la différence?
 
PS: Le lien pointe vers un jeu Ubisoft, mais tu aurras surement remarquer qu'il y a d'autre benchs dans l'article.

Message cité 1 fois
Message édité par zz6 le 15-09-2015 à 19:52:46
n°9609633
Punkenjoy
Posté le 15-09-2015 à 19:58:20  profilanswer
0Votes positifs
 

zz6 a écrit :

Citation :

Tant que Nvidia maintient les profils SLI à jour, oui, mais sinon, les performances seront loin derrière.


en 3 ans, je n'ai jamais eu qu'un jeu qui ne supportait pas le SLI, et il tournait déjà ultra avec un seul GPU. Je pense que les cartes bi-GPU n'étaient qu'un début. Quand ils pouront mettre 4 gpu sur une carte mainstream, le support Quad SLI sera "miraculeusement" plus performant. La prochaine génération Nvidia supportera 8 GPU en SLI, et je ne crois pas que les cartes-mères vont changer de taille et prévoir 8 slots. Fort à parier que d'ici quelques années on aurra plus que des cartes multi-GPU, un peu comme dans le monde des processeurs.


Supporté et optimisé c'est 2 chose. Les profils SLI sont la pour rendre un jeu fluide en SLI, tant que Nvidia voudra bien coopéré pour les vieux GPU, ça ira, mais lorsqu'il ne le fera plus, les gains via SLI ne seront plus au rendez-vous.  
 
Il faudra voir si ça sera avant ou après que la mémoire limite les performances.  
 
Mais sinon, c'est la moindre des choses qu'elle soit encore dans la course aujourd'hui. Cependant, en 4K elle doit être largué du a son manque de mémoire. En 1080P, elle n'est probablement pas prêt de prendre sa retraite.  
 
Le problème des Multi GPU, c'est un peu que maintenant les chips sont tellement gros que c'est tout comme avoir 2 GPU sur la carte, (sans les complications).  S'il faut 2000w de powersupply pour avoir un 8 GPU, il va faire chaud dans la pièce !  :ouch:

n°9609640
zz6
Posté le 15-09-2015 à 20:09:56  profilanswer
0Votes positifs
 

Si Nvidia prend la route du multi-gpu en via SLI, il y aurra du support (et cela ne change rien que la carte ancienne, on peut toujours faire du SLI avec des GTX 280, ni que les jeux soient ancien).  
 
En 4K la GTX 690 s'en sort encore bien tant qu'on utilise pas de l'antialiasing poussé (mais est-ce nécessaire à ces résolutions). Ma résolution était 2560x1440x120 et la 690 est très à l'aise dans cette résolution (voir les bench: elle s'en sort mieux qu'une 980 dans la montée de résolution).
 
Mais effectivement, je l'ai dit, si ce n'était pas pour la limite de VRAM, je l'aurrais gardé encore 2 ans (soit 5 ans pour 500 EUR à jouer en ULTRA dans pratiquement tous les jeux !!!). Même sur 3 ans, je reste persuadé que c'était un très bon investissment.

n°9609644
cortexzehe​f
Posté le 15-09-2015 à 20:13:57  profilanswer
0Votes positifs
 

zz6 a écrit :


 
La qualité ne t'intéresse pas, soit. Ta question est un peu étrange pour un gamer(surtout concernant les jeux que tu cites). C'est quoi le but de jouer à des jeux de façon fluide avec une qualité d'image maximum?  


 
2560*1440 @120Hz OK je veux bien, mais des gens achètent des 980 et 980ti pour moins que ça.
Et jouer avec une qualité d'image maximum, c'est tout en ultra? Si oui, je t'assure qu'il y a des options qui prennent trop de ressource et qui ne changent rien à la qualité visuelle.
La qualité m'intéresse, mais pas le "maximum", tant que c'est jouable et détaillé, ça me va  :jap:

n°9609675
zz6
Posté le 15-09-2015 à 20:33:47  profilanswer
0Votes positifs
 

Il y a dans certains jeux des options très gourmandes qui n'apportent pas grand chose visuellement (même si les subtilités font parfois une vrai différence). Les Tweakguide sont là pour ça.
 
Avoir une 980 Ti pour jouer en 1080 cela me parrait aussi excessif, nous somme d'accord (quoique ce n'est pas si simple, surtout si on a une idée précise de l'évolution de son PC à long terme).
 
Je pense que personne n'a raison et personne n'a tort sur le sujet parce qu'il est beaucoup plus complexe qu'il n'y parait. En effet, il n'y a pas de règle (3 ans, tell ou tel top du moment, ...). Deux personnes peuvent très bien appliquer la même règle (achat du top tous les 3 ans) et avoir une expérience très différente (bon choix pour l'un ,mauvais pour l'autre). C'est une question de timing. Si j'achète une 690 pour 3 ans, c'est probablement dans ce cas précis un bon choix (bon timing, DX12 pa prévu avant des années, peu de jeux utilisent plus d'1Gb de vram, ...). Si j'achète la 980 dès sa sortie pour 3 ans, c'est probablement un mauvais choix (des jeux existants à sa sortie utilisent déjà plus que 4 GB, la carte suivante est sortie quelques mois plus tard avec des performances bien suppérieures comme la Ti par exemple, ...).
 
C'est comme en bourse, on ne sait pas prédire le meilleur moment pour entrer, ni le meilleur pour sortir. On peut éventuellement avoir un feeling (le développement de telle archi à pri autant de temps, la finesse de gravure n'évoluera pas dans l'immédiat, DX13 ne sera pas utilisé en pratique avant telle date, la roadmap AMD/NVIDIA est floue pour les 3 ans qui viennent, il y a eu un big jump en perf sur la dernière sortie donc peu de chance que ça se reproduise sur l'archi en cours,...)

n°9609680
cortexzehe​f
Posté le 15-09-2015 à 20:36:29  profilanswer
0Votes positifs
 

Exact, sauf pour la fin. Le changement de gravure promet de bonnes choses, pour ça que ça ne vaut pas le coup de miser 800€ cette année, mais l'année prochaine! On peut espérer 50% de perf en plus, et HBM2 qui fait rêver pour du 4k :)
Et pour DX13... Je ne m'y connais pas trop mais je doute fort qu'il puisse exister. DX12 fonctionnera en bas-niveau, et je ne pense pas qu'on puisse faire mieux  :??:

Message cité 1 fois
Message édité par cortexzehef le 15-09-2015 à 20:37:47
n°9609691
zz6
Posté le 15-09-2015 à 20:44:17  profilanswer
0Votes positifs
 

Oui, un changement de gravure est une indication du bon timing, quoique ce ne serait pas la première fois qu'on annonce des chose pour l'année suivante et qu'on ne voit rien de concret avant 2-3 ans.  
 
Ne pas oublier qu'il y a d'autres techniques pour rester au top même quand ce n'est pas le bon moment: Le SLI par exemple (j'achète moyen-haut de gamme, et je rachète la même carte à prix cassé l'année suivante). Il faut avoir prévu le coup avec sa carte mère.

n°9609707
cortexzehe​f
Posté le 15-09-2015 à 20:59:45  profilanswer
0Votes positifs
 

On est d'accord :sol:

n°9609737
bjone
Insert booze to continue
Posté le 15-09-2015 à 21:21:21  profilanswer
1Votes positifs
 

Citation :


 (et techniquement supérieur à une 980)


 
Heu absolument pas. Les vram et les features D3D12 sont à l'avantage de la 980.

n°9609883
zz6
Posté le 16-09-2015 à 06:07:23  profilanswer
0Votes positifs
 

Citation :


 
Heu absolument pas. Les vram et les features D3D12 sont à l'avantage de la 980.


 
La remarque était générale. Les specs techniques sont dans leur ensemble supérieures, mais effectivement pas sur tous les points. De là à dire "absolument pas"....
Si je met 8Gb sur une GTX 480, elle ne devient pas subitement et "absolument" supérieure à une GTX 980 qui n'en a que 4.
 
Le premier terme que j'ai utilisé était "équivalent", et je pense qu'il reste le plus approprié (Si j'ai tiré la couverture, c'était pour remettre l'église au millieu du village).

Message cité 1 fois
Message édité par zz6 le 16-09-2015 à 06:11:15
n°9609922
petit-tigr​e
miaou
Posté le 16-09-2015 à 09:36:12  profilanswer
0Votes positifs
 

Il n'y a aucun problème à avoir une 980 Ti pour du 1080p.
 
Tous les jeux passent crème à 60 fps à fond voire 120 selon les titres, c'est le bonheur absolu.
 
Je pige pas cette volonté de massacrer le confort juste pour profiter d'un 4K tout ce qu'il y a de plus dispensable...


---------------
mIaOuUuUuUuUuUu
n°9609939
mrdoug
Posté le 16-09-2015 à 10:01:13  profilanswer
0Votes positifs
 

petit-tigre a écrit :

Il n'y a aucun problème à avoir une 980 Ti pour du 1080p.
 
Tous les jeux passent crème à 60 fps à fond voire 120 selon les titres, c'est le bonheur absolu.
 
Je pige pas cette volonté de massacrer le confort juste pour profiter d'un 4K tout ce qu'il y a de plus dispensable...


 
+1000 ! Franchement entre du 4k et du 144hz j'ai vite fait mon choix.

n°9609944
Golbam
Posté le 16-09-2015 à 10:12:34  profilanswer
0Votes positifs
 

cortexzehef a écrit :


Et pour DX13... Je ne m'y connais pas trop mais je doute fort qu'il puisse exister. DX12 fonctionnera en bas-niveau, et je ne pense pas qu'on puisse faire mieux  :??:


 
On peut toujours faire mieux. Mais un nouveau dx est souvent associé à un nouveau Windows. Or microsoft a sorti son dernier windows. Et comme tu le dis, dx12 introduit le principe de bas niveau donc, si l'API est bien faite, elle pourra toujours être amélioré "sans changer le nom des méthodes". Je ne pense pas qu'un dx13 existe sauf changement radical d'architecture (radical = processeur bionique ou quantique).
 
Je suis entièrement d'accord avec zz6 concernant le "bon" ou "mauvais" timing à condition qu'une série soit bonne (et qu'on ne tombe pas sur les 8800 de NV qu'il fallait ressouder au four). L'achat du très haut de gamme 6xx était excellent, avec une grosse possibilité de pérennité via un SLI. Par contre l'achat d'une 980 (ti ou pas) n'est pas indiqué puisque ces cartes sont encore en dp1.2 (c'est à dire 4K à 60 fps), qu'elles concernent une architecture en fin de vie et que le changement de gravure est imminent. La série des 9xx est, pour moi, une série "bâtarde" car pouvant prétendre au 4K 144Hz, mais étant limité au final au 1440p 144Hz. De toute manière elle n'a servi à NVidia qu'à éprouver sa technologie dans une optique basse consommation qui lui permette d'élever la puissance en débloquant le TDP.  
 
AMD de son côté à passé son temps à renommer en faisant quelques améliorations. Mais on se retrouve au final avec une gamme extrêmement longue avec de la poudre aux yeux uniquement au niveau du nommage. Et donc, comme chez NVidia, l'achat d'une 79xx ou même d'une 78xx était excellent à condition de rester en FullHD. Ce que la plupart des gens ont fait puisque les écrans "gamer" 1440p chez Asus et Acer étaient les premiers à expérimenter FreeSync/GSync et uniquement à destination des "enthousiastes" qui n'ont pas peur des "petits" défauts (et qui ont de la chance).
 
Pour conclure, ma première 670 GTX a été un excellent achat (ça aurait été la même chose pour une 7950 chez AMD). Le marché de l'occasion sur les cartes graphiques étant très fiable, l'ajout d'une deuxième au tier voire quart de son prix a été un énorme deal ce qui fait que pour du FullHD, la configuration reste excellente avec un OC si nécessaire (et tirer du high / extreme sur The Witcher 3 en tweakant le hairworks). Je parle de FullHD, je le répète. Je prévois de faire la même chose à la sortie de Pascal (taper dans le très haut de gamme du coup après avoir attendu quelques tests qui témoignent de la fiabilité de l'archi) et associer un écran 4K @120/144 Hz pour repartir sur 3/4 ans sans soucis. J'espère aussi que le NVLink sera présent dès Pascal I, et le DP1.4 pourquoi pas. Volta étant repoussé à "on ne sait quand" le timing semble propice.


---------------
Alim Seasonic platinum SS-1200XP; Asus P8Z77-m PRO; i5-3570k @ 4.2 GHz; 16 Go DDR3; 2*2To Seagate; Intel 128 go 320 series; Samsung 250go 850 evo; SLI Asus GTX670 DCUII @ 1137 MHz; Fractal Design Define R3;
n°9609948
pepes003
Loués soient les Or(d)i
Posté le 16-09-2015 à 10:22:21  profilanswer
0Votes positifs
 


Je vois toujours pas l'argument pour cette phrase:  
"L'achat du très haut de gamme 6xx était excellent, avec une grosse possibilité de pérennité via un SLI"
 
D’ailleurs je vois aucun argument tout court pour toutes tes vérités :??:  
 


---------------
> Mon FEEDBACK <
n°9609951
Yeagermach​42
Posté le 16-09-2015 à 10:24:59  profilanswer
0Votes positifs
 

Golbam a écrit :


 
On peut toujours faire mieux. Mais un nouveau dx est souvent associé à un nouveau Windows. Or microsoft a sorti son dernier windows. Et comme tu le dis, dx12 introduit le principe de bas niveau donc, si l'API est bien faite, elle pourra toujours être amélioré "sans changer le nom des méthodes". Je ne pense pas qu'un dx13 existe sauf changement radical d'architecture (radical = processeur bionique ou quantique).
 
Je suis entièrement d'accord avec zz6 concernant le "bon" ou "mauvais" timing à condition qu'une série soit bonne (et qu'on ne tombe pas sur les 8800 de NV qu'il fallait ressouder au four). L'achat du très haut de gamme 6xx était excellent, avec une grosse possibilité de pérennité via un SLI. Par contre l'achat d'une 980 (ti ou pas) n'est pas indiqué puisque ces cartes sont encore en dp1.2 (c'est à dire 4K à 60 fps), qu'elles concernent une architecture en fin de vie et que le changement de gravure est imminent. La série des 9xx est, pour moi, une série "bâtarde" car pouvant prétendre au 4K 144Hz, mais étant limité au final au 1440p 144Hz. De toute manière elle n'a servi à NVidia qu'à éprouver sa technologie dans une optique basse consommation qui lui permette d'élever la puissance en débloquant le TDP.  
 
AMD de son côté à passé son temps à renommer en faisant quelques améliorations. Mais on se retrouve au final avec une gamme extrêmement longue avec de la poudre aux yeux uniquement au niveau du nommage. Et donc, comme chez NVidia, l'achat d'une 79xx ou même d'une 78xx était excellent à condition de rester en FullHD. Ce que la plupart des gens ont fait puisque les écrans "gamer" 1440p chez Asus et Acer étaient les premiers à expérimenter FreeSync/GSync et uniquement à destination des "enthousiastes" qui n'ont pas peur des "petits" défauts (et qui ont de la chance).
 
Pour conclure, ma première 670 GTX a été un excellent achat (ça aurait été la même chose pour une 7950 chez AMD). Le marché de l'occasion sur les cartes graphiques étant très fiable, l'ajout d'une deuxième au tier voire quart de son prix a été un énorme deal ce qui fait que pour du FullHD, la configuration reste excellente avec un OC si nécessaire (et tirer du high / extreme sur The Witcher 3 en tweakant le hairworks). Je parle de FullHD, je le répète. Je prévois de faire la même chose à la sortie de Pascal (taper dans le très haut de gamme du coup après avoir attendu quelques tests qui témoignent de la fiabilité de l'archi) et associer un écran 4K @120/144 Hz pour repartir sur 3/4 ans sans soucis. J'espère aussi que le NVLink sera présent dès Pascal I, et le DP1.4 pourquoi pas. Volta étant repoussé à "on ne sait quand" le timing semble propice.


Un nouveau DX peut etre associé a une nouvelle xbox ou a une nouvelle techno.

n°9609953
bjone
Insert booze to continue
Posté le 16-09-2015 à 10:29:39  profilanswer
0Votes positifs
 

zz6 a écrit :

[quotemsg]
Si je met 8Gb sur une GTX 480, elle ne devient pas subitement et "absolument" supérieure à une GTX 980 qui n'en a que 4.


Bien sûr puisque les features API sont inférieures.
 
Technologiquement une 690 n'est qu'inférieure à une 980, et en performances c'est quand le SLI marche bien que ça se vaut. Sur les patterns d'utilisation qui marchent mal en SLI la 980 pliera la 690 ; en cas de forte utilisation de vram la 980 pliera la 690, en cas de techniques nécessitant ce que la 980 expose en caps, le moteur ne se lancera pas sur une 690.
 
Donc non, une 690 n'est équivalente à une 980 qu'avec des moteurs D3D11 qui passent bien en SLI, et dont les assets utilisés par frame du jeu rentre dans les 2GB de vram effectif, ce dont je peux te garantir, pour des raisons professionnelles, va être de plus en plus dur.
 
----
 
Après je dis pas que tu l'as pas amortie, et qu'effectivement sur les jeux auquel tu joues en ce moment, elle se démerde très bien ;)
Donc contextuellement encore en septembre 2015, une 690 ça marche encore bien bien ;)


Message édité par bjone le 16-09-2015 à 10:48:14
n°9609960
Golbam
Posté le 16-09-2015 à 10:39:56  profilanswer
0Votes positifs
 

pepes003 a écrit :


Je vois toujours pas l'argument pour cette phrase:  
"L'achat du très haut de gamme 6xx était excellent, avec une grosse possibilité de pérennité via un SLI"
 
D’ailleurs je vois aucun argument tout court pour toutes tes vérités :??:  


 
Mes "vérités" sont en effet issues de mon expérience personnelle mais je donne mon avis sur ce forum. Vu le nombre d'années et les paramètres que j'arrive à mettre en jeu (GTA V, Witcher 3, les BF et COD, etc.) je ne me plains vraiment pas de l'achat.
 
Pour les arguments il faut chercher du côté de tous les benchmark, bien sûr la 980Ti va aligner une 670, mais on n'est pas sur la même gamme de prix. Sur reddit quelques utilisateurs font toujours des bench en jeu sur la 670 SLI ou pas qui témoignent de la puissance de ces cartes. Donc je ne vais pas chercher à argumenter puisque mon post était réellement orienté "expérience personnelle" ce que je ne fais pas souvent.
 

Yeagermach42 a écrit :


Un nouveau DX peut etre associé a une nouvelle xbox ou a une nouvelle techno.


 
C'est vrai, je n'y avais pas pensé. Ca risque en effet d'être le moteur principal ces prochaines années.


---------------
Alim Seasonic platinum SS-1200XP; Asus P8Z77-m PRO; i5-3570k @ 4.2 GHz; 16 Go DDR3; 2*2To Seagate; Intel 128 go 320 series; Samsung 250go 850 evo; SLI Asus GTX670 DCUII @ 1137 MHz; Fractal Design Define R3;
n°9609975
bjone
Insert booze to continue
Posté le 16-09-2015 à 10:56:54  profilanswer
0Votes positifs
 

C'est surtout que le nouveau DX s'aligne sur les pratiques de programmation effectivement plus bas-niveau des consoles.
 
Exposer du "plus" bas-niveau est difficile, car ça nuit à l'expérimentation d'un bas-niveau différent de modèle en modèle.
 
Et ça peut être-contre performant si le bas-niveau hardware change et est décorrélé avec le modèle de programmation exposé : il vaut mieux une abstraction faisant perdre des opportunités d'optimisation, qu'avoir un "bas-niveau" décorrélé et au final "émulé" au fur et à mesure que le modèle de programmation et le hardware divergent.
 
Le PC avait/a un modèle de programmation plus abstrait qu'une console, ce qui permet aux fabricants d'itérer rapidement.
 
Et les consoles attrapent l'architecture "idéale" (en théorie: la PS3 ayant été un beau fail d'archi) déterminé sur PC (enfin desktop) en termes de design hardware et software pour faire un bundle optimisé économiquement, mais sont gelées pendant 10 ans.


Message édité par bjone le 16-09-2015 à 10:58:27
n°9610005
zz6
Posté le 16-09-2015 à 11:48:52  profilanswer
0Votes positifs
 

Citation :


Technologiquement une 690 n'est qu'inférieure à une 980, et en performances c'est quand le SLI marche bien que ça se vaut. Sur les patterns d'utilisation qui marchent mal en SLI la 980 pliera la 690 ; en cas de forte utilisation de vram la 980 pliera la 690, en cas de techniques nécessitant ce que la 980 expose en caps, le moteur ne se lancera pas sur une 690.
 
Donc non, une 690 n'est équivalente à une 980 qu'avec des moteurs D3D11 qui passent bien en SLI, et dont les assets utilisés par frame du jeu rentre dans les 2GB de vram effectif, ce dont je peux te garantir, pour des raisons professionnelles, va être de plus en plus dur.


 
 
Je n'ai pas parler de technologie/d'API mais de spécifications techniques.  
Quant à savoir si la GTX 690 saura rester performante en DX12, c'est un peu tôt pour en juger. Les grosse optimisations sont aussi dépendante du CPU il me semble, et il ne faut pas imaginer que DX12 va être pleinement exploité avant 2-3 ans. Pour rappel les premiers jeux utilisants à la fois DX10 et DX11 étaient parfois plus lent en DX11 (sans pour autant offrir d'avantages visuel).
 
Comme déjà dit, le SLI est très bien supporté et je ne vois aucun problème ni présent ni avenir de ce point de vue là (Le SLI de la 690 est même meilleur que le SLI classique avec des optimisation comme le "Hardware framerate metering" ). Pour moi le multi-GPU n'en est qu'au début, et a en croire nvidia, sa prochaine archi supportera du 8xSLI, il est donc loin d'être mort.
 
Quant à la VRAM, c'est un problème je l'ai dis et on le vois dans un des rare benchs ou la 980 passe devant la 690: Wolfenstein new order.
http://www.techpowerup.com/reviews [...] LI/18.html
Ce qu'il faut savoir c'est que ce jeux utilise déjà plus que 4Gb de vram, ce qui ne met pas la 980 dans une position très confortable non plus.
 
On peut toujours discuter pour savoir qui est techniquement supérieur entre une carte avec 2048 stream processors dans une puce de 5,2 millards de transistors ou une carte avec 3072 stream processors répartis dans 2x3,5 milliards de transistors, le fait est que les benchs sont très clairs pour les jeux présents (pas ceux d'il y a 3 ans, ceux d'aujourd'hui), et que pour les jeux futurs, il n'y a actuellement que la limitation VRAM qui est certaine (et je crois qu'on peut considéré que la 980 avec ses 4 Gb à déjà aujourd'hui elle aussi atteint ses limites).

n°9610036
McNulty
Posté le 16-09-2015 à 12:17:18  profilanswer
0Votes positifs
 

zz6 a écrit :

Citation :


Technologiquement une 690 n'est qu'inférieure à une 980, et en performances c'est quand le SLI marche bien que ça se vaut. Sur les patterns d'utilisation qui marchent mal en SLI la 980 pliera la 690 ; en cas de forte utilisation de vram la 980 pliera la 690, en cas de techniques nécessitant ce que la 980 expose en caps, le moteur ne se lancera pas sur une 690.
 
Donc non, une 690 n'est équivalente à une 980 qu'avec des moteurs D3D11 qui passent bien en SLI, et dont les assets utilisés par frame du jeu rentre dans les 2GB de vram effectif, ce dont je peux te garantir, pour des raisons professionnelles, va être de plus en plus dur.


 
 
Je n'ai pas parler de technologie/d'API mais de spécifications techniques.  
Quant à savoir si la GTX 690 saura rester performante en DX12, c'est un peu tôt pour en juger. Les grosse optimisations sont aussi dépendante du CPU il me semble, et il ne faut pas imaginer que DX12 va être pleinement exploité avant 2-3 ans. Pour rappel les premiers jeux utilisants à la fois DX10 et DX11 étaient parfois plus lent en DX11 (sans pour autant offrir d'avantages visuel).
 
Comme déjà dit, le SLI est très bien supporté et je ne vois aucun problème ni présent ni avenir de ce point de vue là (Le SLI de la 690 est même meilleur que le SLI classique avec des optimisation comme le "Hardware framerate metering" ). Pour moi le multi-GPU n'en est qu'au début, et a en croire nvidia, sa prochaine archi supportera du 8xSLI, il est donc loin d'être mort.
 
Quant à la VRAM, c'est un problème je l'ai dis et on le vois dans un des rare benchs ou la 980 passe devant la 690: Wolfenstein new order.
http://www.techpowerup.com/reviews [...] LI/18.html
Ce qu'il faut savoir c'est que ce jeux utilise déjà plus que 4Gb de vram, ce qui ne met pas la 980 dans une position très confortable non plus.
 
On peut toujours discuter pour savoir qui est techniquement supérieur entre une carte avec 2048 stream processors dans une puce de 5,2 millards de transistors ou une carte avec 3072 stream processors répartis dans 2x3,5 milliards de transistors, le fait est que les benchs sont très clairs pour les jeux présents (pas ceux d'il y a 3 ans, ceux d'aujourd'hui), et que pour les jeux futurs, il n'y a actuellement que la limitation VRAM qui est certaine (et je crois qu'on peut considéré que la 980 avec ses 4 Gb à déjà aujourd'hui elle aussi atteint ses limites).


 
le moteur des derniers Wolfenstein ne supporte pas le multi-GPU

n°9610082
zz6
Posté le 16-09-2015 à 13:18:14  profilanswer
0Votes positifs
 

Oui, mais la chute de framerate est liée à la VRAM, pas au single GPU (enfin beaucoup moins). Voir les tests faits avec des cartes 2Gb et la même carte en version 4Gb. Techpowerup a benché avec le mode ULTRA, et pour des textures ultra il est bien précisé qu'il faut 4Gb. A la base, id tech 5 n'est pas un soucis pour une 680.

Message cité 1 fois
Message édité par zz6 le 16-09-2015 à 13:56:22
n°9610162
McNulty
Posté le 16-09-2015 à 14:18:46  profilanswer
0Votes positifs
 

zz6 a écrit :

Oui, mais la chute de framerate est liée à la VRAM, pas au single GPU (enfin beaucoup moins). Voir les tests faits avec des cartes 2Gb et la même carte en version 4Gb. Techpowerup a benché avec le mode ULTRA, et pour des textures ultra il est bien précisé qu'il faut 4Gb. A la base, id tech 5 n'est pas un soucis pour une 680.


 
si c'était la ram les perfs s'effondreraient bien plus que ça, là c'est cohérent avec l'utilisation d'un seul GPU = GTX680, d'ailleurs la 7990 qui se transforme donc en 7970 avec plus de ram est quand même en dessous, sauf en très haute résolution comme souvent avec les GPU AMD qui performent mieux en haute résolution.

n°9610187
bjone
Insert booze to continue
Posté le 16-09-2015 à 14:38:00  profilanswer
0Votes positifs
 

ravenloft a écrit :


Tu peux toujorus rajouter des nouvelles options et techniques de rendu.


C'est surtout qu'un modèle de programmation n'est jamais figé, et plus tu vas vers du bas-niveau, moins le modèle de programmation et les pratiques sont stables dans le temps.

n°9610224
zz6
Posté le 16-09-2015 à 15:17:42  profilanswer
0Votes positifs
 

Citation :


si c'était la ram les perfs s'effondreraient bien plus que ça, là c'est cohérent avec l'utilisation d'un seul GPU = GTX680, d'ailleurs la 7990 qui se transforme donc en 7970 avec plus de ram est quand même en dessous, sauf en très haute résolution comme souvent avec les GPU AMD qui performent mieux en haute résolution.


 
Effectivement il doit y avoir un mix des deux, et la perte de SLI joue un rôle important (en plus de la perte sur la gestion SLI comme c'est le cas du SLI 970 vs single 970). Je pense quand même que la limitation de VRAM (utilisation de 2 Gb alors que le jeux en réclame au moins 4) a une grosse part dans cette perte.
 
Si la limitation de VRAM n'était réellement pas un problème, je me demande si j'ai bien fait de revendre ma GTX 690 et si je n'aurrais pas pu la garder encore quelques temps (les jeux non-SLI sont plutôt rares).

Message cité 2 fois
Message édité par zz6 le 16-09-2015 à 15:18:22
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12

Aller à :
Ajouter une réponse
 

Sujets relatifs
Avis Achat GTX 980GTX 960 "fantome"
Résolution écran avec une GeForce GTX 850MAlim assez puissante pour une Asus Strix GTX 960 OC 4GB DDR5?
Gtx 970 vs 780 version 6 gbDemande d'aide sur une config basé sur une GTX 980 TI Phoenix GS
[HFR] Actu : Crono Labs C1, un boitier avec pied VESA pour super AIO[HFR] Actu : Rupture à prévoir sur l'i7-6700K
Plus de sujets relatifs à : [HFR] Actu : Les GTX 900 supportent-elles correctement DirectX 12 ?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR