Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2119 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  81  82  83  ..  845  846  847  848  849  850
Auteur Sujet :

[Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)

n°10414511
darkandy
?
Posté le 24-08-2018 à 14:56:19  profilanswer
 

Reprise du message précédent :

sardhaukar a écrit :

Potentiellement ça va être chiant à appréhender le up de perfs.
 
Comment ça va se passer l'exploitation des nouvelles unités de calcul ? Est-ce que les pilotes vont permettre de les utiliser ? Les jeux auront-ils besoin de patchs ? Si ça marche à coups de patchs développeurs, ce sera diffus au fil du temps.
 
Est-ce qu'on sait si les x60 et en dessous auront des tensors/RT ?
 
Encore pas mal de choses à élucider.


 
De ce que j'ai vu sur ce topic, ce sera des GTX2060 et non des RTX2060, un début de réponse  :D


---------------
Phenom II 1090T: http://valid.canardpc.com/show_oc.php?id=1766499 Intel Core i5 4670K : http://valid.x86.fr/ka4cpf Ryzen 2600 : https://valid.x86.fr/0byf0r Ryzen 5 3600 : https://valid.x86.fr/fzwdll
mood
Publicité
Posté le 24-08-2018 à 14:56:19  profilanswer
 

n°10414512
BobMorrisT​heKing
Posté le 24-08-2018 à 15:01:17  profilanswer
 

reflex69 a écrit :


Soit tu n'as pas regardé/compris les d'explications dans cette vidéo, soit Nvidia déclenche trop d'émotions et perturbe le raisonnement logique.
Car on dispose déjà de l'essentiel des données pour avoir une bonne idée de comparaison avec l'existant Pascal.
On connait les specs précises, les fréquences, les quantités mémoire et bandes passantes.
A commencer par la puissance de calcul brut, on peut voir que la 2080 et la 1080ti sont proches :
https://image.noelshack.com/fichier [...] tflops.png
 
Après, il y a l'optimisation de l'architecture qui permet de paralléliser d'avantage d'instructions dans un même cycle, mais à condition que les développeurs aient prévu d'en tirer profit au niveau shading (int32 // fp32), sinon il faudra attendre les futurs jeux et/ou patchs :
https://i.kinja-img.com/gawker-medi [...] knia2d.png
 
C'est pourquoi la présentation de Nvidia est surtout basée sur l'apport du RTX qui est une belle avancée, mais à conditions que les développeurs jouent le jeu pour exploiter cette nouvelle architecture (invités justement pour la présentation).
 
Il n'y pas de magie, Pascal avait apporté un gros gain avec la montée en fréquence grâce à la finesse de gravure.
Ici, il n'y a pas d'augmentation brut de la puissance (sauf 2080ti) mais une nouvelle architecture que les développeurs devront pouvoir exploiter à l'avenir.
Pour moi, le seule nouveauté en puissance comparée à l’existant est la 2080ti.
Tandis que la 2080 est la moins intéressante vu le niveau de tarif demandé et la mémoire exactement identique à la 2070 (quantité et bande passante).
 


Quid du DLSS dans ton raisonnement, qui ne parait pas déconnant au demeurant?

n°10414515
havoc_28
Posté le 24-08-2018 à 15:02:46  profilanswer
 

BobMorrisTheKing a écrit :

Quid du DLSS dans ton raisonnement, qui ne parait pas déconnant au demeurant?


 
Faudra des tests approfondis, comparatif avec les AA traditionnels pour voir ce que ça donne réellement. Les premières impressions sont positives, mais ça reste à confirmer.


Message édité par havoc_28 le 24-08-2018 à 15:03:21
n°10414523
oliviermdv​y
Posté le 24-08-2018 à 15:17:54  profilanswer
 

Avez vous remarqué que la MSI 2080TI Gaming X Trio nécessite 3 connecteurs d'alim au lieu de 2 pour les autres 2080TI ?
Qu'est ce qui nécessite un connecteur de plus?


---------------
i5 13600K|32Go GSkill DDR4 3600Mhz|MSI Shadow OC RTX 5080|Meta Quest 3
n°10414525
reflex69
Posté le 24-08-2018 à 15:19:45  profilanswer
 

BobMorrisTheKing a écrit :


Quid du DLSS dans ton raisonnement, qui ne parait pas déconnant au demeurant?


Ca fait partie des nouveautés "intelligentes" qui devront être maitrisées pour compenser la brut force et donner à cette nouvelle génération tout son sens.
Ceci étant dit, je ne critique pas cette nouvelle génération qui est de loin la plus complexe et intelligente.
Mais je critique les tarifs Nvidia qui achèvent la communauté des joueurs à peine sortie de la folie mining...

n°10414527
BobMorrisT​heKing
Posté le 24-08-2018 à 15:20:54  profilanswer
 

oliviermdvy a écrit :

Avez vous remarqué que la MSI 2080TI Gaming X Trio nécessite 3 connecteurs d'alim au lieu de 2 pour les autres 2080TI ?
Qu'est ce qui nécessite un connecteur de plus?


l'overclocking d'usine, la soluce de refroidissement..On ne sait pas, on n'a pas encore la review..

Message cité 1 fois
Message édité par BobMorrisTheKing le 24-08-2018 à 15:33:09
n°10414534
sardhaukar
Posté le 24-08-2018 à 15:31:41  profilanswer
 

reflex69 a écrit :


Ca fait partie des nouveautés "intelligentes" qui devront être maitrisées pour compenser la brut force et donner à cette nouvelle génération tout son sens.
Ceci étant dit, je ne critique pas cette nouvelle génération qui est de loin la plus complexe et intelligente.
Mais je critique les tarifs Nvidia qui achèvent la communauté des joueurs à peine sortie de la folie mining...


 
Le day 1 se paie. La communauté sera un peu mieux servie + tard, comme d'hab.
Oui le mining a miné toute la fin de gen, gen qui a été longue qui plus est. M'enfin au point où on en est, autant attendre encore...  [:dovakor loves you:3]

n°10414536
BobMorrisT​heKing
Posté le 24-08-2018 à 15:32:35  profilanswer
 

reflex69 a écrit :


Ca fait partie des nouveautés "intelligentes" qui devront être maitrisées pour compenser la brut force et donner à cette nouvelle génération tout son sens.
Ceci étant dit, je ne critique pas cette nouvelle génération qui est de loin la plus complexe et intelligente.
Mais je critique les tarifs Nvidia qui achèvent la communauté des joueurs à peine sortie de la folie mining...


 
Selon moi, c'est juste un changement dans la gamme...Au niveau tarifaire/perf on peut dire supposer ceci : la 2070 prendrait le créneau de la 1080, La 2080 prendrait la place de la 1080ti, et la 2080ti prendrait la place des Titans...
 
On verra bien les perfs avant de critiquer les prix...

Message cité 1 fois
Message édité par BobMorrisTheKing le 24-08-2018 à 15:49:15
n°10414564
reflex69
Posté le 24-08-2018 à 15:52:07  profilanswer
 

BobMorrisTheKing a écrit :


 
Selon moi, c'est juste un changement dans la gamme...Au niveau tarifaire/perf on peut dire ceci : la 2070 prend le créneau de la 1080, La 2080 prend la place de la 1080ti, et la 2080ti prend la place des Titans...


La segmentation des gammes est plutôt basée sur la taille des puces (GP102->TU102, GP104->TU104...)

n°10414565
Equipments
Posté le 24-08-2018 à 15:52:20  profilanswer
 

Même la 2080 Zotac Twin Fan est à plus de 1000 boules sur ldlc.

Message cité 1 fois
Message édité par Equipments le 24-08-2018 à 15:52:43
mood
Publicité
Posté le 24-08-2018 à 15:52:20  profilanswer
 

n°10414568
sardhaukar
Posté le 24-08-2018 à 15:54:16  profilanswer
 

Equipments a écrit :

Même la 2080 Zotac Twin Fan est à plus de 1000 boules sur ldlc.  


 
 
849€ chez materiel.net
https://www.materiel.net/carte-grap [...] 24135326:s

n°10414576
BobMorrisT​heKing
Posté le 24-08-2018 à 15:58:57  profilanswer
 

reflex69 a écrit :


La segmentation des gammes est plutôt basée sur la taille des puces (GP102->TU102, GP104->TU104...)


Oui, c'est pour ça que les gens gueulent...Y a une revalorisation de la gamme qui ne passe pas ...Ils sont prisonniers de leurs nomenclatures et leur service marketing ne va pas les sauver vu le niveau de la conf. :sweat:  
 
 

n°10414578
cartemere
Posté le 24-08-2018 à 15:59:42  profilanswer
 

reflex69 a écrit :


Soit tu n'as pas regardé/compris les d'explications dans cette vidéo, soit Nvidia déclenche trop d'émotions et perturbe le raisonnement logique.
Car on dispose déjà de l'essentiel des données pour avoir une bonne idée de comparaison avec l'existant Pascal.
On connait les specs précises, les fréquences, les quantités mémoire et bandes passantes.
A commencer par la puissance de calcul brut, on peut voir que la 2080 et la 1080ti sont proches :
https://image.noelshack.com/fichier [...] tflops.png


la puissance de calcul brute n'a pas de lien direct avec les performances en jeu, sinon la Vega64 exploserait les GTX1x00...
 

reflex69 a écrit :

Après, il y a l'optimisation de l'architecture qui permet de paralléliser d'avantage d'instructions dans un même cycle, mais à condition que les développeurs aient prévu d'en tirer profit au niveau shading (int32 // fp32), sinon il faudra attendre les futurs jeux et/ou patchs :
https://i.kinja-img.com/gawker-medi [...] knia2d.png


De la même manière, l'optimisation de l'architecture va bien plus loin que la simple optim de simple/double précision.
On peut avoir des points de contention dans l'archi, qui limitent le niveau de performance en rendu gaming. Et on peut donc obtenir des gains substanciels de performances sans changements significatif sur un tableau de caractéristiques.
 
 
Attention : je ne dis pas que c'est le cas ici (on n'en sait rien), mais les racourcis que tu prends restent des racourcis, et ne sont pas une vérité absolue.
Ce que tu prédis pourra se confirmer en pratique avec les tests, tout comme ça pourra être infirmé...

n°10414587
BobMorrisT​heKing
Posté le 24-08-2018 à 16:06:17  profilanswer
 

cartemere a écrit :


la puissance de calcul brute n'a pas de lien direct avec les performances en jeu, sinon la Vega64 exploserait les GTX1x00...
 


 

cartemere a écrit :


De la même manière, l'optimisation de l'architecture va bien plus loin que la simple optim de simple/double précision.
On peut avoir des points de contention dans l'archi, qui limitent le niveau de performance en rendu gaming. Et on peut donc obtenir des gains substanciels de performances sans changements significatif sur un tableau de caractéristiques.
 
 
Attention : je ne dis pas que c'est le cas ici (on n'en sait rien), mais les racourcis que tu prends restent des racourcis, et ne sont pas une vérité absolue.
Ce que tu prédis pourra se confirmer en pratique avec les tests, tout comme ça pourra être infirmé...


 
En même temps 1 teraflop =1 teraflop
 
Je suis d'accord avec certains sur ce topic...Plus ça fuite, plus le brouillard s'épaissit  

n°10414590
Aqua-Niki
Posté le 24-08-2018 à 16:12:26  profilanswer
 

Ce que dit cartemere n'est pas faux toutefois, d'ailleurs il me semble que le teraflop est une unité qui a plus de sens quand on s'intéresse aux capacités HPC d'une carte qu'à son aspect gaming.
Ca fait un moment que les nVidia sont derrière en teraflop mais devant en gaming il me semble.

n°10414595
BobMorrisT​heKing
Posté le 24-08-2018 à 16:15:02  profilanswer
 

Aqua-Niki a écrit :

Ce que dit cartemere n'est pas faux toutefois, d'ailleurs il me semble que le teraflop est une unité qui a plus de sens quand on s'intéresse aux capacités HPC d'une carte qu'à son aspect gaming.
Ca fait un moment que les nVidia sont derrière en teraflop mais devant en gaming il me semble.


 
Oui je n'ai pas dit le contraire, la virgule flottante ne fait pas tout ^^

n°10414596
oliviermdv​y
Posté le 24-08-2018 à 16:15:33  profilanswer
 

BobMorrisTheKing a écrit :


l'overclocking d'usine, la soluce de refroidissement..On ne sait pas, on n'a pas encore la review..


 
En parlant d'OC, on aura l'info concernant les fréquences quand? Car aucun constructeur ne l'a donne pour le moment.


---------------
i5 13600K|32Go GSkill DDR4 3600Mhz|MSI Shadow OC RTX 5080|Meta Quest 3
n°10414597
sardhaukar
Posté le 24-08-2018 à 16:16:06  profilanswer
 

N'est-ce pas aussi pour cela que les cartes AMD tiennent un peu mieux dans le temps ?
 
Les NV auraient besoin de plus d'optimisations/drivers pour tenir leur rang et donc se feraient relativement rattraper sur la durée ?

n°10414605
cartemere
Posté le 24-08-2018 à 16:23:38  profilanswer
 

BobMorrisTheKing a écrit :


En même temps 1 teraflop =1 teraflop


mais les teraflop, on s'en balance dans l'absolu.
une quadro FX balance bien plus de teraflop qu'une GTX... et pourtant ingame le gain de perfs n'est pas là.
 [:cerveau spamafote]

n°10414611
sofyan57
Posté le 24-08-2018 à 16:25:29  profilanswer
 

Quel casse tête pour moi, je viens de passer sur une config en i5 8600k et je souhaite remplacer mon antique HD7970. J'ai un écran 4K. Vous me conseiller quoi? J'ai bien envie de partir sur une 1060 en attendant le 7nm. Ou opter pour la 2070?

Message cité 3 fois
Message édité par sofyan57 le 24-08-2018 à 16:26:09

---------------
Macbook Pro M1-Pro 16"/2021 - iPad Pro 12,9 - iPhone XS.
n°10414612
Equipments
Posté le 24-08-2018 à 16:26:20  profilanswer
 


 
 
oui je sais mais c'est pour souligner l'absurdité de certains prix...
 
Donc on se dirigerait vers un changement de la segmentation? Genre la 2080 succéderait à la 1080Ti et la 2080Ti deviendrait le nouveau gpu Titan?


Message édité par Equipments le 24-08-2018 à 16:27:39
n°10414614
thomser
Posté le 24-08-2018 à 16:26:36  profilanswer
 

darkandy a écrit :


 
De ce que j'ai vu sur ce topic, ce sera des GTX2060 et non des RTX2060, un début de réponse  :D


 
Source ?

n°10414616
havoc_28
Posté le 24-08-2018 à 16:28:48  profilanswer
 

sardhaukar a écrit :

N'est-ce pas aussi pour cela que les cartes AMD tiennent un peu mieux dans le temps ?
 
Les NV auraient besoin de plus d'optimisations/drivers pour tenir leur rang et donc se feraient relativement rattraper sur la durée ?


 
C'est un mythe. Kepler a moins bien tenu dans le temps à cause de certaines déficientes importantes, déficientes qui n'apparaissaient que dans les tests théoriques de l’époque ou genre le GK110 était au niveau d'un GM206 ... dans certaines tâches.
Les moteurs de jeux, ont évolué depuis Kepler, et ces déficiences ont fini par se manifester de façon de plus en plus importantes.  
 
Maxwell lui a très bien vieilli, n'ayant pas de déficience particulière niveau tests théoriques, tout comme Pascal à conserver une architecture identique quasiment à celle de Maxwell. Turing apporte des modifications oui, et y a le RayTracing, mais Hors Raytracing, est ce que les changement architecturales de Turings, permettent à celui ci de vraiment faire une différence importante vs Pascal ? Si  ce n'est pas vraiment le cas, Pascal et Maxwell ne s'écouleront pas (hors RayTracing).

Message cité 1 fois
Message édité par havoc_28 le 24-08-2018 à 16:37:22
n°10414617
Aqua-Niki
Posté le 24-08-2018 à 16:30:19  profilanswer
 

sofyan57 a écrit :

Quel casse tête pour moi, je viens de passer sur une config en i5 8600k et je souhaite remplacer mon antique HD7970. J'ai un écran 4K. Vous me conseiller quoi? J'ai bien envie de partir sur une 1060 en attendant le 7nm. Ou opter pour la 2070?


Je te conseille d'attendre d'en savoir plus sur les perfs. A ce stade là, tu pourras choisir entre une 1080Ti ou une 2070 suivant le rapport perf/prix en 4K.

n°10414618
reflex69
Posté le 24-08-2018 à 16:31:24  profilanswer
 

cartemere a écrit :


la puissance de calcul brute n'a pas de lien direct avec les performances en jeu, sinon la Vega64 exploserait les GTX1x00...
 


Si tu as mieux à proposer éclaire nous, mais en attendant les benchs, ça reste quand même un bon indicateur pour pouvoir comparer 2 générations de la même marque.
Par exemple à la sortie de la 1070 (6,5 tflops) on pouvait s'attendre à des perfs équivalentes à la 980ti (6 tflops).
 
 

cartemere a écrit :


De la même manière, l'optimisation de l'architecture va bien plus loin que la simple optim de simple/double précision.
On peut avoir des points de contention dans l'archi, qui limitent le niveau de performance en rendu gaming. Et on peut donc obtenir des gains substanciels de performances sans changements significatif sur un tableau de caractéristiques.
 
 
Attention : je ne dis pas que c'est le cas ici (on n'en sait rien), mais les racourcis que tu prends restent des racourcis, et ne sont pas une vérité absolue.
Ce que tu prédis pourra se confirmer en pratique avec les tests, tout comme ça pourra être infirmé...


Évidement on peut toujours tout remettre en cause et passer son temps à critiquer et dire qu'on ne peut jamais être sûr de rien.
Mais sans parler de l'impact de la pression atmosphérique, il est évident que cette nouvelle génération se démarquera de la génération précédente avec l'apport des nouvelles technologies que les développeurs devront exploiter avec le temps.
C'était tout le sens de toute la communication Nvidia lors de la présentation.
Et c'est pour ça que Nvidia tourne autour du pot et préfère éviter une simple comparaison direct.

n°10414619
ppn7
Posté le 24-08-2018 à 16:31:30  profilanswer
 

pir@tem a écrit :


 
 
dans 1 an si tu trouve des 10x0 neuve  ...


 
Y a tellement de stock de pascal que ça va tenir jusqu'au prochaines soldes d'été

n°10414620
havoc_28
Posté le 24-08-2018 à 16:32:25  profilanswer
 

ppn7 a écrit :


 
Y a tellement de stock de pascal que ça va tenir jusqu'au prochaines soldes d'été


 
Les GT1030 oui surement :D.


Message édité par havoc_28 le 24-08-2018 à 16:32:32
n°10414623
cartemere
Posté le 24-08-2018 à 16:33:21  profilanswer
 

sardhaukar a écrit :

N'est-ce pas aussi pour cela que les cartes AMD tiennent un peu mieux dans le temps ?
 
Les NV auraient besoin de plus d'optimisations/drivers pour tenir leur rang et donc se feraient relativement rattraper sur la durée ?


C'est une L.U. ça.
Ca s'est produit une fois, lors dun gros changement d'archi coté nVidia, qui a remis à plat son modèle de drivers.
 
AMD reste sur la même archi (déclinaison GCN) depuis des années.
on verra le jour où ils passeront à autre chose

n°10414625
Invite_Sur​prise
Racaille de Shanghaï
Posté le 24-08-2018 à 16:33:57  profilanswer
 

havoc_28 a écrit :


 
C'est un mythe. Kepler a moins bien tenu dans le temps à cause de certaines déficientes importantes, déficientes qui n'apparaissaient que dans les tests théoriques de l’époque ou genre le GK110 était au niveau d'un GM206 ... dans certaines tâches.


 
Les LU ont la vie dure :
 
http://www.tomshardware.com/review [...] ,5707.html
 
Hawaï a mieux vieilli que Kepler, ça y'a pas de doute par contre.
Hawaï qui est la dernière vraie puce de qualité sortie par AMD, ça commence à faire très loin quand même.

n°10414626
sardhaukar
Posté le 24-08-2018 à 16:34:20  profilanswer
 

sofyan57 a écrit :

Quel casse tête pour moi, je viens de passer sur une config en i5 8600k et je souhaite remplacer mon antique HD7970. J'ai un écran 4K. Vous me conseiller quoi? J'ai bien envie de partir sur une 1060 en attendant le 7nm. Ou opter pour la 2070?


pfiouuu mon pauvre effectivement c'est le dilemne.
 
choix 1 :  
GPU d'attente : 1060. Une rx580 ferait bien le taff aussi.
 
choix 2 : craquer une 2070. Dans les 640€, disons 600€ avec un peu d'optimisation si tu ne la prends pas day 1.
 
Et l'occasion tu y as pensé ? Hier soir des 1080ti custom (asus de mémoire) sont parties à 490€. C'est un choix solide vs 2070 je pense.

n°10414630
sardhaukar
Posté le 24-08-2018 à 16:37:39  profilanswer
 

Invite_Surprise a écrit :


 
Les LU ont la vie dure :
 
http://www.tomshardware.com/review [...] ,5707.html
 
Hawaï a mieux vieilli que Kepler, ça y'a pas de doute par contre.
Hawaï qui est la dernière vraie puce de qualité sortie par AMD, ça commence à faire très loin quand même.


 
Ah je cherchais justement un comparatif du genre, merci.  :jap:  
 
"AMD averages a 2.3% speed-up across our benchmark suite, while Nvidia averages 4.3%"
 
Effectivement AMD meilleur sur la durée c'est du passé.

n°10414634
cartemere
Posté le 24-08-2018 à 16:39:50  profilanswer
 

reflex69 a écrit :


Si tu as mieux à proposer éclaire nous, mais en attendant les benchs, ça reste quand même un bon indicateur pour pouvoir comparer 2 générations de la même marque.
Par exemple à la sortie de la 1070 (6,5 tflops) on pouvait s'attendre à des perfs équivalentes à la 980ti (6 tflops).


Ca reste un indicateur comme un autre.
Indicateur qui permet de faire des projections et d'évaluer les résultats finaux.
Ca ne sort pas des résultats garantis.
 
(sinon on se ferait pas chier à organiser des élections, on se contenterait d'un sondage sur un échantillon et zou :o )
 
 

reflex69 a écrit :


Évidement on peut toujours tout remettre en cause et passer son temps à critiquer et dire qu'on ne peut jamais être sûr de rien.


Bah là c'est l'inverse : on passe son temps à faire des projections à partir de trucs supposés pour critiquer le niveau de perfs insuffisant (mais que l'on connait pas...)
 
 

reflex69 a écrit :

Mais sans parler de l'impact de la pression atmosphérique, il est évident que cette nouvelle génération se démarquera de la génération précédente avec l'apport des nouvelles technologies que les développeurs devront exploiter avec le temps.
C'était tout le sens de toute la communication Nvidia lors de la présentation.


pareil qu'au dessus  [:cerveau spamafote]  
 

reflex69 a écrit :

Et c'est pour ça que Nvidia tourne autour du pot et préfère éviter une simple comparaison direct.


J'ai surtout l'impression que nVidia a fait une conf très "bizarre"...
Voir le PDG pédaler dans la semoule pour essayer de vanter les bénéfices du Ray Tracing, en utilisant pour ça une démo de Metro qui faisait vraiment pas envie (lag, bruit dans la gestion des ombres, artefacts, etc.)
 
alors que le lendemain, le studio de Metro nous propose une démo qui claque avec du Ray Tracing (et fluide en plus !), UbiSoft nous fait une demo de BF5 qui déchire avec des effets de lumière et de reflets que l'on imaginait même pas possible.
 
Je sais pas ce que nVidia a foutu, mais j'ai l'impression qu'ils ont totalement foiré leur conf  [:tinostar]  
(en tout cas c'est l'impression que j'ai aujourd'hui)

n°10414636
BobMorrisT​heKing
Posté le 24-08-2018 à 16:40:19  profilanswer
 

cartemere a écrit :


mais les teraflop, on s'en balance dans l'absolu.
une quadro FX balance bien plus de teraflop qu'une GTX... et pourtant ingame le gain de perfs n'est pas là.
 [:cerveau spamafote]


Oui. En partie.
 
Les VEGA sont bonnes en bench type Unigine.  
 
Je pense qu'une Quadro avec des drivers adaptés au gaming devrait pouvoir s'en tirer face à une gtx, non? (question de béotien)

Message cité 1 fois
Message édité par BobMorrisTheKing le 24-08-2018 à 16:41:26
n°10414638
cartemere
Posté le 24-08-2018 à 16:40:47  profilanswer
 

sardhaukar a écrit :


pfiouuu mon pauvre effectivement c'est le dilemne.
 
choix 1 :  
GPU d'attente : 1060. Une rx580 ferait bien le taff aussi.
 
choix 2 : craquer une 2070. Dans les 640€, disons 600€ avec un peu d'optimisation si tu ne la prends pas day 1.
 
Et l'occasion tu y as pensé ? Hier soir des 1080ti custom (asus de mémoire) sont parties à 490€. C'est un choix solide vs 2070 je pense.


à moyen terme ça parait pas déconnant, d'autant que la conso est maitrisée

n°10414640
havoc_28
Posté le 24-08-2018 à 16:41:59  profilanswer
 

BobMorrisTheKing a écrit :


Oui. En partie.
 
ça reste quand même un indicateur parmi d'autre. Les VEGA sont bonnes en bench type Unigine.  
 
Je pense qu'une Quadro avec des drivers adaptés au gaming devrait pouvoir s'en tirer face à une gtx, non? (question de béotien)


 
Une Quadro avec ses drivers Quadro te base te permettra de jouer à n'importe quoi, juste que t'auras les corrections de bugs / derniers gains de performances avec un peu de retard. Bref moins de drivers par ans, mais des drivers plus mures / stables (en plus d'être des drivers plus complets avec plus d'options, par contre y a pas le Geforce Experience mais ils en ont pas besoin les devs :D).  
 
Les Devs, en premier lieu ils testent leurs jeux avec leurs quadros sur lesquels ils ont développer le jeu ... Après c'est qu'il y a le travail d’optimisation en fonction des diverses architectures /  configurations etc.

Message cité 1 fois
Message édité par havoc_28 le 24-08-2018 à 16:48:24
n°10414645
tartopron
Tarte... au pron !
Posté le 24-08-2018 à 16:45:59  profilanswer
 

sofyan57 a écrit :

Quel casse tête pour moi, je viens de passer sur une config en i5 8600k et je souhaite remplacer mon antique HD7970. J'ai un écran 4K. Vous me conseiller quoi? J'ai bien envie de partir sur une 1060 en attendant le 7nm. Ou opter pour la 2070?


 
Je suis dans le même cas que toi, j'ai changé mon vénérable i5 2300 pour une plateforme avec un 8700k.
J'ai une R9 290, et les tarifs de nvidia font franchement pas envie.
 
Il est urgent d'attendre...
 
 [:drapal]


Message édité par tartopron le 24-08-2018 à 16:47:55

---------------
Return -1
n°10414650
ppn7
Posté le 24-08-2018 à 16:48:49  profilanswer
 

Invite_Surprise a écrit :


 
Les LU ont la vie dure :
 
http://www.tomshardware.com/review [...] ,5707.html
 
Hawaï a mieux vieilli que Kepler, ça y'a pas de doute par contre.
Hawaï qui est la dernière vraie puce de qualité sortie par AMD, ça commence à faire très loin quand même.


 

sardhaukar a écrit :


 
Ah je cherchais justement un comparatif du genre, merci.  :jap:  
 
"AMD averages a 2.3% speed-up across our benchmark suite, while Nvidia averages 4.3%"
 
Effectivement AMD meilleur sur la durée c'est du passé.


 
Les tests sont faits sur une RX 480 et une 1060, ce ne sont pas des très vieilles cartes, sachant que la 480 est plus vieille que la 1060 et que la 1060 c'est la dernière série nvidia qui est toujours suivi forcément.
Par contre comparons dans 2 ou 3 ans quand les 1060 seront à l'abandon, comme par exemple un versus 280X et gtx 770/680

n°10414651
BobMorrisT​heKing
Posté le 24-08-2018 à 16:49:04  profilanswer
 

havoc_28 a écrit :

 

Une Quadro avec ses drivers Quadro te base te permettra de jouer à n'importe quoi, juste que t'auras les corrections de bugs / derniers gains de performances avec un peu de retard. Bref moins de drivers par ans, mais des drivers plus mures / stables.

 

Les Devs, en premier lieu ils testent leurs jeux avec leurs quadros sur lesquels ils ont devs le jeu ...

 

Oki Merci pr tes infos. :jap: Qui a besoin de geforce experience? ^^


Message édité par BobMorrisTheKing le 24-08-2018 à 16:51:58
n°10414655
havoc_28
Posté le 24-08-2018 à 16:51:39  profilanswer
 

ppn7 a écrit :


 
Les tests sont faits sur une RX 480 et une 1060, ce ne sont pas des très vieilles cartes, sachant que la 480 est plus vieille que la 1060 et que la 1060 c'est la dernière série nvidia qui est toujours suivi forcément.
Par contre comparons dans 2 ou 3 ans quand les 1060 seront à l'abandon, comme par exemple un versus 280X et gtx 770/680


 
Entre une 980 et une R9 290X, l'écart a fini par se stabilisé et les deux cartes offrent toujours un niveau de performance totalement comparable. 980 qui va fêter ses 4 ans le septembre prochain, comme déjà dit, Kepler avait des déficiences architecturales, mais était adapté au jeu de son époque, même si ces dits jeux ont évolué pour au final mettre à jours ces déficiences.
 
Kepler suffit de regarder son débit niveau fillrate, avec ou sans blending pour voir les limitations de cette architecture   (et y aurait aussi les triangles rendus ...) combiné les deux voila quoi :o.
 
https://www.hardware.fr/articles/95 [...] ixels.html
https://www.hardware.fr/articles/95 [...] etrie.html

Message cité 1 fois
Message édité par havoc_28 le 24-08-2018 à 16:58:08
n°10414658
ppn7
Posté le 24-08-2018 à 16:57:19  profilanswer
 

havoc_28 a écrit :


 
Entre une 980 et une R9 290X, l'écart a fini par se stabilisé et les deux cartes offrent toujours un niveau de performance totalement comparable. 980 qui va fêter ses 4 ans le septembre prochain, comme déjà dit, Kepler avait des déficiences architecturales, mais était adapté au jeu de son époque, même si ces dits jeux ont évolué pour au final mettre à jours ces déficiences.


 
 
Je n'ai pas de comparatif pour juger de l'écart. Aujourd'hui nvidia est blâmé sur pascal par rapport à DX12, à chaque fois que je vois un bench dx12, c'est amd qui prend l'ascendant

n°10414664
havoc_28
Posté le 24-08-2018 à 17:02:48  profilanswer
 

ppn7 a écrit :

Je n'ai pas de comparatif pour juger de l'écart. Aujourd'hui nvidia est blâmé sur pascal par rapport à DX12, à chaque fois que je vois un bench dx12, c'est amd qui prend l'ascendant


 
L'async compute, permet de gratter quelques % en DX12, vu qu'AMD dispose d'un ordonnanceur matériel pour dispatcher les différentes commandes, alors que Nvidia ne dispose pas d'un tel ordonnanceur matériel, et doit gérer cet ordonnancement via ses pilotes.  
 
Mais le gain DX12 même s'il existe oui il est en moyenne à quoi ?  10% de perf en plus en fonction du moteur de jeu, mais mis à part ses 10% de plus offerts, dans le temps le gap ne va pas augmenter plus que ça ...
 
Pascal même avec 100% de jeux DX12/Vulkan ne serait pas à la rue comme l'est complètement Kepler à cause de ses déficiences architecturales. Un peu derrière peut être, mais pas de quoi rendre la solution Radeon clairement plus performante, non.
 
Bref la 980 tient toujours son rang face à la R9 290X, et ça ne changera pas, contrairement à ce qu'il c'est passé avec Kepler, de même on peut aussi prévoir que la GTX 1060 ne s'effondrera pas vs Polaris.

Message cité 2 fois
Message édité par havoc_28 le 24-08-2018 à 17:06:08
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  81  82  83  ..  845  846  847  848  849  850

Aller à :
Ajouter une réponse
 

Sujets relatifs
Aide: peut-on mettre une NVIDIA GeForce 980M sur un Schenker XMG P724?GPU nvidia inutilisable apres changement carte mere
Impossible de réinstaller les pilotes nvidiaBIOS NVIDIA 9600M GT 512 MB GDDR3
Upgrade config / i7 4770k Nvidia m2000Problème mise à jour carte graphique Nvidia
Intel Xeon W 2133 + Nvidia P4000 en version "grand public" ?Artefacts Carte Graphique Nvidia
Bruit parasite Son suite update driver Nvidia GTX 680 
Plus de sujets relatifs à : [Topic Unique] Nvidia Turing (12nm FFN) / RTX 2080(Ti)(S) / 2070-60(S)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)