Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2428 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8
Auteur Sujet :

[HFR] Actu : Nvidia annonce les GeForce GTX 1080 et 1070

n°9799643
sagittaire
Posté le 07-05-2016 à 23:12:45  profilanswer
1Votes positifs
 

Reprise du message précédent :
 
Bon avant de raconter nawak il faut faire des petits calculs pour vérifier la cohérence de ce que l'on raconte:
 
Bon on va prendre un indice 100 pour la GTX 980. D'après les tests que l'on trouve sur le net, aux fréquence de référence, une GTX 980 Ti est ~25% plus perf qu'une GTX 980 soit un indice de 125. Sur le graphique que fournie Nvidia la GTX 980 est à un niveau ~2.5 contre ~4.5 pour la GTX 1080. Si on suppose que les niveaux de perfs sont linéaires dans ce graphique on trouve alors un indice de 180 pour la GTX 1080. on en déduit donc ceci:
 
GTX 1080 80% plus performante que GTX 980
GTX 1080 44% plus performante que GTX 980 Ti
 
Bon ce sont des approximations et les différences peuvent être certainement énormes d'un jeux à l'autre mais 50% de plus pour la GTX 1080 n'est pas un chiffre fantaisiste. Certainement que ce chiffre est atteint dans certain jeux, peut-être en 4K. En tout cas ce chiffre de 50% n'est pas totalement incohérent.

Message cité 2 fois
Message édité par sagittaire le 07-05-2016 à 23:13:36
mood
Publicité
Posté le 07-05-2016 à 23:12:45  profilanswer
 

n°9799654
Fox-s
Posté le 07-05-2016 à 23:34:33  profilanswer
1Votes positifs
 

La Titan c'est quand même une carte pigeon, elle a des performances plus ou moins équivalentes à la GTX 980Ti (différences de FPS quasi nulles sur les jeux), voir parfois la GTX 980Ti dépasse la Titan selon les modèles, et pourtant ils ont le culot de vendre la Titan 2 fois plus chère que la GTX 980Ti.
En tout cas, 700$ sa reste "raisonnable" avec Nvidia pour un bond de performances de 20%, sa change de ce à quoi on est habitué avec les renommages. Espérons seulement que AMD saura se montrer à la hauteur pour concurrencer Polaris qui se montre prometteur avec de meilleurs perfs et une conso moins élevé.
 

n°9799656
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 07-05-2016 à 23:37:59  profilanswer
3Votes positifs
 

sagittaire a écrit :


Bon avant de raconter nawak il faut faire des petits calculs pour vérifier la cohérence de ce que l'on raconte:
 
Bon on va prendre un indice 100 pour la GTX 980. D'après les tests que l'on trouve sur le net, aux fréquence de référence, une GTX 980 Ti est ~25% plus perf qu'une GTX 980 soit un indice de 125. Sur le graphique que fournie Nvidia la GTX 980 est à un niveau ~2.5 contre ~4.5 pour la GTX 1080. Si on suppose que les niveaux de perfs sont linéaires dans ce graphique on trouve alors un indice de 180 pour la GTX 1080. on en déduit donc ceci:
 
GTX 1080 80% plus performante que GTX 980
GTX 1080 44% plus performante que GTX 980 Ti
 
Bon ce sont des approximations et les différences peuvent être certainement énormes d'un jeux à l'autre mais 50% de plus pour la GTX 1080 n'est pas un chiffre fantaisiste. Certainement que ce chiffre est atteint dans certain jeux, peut-être en 4K. En tout cas ce chiffre de 50% n'est pas totalement incohérent.

:lol:
C'est bien beau de dire que les autres racontent nawak mais ton post l'est bien pas mal dans son genre, pour deux raisons :
 
- d'une part ton positionnement d'indice est faux pour les 980 et 1080, une mesure sur le slide originel te le confirmera.
- d'autre part utiliser écart 980/980 Ti de 25% pour positionner cette dernière alors qu'elle est quasi égale à la Titan X, et que sur ce même graph la Titan X a un avantage de 38% (environ) sur la 980 c'est quand même fort.

n°9799657
bingo-crep​uscule
Posté le 07-05-2016 à 23:41:21  profilanswer
0Votes positifs
 

+1, avec Vulkan, et DX12, le CPU sera encore moins sollicité dans les jeux...

n°9799658
dazouille
ex dazi
Posté le 07-05-2016 à 23:42:36  profilanswer
0Votes positifs
 

Marc a écrit :

:lol:
C'est bien beau de dire que les autres racontent nawak mais ton post l'est bien pas mal dans son genre, pour deux raisons :
 
- d'une part ton positionnement d'indice est faux pour les 980 et 1080, une mesure sur le slide originel te le confirmera.
- d'autre part utiliser écart 980/980 Ti de 25% pour positionner cette dernière alors qu'elle est quasi égale à la Titan X, et que sur ce même graph la Titan X a un avantage de 38% (environ) sur la 980 c'est quand même fort.


 
Quelle dernière est quasi égale à là Titan X ?


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°9799669
valiran
Posté le 07-05-2016 à 23:56:44  profilanswer
0Votes positifs
 

Mais du coup, je me pose une question.
Avec ces cartes graphiques qui s'oriente de plus en plus vers la 4K, les joueurs 1080p vont finir par ne plus avoir "besoin" de changer leurs cartes (sauf en cas de pannes), comme aujourd'hui ceux qui jouent en 1024x768 non?
Avec de la chance, les nVidia séries GTX2xxx seront un palier 1080p pérenne pendant quelques années en ultra?
 
Et quid des GPU mobiles?
Les GPU bureau ne cessent de moins consommer. Verra-t'on à terme la disparition des GPU mobiles? Perso c'est mon avis, certainement dans 1 ou 2 générations.

n°9799705
quentincc
It's all ogre now
Posté le 08-05-2016 à 00:50:51  profilanswer
1Votes positifs
 

valiran a écrit :

Mais du coup, je me pose une question.
Avec ces cartes graphiques qui s'oriente de plus en plus vers la 4K, les joueurs 1080p vont finir par ne plus avoir "besoin" de changer leurs cartes (sauf en cas de pannes), comme aujourd'hui ceux qui jouent en 1024x768 non?
Avec de la chance, les nVidia séries GTX2xxx seront un palier 1080p pérenne pendant quelques années en ultra?
 
Et quid des GPU mobiles?
Les GPU bureau ne cessent de moins consommer. Verra-t'on à terme la disparition des GPU mobiles? Perso c'est mon avis, certainement dans 1 ou 2 générations.


Les GPU consomme de moins en moins car c'est voulu, car on limite la puissance, si on fait consommer plus c'est que c'est plus puissant. Les GPU qui sortent (GTX980 et GTX1080) sont juste des "milieux de gammes" suffisant pour justifier de sortir le modèle, le vrai modèle HDG de nvidia sort à "la génération" d'après pour générer plus de ventes. Les HDG Nvidia ont un TDP proche des 250W, suffit de voir que depuis la GTX280 tout les HDG sauf la 680 et GTX980 (qui sont au final un MDG par rapport au fleuron de l'archi) ont toutes un TDP de 250w.
 
 
Explication de la raison de sortie des GTX680 GTX980 et GTX1080 dites "MDG de l'archi" : Nvidia avait compris que sortir deux GPU presque identique sur de génération n'était pas rentable, je parle de la GTX480 et GTX580 (et encore là elles ont pas les même specs à cause d'un problème de consommation), du coup ils ont eu l'idée de faire un modèle léger avec les GTX680/980/1080 qu'ils ont calculés pour surpasser les anciens modèles tout en étant moins puissante que la pointe/fleuron de l'archi.
 
Pour répondre à ta question des GPU mobile : non, car le TDP baisse seulement sur les modèles MDG, les fleuron restent +/- à 250W


---------------
Réparation GPU HS -> Artefacts, écran noir, court-circuit, corrosion, odeur de brûlé, métal liquide... -> Cliquez ici pour voir mon topic :)
n°9799713
dazouille
ex dazi
Posté le 08-05-2016 à 01:07:53  profilanswer
2Votes positifs
 

dave76 a écrit :

Y a un paquet de râgeux ou de personnes qui veulent se conforter dans leur achat de 980Ti c'est impressionnant ..... à croire qu'ils pensaient que leur carte allait rester sur le haut du pavé pendant 3 ans L.O.L.Ex tout bête:" ah ouais que 20% de plus bah besoin de changer" en gros c'est j'aurai pu penser la même chose de ma 980 vs la Ti :"mouais que ~30% pas de quoi fouetter un chat" qu'est ce qu'il faut pas lire franchement. Le modèle custom + driver opti ce sera du 30% mini + OC maison ~45% mini dans les dents point, faut arrêter la mauvaise foi.


 
Ma fois oui..


---------------
Ici : http://forum.hardware.fr/hfr/Achat [...] 1291_1.htm
n°9799722
bgx
reviens brunette!
Posté le 08-05-2016 à 01:22:52  profilanswer
1Votes positifs
 

quentincc a écrit :


Les GPU consomme de moins en moins car c'est voulu, car on limite la puissance, si on fait consommer plus c'est que c'est plus puissant. Les GPU qui sortent (GTX980 et GTX1080) sont juste des "milieux de gammes" suffisant pour justifier de sortir le modèle, le vrai modèle HDG de nvidia sort à "la génération" d'après pour générer plus de ventes. Les HDG Nvidia ont un TDP proche des 250W, suffit de voir que depuis la GTX280 tout les HDG sauf la 680 et GTX980 (qui sont au final un MDG par rapport au fleuron de l'archi) ont toutes un TDP de 250w.
 
 
Explication de la raison de sortie des GTX680 GTX980 et GTX1080 dites "MDG de l'archi" : Nvidia avait compris que sortir deux GPU presque identique sur de génération n'était pas rentable, je parle de la GTX480 et GTX580 (et encore là elles ont pas les même specs à cause d'un problème de consommation), du coup ils ont eu l'idée de faire un modèle léger avec les GTX680/980/1080 qu'ils ont calculés pour surpasser les anciens modèles tout en étant moins puissante que la pointe/fleuron de l'archi.
 
Pour répondre à ta question des GPU mobile : non, car le TDP baisse seulement sur les modèles MDG, les fleuron restent +/- à 250W


 
apres, en fouillant un peu, on peut voir que nvidia a "commencé" Kepler avec le GK104 (gtx680) et ses moins de 300mm^2 et 170W, et ca avait pas mal fonctionné. Mais c'est peut etre parceque AMD s'est un peu foiré depuis ce moment la. Si polaris 10 est au niveau d'une 1070 avec un die bien plus petit, ca pourrait etre une grosse erreur de nvidia (ils l'a defoncerait pas tout en etant bien plus cher a produire).

Message cité 1 fois
Message édité par bgx le 08-05-2016 à 01:24:32
n°9799724
vxsi
Posté le 08-05-2016 à 01:29:12  profilanswer
2Votes positifs
 

Perso je suis toujours sur mon i7 870 + gtx670.
y'a un an j'ai voulus changer histoire de me mettre a jour (j'ai meme pas d'usb3 ce qui m'enerve un peut car j'ai une bonne clef tres rapide mais je plafonne a 20mo/s arff)
Finalement je me suis dit, pourquoi faire, il marche tres bien, et meme gta5 tourne presque a fond sans trop merder, pareil pour tout les jeux d'ailleurs (sachant que le full hd me suffit, la 4k pourquoi pas mais c'est pas ce que je recherche a tout pris), alors pourquoi racheter, autant attendre la sorti de pascal en hbm qui sera soit disant révolutionnaire plutot qu'acheter 970/980/ti.
Aujourd'hui la question se pose toujours... les nouvelles seront en gddr5x et finalement pour le moment y'a pas eu de grosse nouveauter, de jeux vraiment hard graphiquement qui me font ressentir le besoin de changer, alors,
 
Est ce que je me lance sur une nouvelle config complete et pascal en gddr5x ou j'attend encore 1 an de plus pour espérer voir apparaître du hbm2 ?
that is the question
je serait tenté d'attendre encore
 
un peut décu quand meme que nvidia fasse les pressé a vouloir sorti leur carte a tout pris quit a passer par la case gddr5x plutot qu'attendre le hbm2 histoire de nous sortir un vrai gros haut de gamme, ce qui leur laisse en plus le temp de peaufiner la carte en attendant ce qui n'est jamais un mal

Message cité 1 fois
Message édité par vxsi le 08-05-2016 à 01:38:40
mood
Publicité
Posté le 08-05-2016 à 01:29:12  profilanswer
 

n°9799731
Tigrou
Sans accroc
Posté le 08-05-2016 à 01:46:23  profilanswer
2Votes positifs
 


C'est sûr qu'en attendant le GP100 tu serais tranquille un moment après. Mais bon; "année prochaine, tarif exorbitant probable, etc...", c'est à toi de voir. En info je ne t'apprendrais rien en disant qu'il y aura toujours "mieux après" donc bon...
À un moment soit ton matos te suffit clairement, soit tu te fais plaisir. Peut-être est-il raisonnable de patienter au moins jusqu'à l'annonce de Polaris pour pouvoir faire son choix en toute connaissance de cause (bien qu'au sujet des perfs de ce dernier j'aie comme un "doute" :/)


---------------
Feedback - Stacy's mom
n°9799734
quentincc
It's all ogre now
Posté le 08-05-2016 à 01:52:59  profilanswer
1Votes positifs
 

bgx a écrit :

 

apres, en fouillant un peu, on peut voir que nvidia a "commencé" Kepler avec le GK104 (gtx680) et ses moins de 300mm^2 et 170W, et ca avait pas mal fonctionné. Mais c'est peut etre parceque AMD s'est un peu foiré depuis ce moment la. Si polaris 10 est au niveau d'une 1070 avec un die bien plus petit, ca pourrait etre une grosse erreur de nvidia (ils l'a defoncerait pas tout en etant bien plus cher a produire).


oui ça avait fonctionner car les perfs par rapport aux GTX580/HD6970 étaient au rendez vous, le milieu de gamme kepler suffisait pour surpasser donc ils ont attendu que tout le monde prennent des 680 pour ensuite sortir des 780 et refaire payer ceux qui avaient des 680 et/ou ceux en 580.
Vu que polaris est gravée en 14nm c'est possible mais dans l'ordre de 10% max, et dans ce cas nvidia fera juste moins de bénéfices

 

edit: je pense pas que le grand public aura du GP100, c'est trop axé dans des taches spéciales, peut être du GP110 si Nvidia sort l'archi des 1070 et 1080 en version 600mm²


Message édité par quentincc le 08-05-2016 à 01:55:12

---------------
Réparation GPU HS -> Artefacts, écran noir, court-circuit, corrosion, odeur de brûlé, métal liquide... -> Cliquez ici pour voir mon topic :)
n°9799735
ziple
Posté le 08-05-2016 à 02:06:09  profilanswer
1Votes positifs
 

En gros ce qu'on peut supposer c'est qu'ils ont peur du yield donc pas voulu sortir un énorme gpu. Ils ont donc compensé principalement par une montée en fréquence, et ce en rallongeant la longueur de leur pipeline (diminuant un peu l'efficacité de l'archi).

n°9799737
vxsi
Posté le 08-05-2016 à 02:18:17  profilanswer
0Votes positifs
 

Tigrou a écrit :

Peut-être est-il raisonnable de patienter au moins jusqu'à l'annonce de Polaris pour pouvoir faire son choix en toute connaissance de cause (bien qu'au sujet des perfs de ce dernier j'aie comme un "doute" :/)


 
La question ne se pose pas pour moi dans tout les cas, car peut importe les perfs je n'achete pas AMD, je ne suis pas anti AMD, je connais meme plutot bien ses cartes, mes ami(e)s en on, mes proches en on ou en on eu, et a chaque fois c'est moi qui monter les pcs de tout le monde, donc je les connais, sa marche. . . mais je sait pas j'ai pas le feeling AMD/ATI comme certain, et leur panneau de configuration des drivers et vraiment bordelique je trouve, quand je configure une Nvidia sa me prend moin d'une minute, sur un amd je cherche un quart d'heure parfois sans trouver . . apres chaqun ses gout, je respecte et reconnais que sa marche plutot bien en jeux (meme si sa depent les quel mais c'est pareil pour nvidia) mais perso je n'en veux pas dans mon pc


Message édité par vxsi le 08-05-2016 à 02:19:16
n°9799740
Profil sup​primé
Posté le 08-05-2016 à 02:31:59  answer
2Votes positifs
 

sagittaire a écrit :


Bon avant de raconter nawak il faut faire des petits calculs pour vérifier la cohérence de ce que l'on raconte:
 
Bon on va prendre un indice 100 pour la GTX 980. D'après les tests que l'on trouve sur le net, aux fréquence de référence, une GTX 980 Ti est ~25% plus perf (...)
 
GTX 1080 80% plus performante que GTX 980
GTX 1080 44% plus performante que GTX 980 Ti


 
T'es conscient que dans ta conclusion tu donnes un écart de perf de 36% entre 980 et 980ti qui contredit ton hypothèse de départ de 25%?  :lol:

n°9799742
Mythalar
Posté le 08-05-2016 à 02:53:52  profilanswer
2Votes positifs
 


 
T'es conscient que dans ta conclusion tu donnes un écart de perf de 36% entre 980 et 980ti qui contredit ton hypothèse de départ de 25%?  :lol: [/quotemsg]
 
T'es conscient que les pourcentages c'est pas des additions et que ça ne marche pas dans les 2 sens? :p
 
Si la 980 a un indice 100, la 980ti un indice 125 (+25%) et la 1080 un indice 180 (+80%) alors la 1080 est bien 44% + performante qu'une 980ti (oui oui, 180=125x1,44 je t'assure)

n°9799747
vxsi
Posté le 08-05-2016 à 03:11:07  profilanswer
1Votes positifs
 

Ce ne sont que des spéculations inutile toute facon, on verra des benchmarks tres bientot on sera fixé

n°9799753
Profil sup​primé
Posté le 08-05-2016 à 04:10:05  answer
0Votes positifs
 

Mythalar a écrit :


T'es conscient que les pourcentages c'est pas des additions et que ça ne marche pas dans les 2 sens? :p
 
Si la 980 a un indice 100, la 980ti un indice 125 (+25%) et la 1080 un indice 180 (+80%) alors la 1080 est bien 44% + performante qu'une 980ti (oui oui, 180=125x1,44 je t'assure)


 
Ouaip, j'étais fatigué!  :o  
Vivement les benchs qu'on arrête les spéculations  :whistle:


Message édité par Profil supprimé le 08-05-2016 à 04:11:45
n°9799757
Wizimaru
Posté le 08-05-2016 à 07:00:55  profilanswer
0Votes positifs
 

Il nous vend du rêves avec leurs courbes et leurs chiffres. :O  Wait and see :)

n°9799770
mr-r
Posté le 08-05-2016 à 08:53:49  profilanswer
1Votes positifs
 

Autant la 1080 vend du rêve autant la 1070 ... C'est 10% de mieux qu'une 390x :-/ (Niveau tflops)


Message édité par mr-r le 08-05-2016 à 08:59:46
n°9799810
schpounzzz
mangeur de hardware.
Posté le 08-05-2016 à 10:13:11  profilanswer
2Votes positifs
 

Moi je connais plein de grosses cylindrées qui consomme grave et qui pourtant n'avance pas plus qu'une AX GT.
Attendons les test!  
100€ de plus pour leur design de référence, c'est franchement cher (si ça consomme moins j'attend zotac pny et gainward pour du blower de ref ApaCher)
Après le prix de lancement et abusif, nvidia parlait de baisse de prix avec la nouvelle finesse de gravure.... A non c'est vrais qu'elles sont plus performantes...  
On est loin des 320€ d'une 970 même si l'euro s'est écrasé!

n°9799847
Xixou2
Posté le 08-05-2016 à 10:45:57  profilanswer
0Votes positifs
 

me demande si le watercooler kraken s'adaptera a la 1080

n°9799856
Zurkum
Posté le 08-05-2016 à 11:00:21  profilanswer
0Votes positifs
 

@pierrefranz Nvidia, je pense, veut faire un modèle de ref haut de gamme genre chambre à vapeur etc ... ( le rad 250w ? ) sur un GP104 ce qui devrait permettre de rester hyper silencieux et clairement ceux qui sont en mini itx ça peut les intéresser.

n°9799882
havoc_28
Posté le 08-05-2016 à 11:34:05  profilanswer
1Votes positifs
 

vxsi a écrit :

Perso je suis toujours sur mon i7 870 + gtx670.
y'a un an j'ai voulus changer histoire de me mettre a jour (j'ai meme pas d'usb3 ce qui m'enerve un peut car j'ai une bonne clef tres rapide mais je plafonne a 20mo/s arff)
Finalement je me suis dit, pourquoi faire, il marche tres bien, et meme gta5 tourne presque a fond sans trop merder, pareil pour tout les jeux d'ailleurs (sachant que le full hd me suffit, la 4k pourquoi pas mais c'est pas ce que je recherche a tout pris), alors pourquoi racheter, autant attendre la sorti de pascal en hbm qui sera soit disant révolutionnaire plutot qu'acheter 970/980/ti.
Aujourd'hui la question se pose toujours... les nouvelles seront en gddr5x et finalement pour le moment y'a pas eu de grosse nouveauter, de jeux vraiment hard graphiquement qui me font ressentir le besoin de changer, alors,
 
Est ce que je me lance sur une nouvelle config complete et pascal en gddr5x ou j'attend encore 1 an de plus pour espérer voir apparaître du hbm2 ?
that is the question
je serait tenté d'attendre encore
 
un peut décu quand meme que nvidia fasse les pressé a vouloir sorti leur carte a tout pris quit a passer par la case gddr5x plutot qu'attendre le hbm2 histoire de nous sortir un vrai gros haut de gamme, ce qui leur laisse en plus le temp de peaufiner la carte en attendant ce qui n'est jamais un mal


 
La HBM2 c'est pas forcément très utile pour des cartes à destination des joueurs ... avec la maturation et montée en fréquence de la GDDR5X on pourrait même se passer de HBM2 en 2017 pour le futur HDG "joueur" de nvidia .
 
GP100 , la bande passante c'est 668 go/s .  Un "GP102" , "GP100 bis" , "GP110" ou quelque soit le nom donné à nvidia pour un gros GPU orienté joueur pourrait très bien se contenter de GDDR5X , sur un bus 384 bits de la GDDR5X à 12 Gb/s ça nous fait 576 go/s , et plus avec de la GDDR5X plus rapide , bref à comparer aux actuels 320 go/s du GP104 , y a de quoi faire ...  
 
Un nouveau HDG de 500/600 mm² , 12 Go ou même 24 go de GDDR5X @ 12 gb/s sur un bus 384 bits (24 go pour la nouvelle titan 12 pour la TI ) , pas besoin de HBM2 .  Pas pour le moment en tout cas .
 
Bref , je ne comprends pas trop pourquoi s'obstiner avec de la HBM2 , si la GDDR5X suffirait et serait plus économique . Laisser la HBM2 pour le secteur pro comme le GP100 ou la rentabilité est la plus élevée ...


Message édité par havoc_28 le 08-05-2016 à 20:38:55
n°9799890
Zilak
I can't carry anymore !
Posté le 08-05-2016 à 11:42:46  profilanswer
0Votes positifs
 

Comme a chaque fois la courbe verticale va devenir de plus en plus horizontale. Maxwell en est un bel exemple.

n°9799947
quentincc
It's all ogre now
Posté le 08-05-2016 à 12:36:05  profilanswer
0Votes positifs
 

Zilak a écrit :

Comme a chaque fois la courbe verticale va devenir de plus en plus horizontale. Maxwell en est un bel exemple.


?


---------------
Réparation GPU HS -> Artefacts, écran noir, court-circuit, corrosion, odeur de brûlé, métal liquide... -> Cliquez ici pour voir mon topic :)
n°9800057
Xixou2
Posté le 08-05-2016 à 14:37:13  profilanswer
4Votes positifs
 

c'est comme la courbe des salaires chez nous ^^

n°9800058
BlueScreen​Junky
Posté le 08-05-2016 à 14:37:39  profilanswer
1Votes positifs
 

drey19 a écrit :

La mémoire en plus, qui plus est en nouvelle techno, c'est gratuit ?


Personne n'a jamais parlé de quantité de mémoire ni de techno, je disais juste qu'à gamme équivalente les 10x0 étaient plus chères que les 9x0 à leur sortie. Le rapport performance/prix est bien évidemment meilleur sur la nouvelle génération (encore heureux !)
 
D'ailleurs si les premiers tests sont concluants il est pas impossible que je craque en remplacement de ma GTX980... Après avoir dit pendant des années que c'était ridicule de racheter une nouvelle carte à chaque génération, maintenant que j'ai les moyens de le faire je commence à me poser la question  :D
 

khalis a écrit :

Je serais intéressé de savoir quel CPU au minimum il faudra pour faire tourner cette 1080.


Ca dépend entièrement du jeu, de la résolution et des filtres/options graphiques... Mais pour jouer en 4K avec de l'anti-aliasing je pense qu'un i5 2500K d'il y a 5 ans overclocké devrait faire l'affaire.
En 1080p par contre oui, il faudra sans doute un processeur costaud pour ne pas être limité par le CPU (mais bon... être limité par le CPU a aussi ses avantages : ça permet de pousser l'Anti aliasing et autres options qui impactent principalement la CG à fond sans se poser de question)


Message édité par BlueScreenJunky le 08-05-2016 à 14:59:05
n°9800070
bgx
reviens brunette!
Posté le 08-05-2016 à 14:59:41  profilanswer
1Votes positifs
 

vxsi a écrit :


La question ne se pose pas pour moi dans tout les cas, car peut importe les perfs je n'achete pas AMD, je ne suis pas anti AMD, je connais meme plutot bien ses cartes, mes ami(e)s en on, mes proches en on ou en on eu, et a chaque fois c'est moi qui monter les pcs de tout le monde, donc je les connais, sa marche. . . mais je sait pas j'ai pas le feeling AMD/ATI comme certain, et leur panneau de configuration des drivers et vraiment bordelique je trouve, quand je configure une Nvidia sa me prend moin d'une minute, sur un amd je cherche un quart d'heure parfois sans trouver . . apres chaqun ses gout, je respecte et reconnais que sa marche plutot bien en jeux (meme si sa depent les quel mais c'est pareil pour nvidia) mais perso je n'en veux pas dans mon pc


 
la 1080 va etre dispo quoi? 3 jours avant l'annonce d'ATI, et la 1070 apres.
Il vaut mieux attendre l'annonce. Meme si tu as aucune chance d'acheter ATI, il y a pas mal de chance que ca fasse baisser le prix des cartes nvidia. Tout benef pour toi pour max 3 jours d'attente.

n°9800075
slashkill
Posté le 08-05-2016 à 15:01:22  profilanswer
1Votes positifs
 

http://www.hdfever.fr/2013/11/14/t [...] hdmi-2-0b/
 
Les GTX10xx auront des ports HDMI 2.0B.
C'est à dire pas de 4K 60P 4:4:4 en HDMI.
Donc pas de TV 4K...
 
Moi qui vient de vendre ma 980 320e en pensant que en prenant la 1070 à 420 j'aurais pas besoin d'acheter d'adaptateur displayport... :(

n°9800082
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 08-05-2016 à 15:12:19  profilanswer
1Votes positifs
 

Tu confonds HDMI 2.0b et HDMI 2.0 level B il me semble

n°9800116
slashkill
Posté le 08-05-2016 à 16:04:29  profilanswer
0Votes positifs
 

Oh... Bonne nouvelle alors :D.
J'ai trouvé aucune info sur HDMI 2.0b :) :D :whistle:

n°9800155
bgx
reviens brunette!
Posté le 08-05-2016 à 16:56:35  profilanswer
0Votes positifs
 

en tout cas chapeau au mecs qui ont pondu ces noms bien contre intuitif. Bientot le hdmi 3.5 plus lent que le hdmi 1.4

n°9800175
Fox-s
Posté le 08-05-2016 à 17:18:59  profilanswer
0Votes positifs
 

Le gros problème pour AMD c'est au niveau du calendrier : ils vont sortir Polaris 10 en même temps que Pascal mais Vega ne sortira que début 2017 (pour info apparemment au niveau de la gamme sa sera du Pascal>Vega>Navi) donc sa laisse potentiellement Nvidia sans concurrence sur le secteur Haut de Gamme.

n°9800177
grosnabot
Posté le 08-05-2016 à 17:20:43  profilanswer
2Votes positifs
 

à 650eur pour 300mm², osef.
Perso j'attends de voir les vrais gpu en 14/16nm pas une carte qui devrait s'appeler 1070 au prix et au nom de 1080.
Je change pas de gpu tous les ans.


Message édité par grosnabot le 08-05-2016 à 17:22:40
n°9800218
Zanmatox
Posté le 08-05-2016 à 17:45:04  profilanswer
0Votes positifs
 

J'aimerai me prendre un PC portable gamer sous peu, donc mini avec une 970, doit-je attendre un peu? Baisse de prix? Ou nouveau arrivage? Car les cartes graphiques annoncées ici concerne que les fixe si j'ai bien compris? Un ordre d'idée pour les version portable?

n°9800258
Prums
je suis occupé la...
Posté le 08-05-2016 à 18:21:26  profilanswer
0Votes positifs
 

Fox-s a écrit :

Le gros problème pour AMD c'est au niveau du calendrier : ils vont sortir Polaris 10 en même temps que Pascal mais Vega ne sortira que début 2017 (pour info apparemment au niveau de la gamme sa sera du Pascal>Vega>Navi) donc sa laisse potentiellement Nvidia sans concurrence sur le secteur Haut de Gamme.


 
bah tant mieux,y'a pas que le haut gamme...
Ils vont se compléter dans un sens

n°9800314
LOLO_90
Posté le 08-05-2016 à 18:59:05  profilanswer
0Votes positifs
 

Le hdmi2.0B doit être une nouvelle version. Après le hdmi2.0 qii apporte la 4k 60p puis le hdmi2.0à avec le hdr em plus, faudra vo8re ce que la version b à de plus ;-)

n°9800337
slashkill
Posté le 08-05-2016 à 19:14:31  profilanswer
0Votes positifs
 

Impossible de trouver des infos :/.

n°9800368
Xixou2
Posté le 08-05-2016 à 19:49:08  profilanswer
0Votes positifs
 

le 2.0b est plus lent que le 2.0a:
 
HDMI 2.0 is in fact at the moment a two-tier system, because full HDMI 2.0 chipsets are not available in large quantities. So many HDMI 2.0 4K displays (say like the Sony 500ES projector) have in fact only HDMI 1.4 chipsets with one HDMI 2.0 feature (4K 60p@420 8 bits) which allows them to claim HDMI 2.0 compatibility, but the bandwidth is the same as the HDMI 1.4 chipset, 10.8Gb/s. This is HDMI 2.0b. The full speed version, HDMI 2.0a, with 18Gb/s, is only available on a few devices at this stage.
 
http://www.hdfever.fr/2013/11/14/t [...] hdmi-2-0b/
 
en même temps osef le 12 bits
 


Message édité par Xixou2 le 08-05-2016 à 19:53:45
n°9800397
them4xx
Posté le 08-05-2016 à 20:10:48  profilanswer
0Votes positifs
 

Bon la fois ci je ne ferai plus l'erreur de reprendre le plus gros gpu de la generation, je me contenterai d'une 1070 que j'espère sera en hydrocopper


Message édité par them4xx le 08-05-2016 à 20:11:26

---------------
Mod Bois tier - Vente
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8

Aller à :
Ajouter une réponse
 

Sujets relatifs
GTX 970 gaming 4g - pas de signalGTX 560 Ti pixel vert et ecran bleu
Changement GTX 660 ?[HFR] Actu : GTC: La VR pour les pros et les Quadro
[HFR] Actu : Accord de licence Nvidia-Samsung[HFR] Actu : Skylake 4+4e en versions 65 watts
Plus de sujets relatifs à : [HFR] Actu : Nvidia annonce les GeForce GTX 1080 et 1070


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR