Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3424 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  10  11  12  ..  695  696  697  698  699  700
Auteur Sujet :

[Topic Unique] NVidia GTX 970 & 980 - Maxwell GM204 -

n°9260157
skynet fx
Let's get ready to rumble
Posté le 04-09-2014 à 15:07:50  profilanswer
 

Reprise du message précédent :
Euh!!!! objectivement!!!!
Vous trouvez que la nécessité à l'heure actuelle se trouve au niveau des perfs pures de la carte. Non parce que, hormis la 4K, je trouve la demande de puissance un peu farfelue.  
Par contre je n'ai contre une optimisation de la conso. :D

Message cité 2 fois
Message édité par skynet fx le 04-09-2014 à 15:08:18

---------------
I7 6900K@4.5Ghz, 32Go Corsair Dominator Platinum@3200Mhz,Asus Rampage 10th Anniversary, SLI GTX 1080 Palit Gamerock, EK XLC PREDATOR 360
mood
Publicité
Posté le 04-09-2014 à 15:07:50  profilanswer
 

n°9260181
calagan57
BF3 : calagan57
Posté le 04-09-2014 à 15:50:29  profilanswer
 

clairement oui si ça peut faire gagner quelques FPS dans les jeux moi je suis pour  :D Ca permet de monter en 1600p, d'avoir +60 fps ou 120/144 pour jouer en 3D  :jap:  . La conso je ne la vois pas, ne la sent pas dans les jeux  :( . Qu'ils fassent des déclinaisons "lite" "zero" "sans sucre ajouté" mais qu'ils créent des bombes à perf  [:suomi]  


---------------
Waterbox
n°9260213
Raoul le b​auf
Posté le 04-09-2014 à 16:23:01  profilanswer
 

skynet fx a écrit :

Euh!!!! objectivement!!!!
Vous trouvez que la nécessité à l'heure actuelle se trouve au niveau des perfs pures de la carte. Non parce que, hormis la 4K, je trouve la demande de puissance un peu farfelue.  
Par contre je n'ai contre une optimisation de la conso. :D


 
 
 
C'est une plaisanterie?

n°9260214
Mini_BN
Le Goujat est un fromage !
Posté le 04-09-2014 à 16:26:29  profilanswer
 

De ce que j'en comprend, c'est que les GTX9XX n'ont aucun intérêt pour ceux qui jouent du yukulélé avec du gros kepler 110, le tout posé sur une plage à hawaii, mais qu'il en a pour ceux qui sont à tahiti ou kepler 104.
 

n°9260245
Profil sup​primé
Posté le 04-09-2014 à 16:51:32  answer
 

NeCrOm3nT a écrit :

Pour l'instant l'information la plus proche de la réalité qu'on à eue, c'est que la 980 ne sera pas beaucoup plus perf que la 780ti, et qu'il y a encore un risque/possibilité qu'elle soit moins perf que la 780ti sur certaines utilisations (bus 256bit).
 
Je pense qu'on sera pas tellement surpris pas les premiers benchs des cartes, on ne s'attend pas à un bond de +40% de perfs.


le monsieur de chez nv qui a fuité en juin , a bien dit gm204 , plus perfs que la 780 pour moins de conso et pour un peu moins cher  
 
sachant qu'on reste en 28 nm ça serait déjà du bon boulot de la part des ingés des verts
certains on l'air de trouver ça scandaleux si elle ne pootre pas une ti , or amd vient de montrer que c'est pas si facile que ça de gagner en perf/watt tout en restant sur la même finesse de gravure  
 
faut arrêter de croire au père noel ;)

n°9260271
NeCrOm3nT
Posté le 04-09-2014 à 17:08:11  profilanswer
 

Je n'ai jamais dit que c'etait scandaleux ^^ Juste que c'est probablement ce qui va se passer :)

n°9260298
ppn67
Posté le 04-09-2014 à 17:21:31  profilanswer
 

Théoriquement si les cartes consomment moins, on peut espérer une plus grand potentiel d'overclocking non?

n°9260319
NeCrOm3nT
Posté le 04-09-2014 à 17:38:17  profilanswer
 

Normalement oui puisqu'il y aurait de la marge au niveau dégagement de chaleur. Mais ca depend de la conception du gpu, je ne suis pas le plus calé du monde sur le sujet

n°9260335
jojos92
Quand on aime on ne compte pas
Posté le 04-09-2014 à 17:57:29  profilanswer
 

je dirai que non, tout dépend de la possibilité du GPU à monté en fréquence.

 

Le GK110 par exemple en a vraiment sous le coude, de base à 863mhz sur la 780 pas mal peuvent monter à 1250 voir 1300-1350mhz en air cooling ( DCUII Classified Gigabyte etc..)

 

Ainsi ça representer un OC de 45%!!

 

Les 970/980 si je ne m'abuse seront clocké bien plus haut de base ( 1050-1150mhz ) ainsi un OC de 45% parait inenvisageable ça reviendrait à une carte à + de 1500mhz

 

Donc si les cartes clock déjà à 1300 ce serait pas mal, et je pense que dans ce cas là une GK110 vs GM204 à 1300, je crains que le GK110 l'emporte !


Message édité par jojos92 le 04-09-2014 à 17:58:39

---------------
XG27UQ 4K 144HZ | i9 10900 @4,6ghz | 32Go de RAM | RTX 3080 FE @1920mhz/900mv
n°9260354
Big Tom
Posté le 04-09-2014 à 18:17:06  profilanswer
 

pegaz86 a écrit :


 
source ou boule de cristal ?  


 
Un peu des 2.
 
http://www.comptoir-hardware.com/a [...] -900-.html

mood
Publicité
Posté le 04-09-2014 à 18:17:06  profilanswer
 

n°9260357
Eife
Juste avant le .G - Topic de
Posté le 04-09-2014 à 18:21:30  profilanswer
 

jln2 a écrit :


 
30-40% de conso en moins
http://www.comptoir-hardware.com/a [...] otins.html
 
C'est pas négligeable je trouve.
Puis moins de conso, c'est aussi moins de chauffe en théorie, donc dissipateur moins encombrant/lourd/bruyant et éventuellement plus d'OC.
Donc c'est tout bénef finalement.


 
tres bien pour ceux qui sont a la traine et qui font une grosse MAJ hardware, mais les high end user, qui sont par ailleurs les early adopters, ils s'en tamponnent un peu à mon avis...


---------------
Topic de vente de trucs divers
n°9260409
dricks2222
Posté le 04-09-2014 à 19:25:19  profilanswer
 

Eife a écrit :

 

tres bien pour ceux qui sont a la traine et qui font une grosse MAJ hardware, mais les high end user, qui sont par ailleurs les early adopters, ils s'en tamponnent un peu à mon avis...

 

+1

 

RAF de la conso.
Dans mon cas, je ne vais certainement pas débourser 500-600€ pour gratter 6€/an d'électricité.
Investissement rentabilisé en moins d'un siècle ?
Nawak.


Message édité par dricks2222 le 04-09-2014 à 19:25:29
n°9260443
Activation
21:9 kill Surround Gaming
Posté le 04-09-2014 à 20:02:29  profilanswer
 

calagan57 a écrit :

mais depuis quand les cartes HDG sont plus optimisées pour la conso que les perfs?  :??:  :pfff:  
 
Jusqu'à maintenant si je me fais plaisir à prendre du HDG c'est pour faire mieux tourner les jeux qu'avec une ancienne HDG sinon je n'en vois aucun intérêt encore moins pécuniaire (racheter une carte 500€ pour faire des économies d'énergie  :pt1cable: )
 
j'espère que c'est pas ça  [:agkklr]


 
Tout simplement car vous attendez de cette gtx880/980. Qu'elle soit pourvu d'un gm210 20nm
Alors que c'est pas un gm210
Ces dernière années t'as vu les gpu haut de gamme nvidia avec des bus 256bits
Non
Le gm204 c'est le remplacant du gk104
 
Sinon pourquoi nv se casse le cul avec des nom de code de gpu
GXx04
GXx06
GXx07
GXx10
 
Y a que vous pour fumer qu'un fabricant peut se permettre de torcher un nouveau gpu haut de gamme tout les ans, faut lui laisser le temps d'amortir sa R&D
Le kikitoutdur du je veux des perf double tout de suite
.... Ça s'appelle le sli :o
Donc tu sort mille boules.... Et dans 4mois vous aurez aussi votre gtx890/990 bi gpu :o à 1000 boules tel que vous en rêvez :o
 
Les gtx titan/780 n'ont pas souffler leur seconde bougie.... Tu veux le vrai nouveau haut de gamme à 650 boules... Attend au moins avril 2015
 
Ensuite bien sur qu'un gpu même haut de gamme à une limite maxi
Ne serais ce que la limite du pcb d'une carte pcie
Faut bien que le gpu tienne ne serais ce qu'en largeur
Sinon t'inverse, tu demande que le cpu soit soudé sur une carte pci express, et que le gpu soit maintenant sur socket sur la mobo.... Histoire de lui coller un rad tower sur la gueule de 1kg600 :o


Message édité par Activation le 04-09-2014 à 20:09:10
n°9260449
tartinons
Posté le 04-09-2014 à 20:13:44  profilanswer
 

Eife a écrit :


 
tres bien pour ceux qui sont a la traine et qui font une grosse MAJ hardware, mais les high end user, qui sont par ailleurs les early adopters, ils s'en tamponnent un peu à mon avis...


 
 
Oui et non selon les rumeurs la 980 sera moins performante que la 780TI on est d'accord! Mais plus performante que la 780 sans le TI!
 
Donc y a bel et bien un gain!
 
Les hardcores sauteront le pas en 2015 avec la 980TI qui sera le haut de gamme. Même si l'augmentation des performances était en dessous de 5 % ils le feraient...
 
Après j'ai l'impression que certains confondent 780 et 780TI. Et compare la 780 TI a la 980 directement comme si c'était la même catégorie. Mais il y aura bien un gain même si hypothétiquement plus faible que d'habitude entre la 780 et 980 et entre 780TI et 980TI(2015)
 
Mais gardons a l'esprit qu'elle consommera moins et surtout qu'elle devrait s'accompagner d'une baisse de prix!
 
Comment Nvidia aurait pu justifier les stocks (et en vendre encore) de ses 780TI plus cher que la 980 si la 980 était plus performante pour moins chère.
 
Nvidia paye un peu sa stratégie d'avoir trop monté les prix,  et que le marché des cartes graphiques a bien ralentit.
Moi même l’année passé j'ai pris une 7970Ghz alors que j'ai toujours acheté nvidia auparavant, mais je trouvait le prix de ses cartes commençait a vraiment être hors de prix face a ATI.

n°9260459
ol1v1er
Posté le 04-09-2014 à 20:23:43  profilanswer
 

Je ne sais pas combien de fois il va falloir répéter que ce qu'il va se passer, ressemble à la sortie des GTX680-670 du milieu de gamme en fait.
En plus ça reste du 28nm pour ces 970/980.
 
Le rouleau compresseur c'est en effet le GM210 avec le 20nm ( vivement  :love: ) plus tard et ça sent très bon pour les performances  :bounce:

n°9260497
Giulietta2​6
Avanti!!!
Posté le 04-09-2014 à 21:08:46  profilanswer
 

Je vois que je ne suis pas le seul à attendre le futur des CG comme capable d'assumer la 4K en mono et bi carte, bien plus qu'un gain de 50-75W de conso en charge.
 
Et certains ont osé parler de troll...manque de compréhension? Fanboyisme aveugle? Ou simplement boboisme?


---------------
Demain c'est loin
n°9260539
F117
Posté le 04-09-2014 à 22:04:08  profilanswer
 

jln2 a écrit :


 
30-40% de conso en moins
http://www.comptoir-hardware.com/a [...] otins.html
 
C'est pas négligeable je trouve.
Puis moins de conso, c'est aussi moins de chauffe en théorie, donc dissipateur moins encombrant/lourd/bruyant et éventuellement plus d'OC.
Donc c'est tout bénef finalement.


 
 
tu as parfaitement compris le problème dans son ensemble
 
faire comprendre a des gamer ou des gamins, que les entreprises font des études de marchés qui consistent  
 
a évaluer le prix de vente aux particuliers avec l'ajout de taxes divers ( TVA+ importation + éco taxe + X taxes )  car faire un produit qui subira X taxes écolo + toutes celles déjà existantes et qu'au final sont prix sera multiplier par 5 a 10  a cause de toutes les taxes donc invendable a la majorité des particuliers, ca sert a rien  
 
pour un projet de loi encore dans les cartons qui consiste a taxer les produits par rapport a leur consommation électrique, un peu comme la Taxe carbone qui est appliquée sur les véhicules en fonction de la quantité de CO2 qu'elles rejettent  

n°9260567
dams86
sed -i 's/windows/linux/g' c:
Posté le 04-09-2014 à 22:35:59  profilanswer
 

Bcp se demande l'intérêt de sortir de nouvelles carte juste avec une conso plus faible (même si on n'a pas encore tous les détails).
Mais l'intérêt de Nvidia aussi, c'est de produire des cartes moins chères à fabriqué: 1 bus 384b + une puce complete coute bcp plus chère qu'un bus 256b + un chip avec moins d'unité (moins gros).
Augmenter la rentabilité au max, sans visé un haut de gamme bcp plus haut que l'actuel, et laisser un peu de marge si la concurrence sort un produit concurrentiel.

n°9260569
fricofou
Posté le 04-09-2014 à 22:39:38  profilanswer
 

Bof le gamin... A mon humble avis c'est celui qui ose prétendre être green, ecolo, prêcheur de parole verte ou tout autre synonyme dans l'air du temps, en changeant un DD black pour un green, que 10% de conso sur 260W c'est énorme, en omettant le principe de fabrication tout dégueulasse qu'il y a en amont, sur la chaine complète du processus incluant même les externes, pour qu'il change son cpu/gpu tous les 6/12/18/36 mois.
Celui là, il croit vraiment au père noël.
 
Je ne comprends pas que l'on puisse s’inquiéter de 20/50W (bon ok, ça sort du porte monnaie, pour certains ça parle plus tout d'un coupt), ou même s'en servir d'argument, surtout le coté ecolo de la chose. Vous occultez le reste ? :??:


---------------
Achat-Vente//Mod:Watercase
n°9260605
F117
Posté le 04-09-2014 à 23:06:14  profilanswer
 

dams86 a écrit :

Bcp se demande l'intérêt de sortir de nouvelles carte juste avec une conso plus faible (même si on n'a pas encore tous les détails).
Mais l'intérêt de Nvidia aussi, c'est de produire des cartes moins chères à fabriqué: 1 bus 384b + une puce complete coute bcp plus chère qu'un bus 256b + un chip avec moins d'unité (moins gros).
Augmenter la rentabilité au max, sans visé un haut de gamme bcp plus haut que l'actuel, et laisser un peu de marge si la concurrence sort un produit concurrentiel.


 
 
l'interet il est simple regarde le prix du kwt/H en 2004 et celui en 2014 et une hausse de 4% qui vient d'avoir lieu ou qui aura lieu en octobre.
 
et tu comprendra
 
sinon  a l'echelle globale  
 
imagine une machine a laver qui sort et qui consomme 2 fois moins d'eau et 2 fois moins d’électricité pour laver aussi bien . si elle devient la norme sur le territoire français , imagine consommation d'eau et d’électricité économisé a l’échelle de la France
 
 

n°9260614
Giulietta2​6
Avanti!!!
Posté le 04-09-2014 à 23:13:01  profilanswer
 

4% de pas grand chose ne représente toujours rien, ouvrez vos contrats EDF ou autre du kWh HP et HC, et faites un simple calcul de 2000H de pleine charge avec une différence de 50W. :lol:  
 
Bref, si j'attends du nouveau côté GPU ce n'est pas ce point qui m'intéresse le plus sur une config à 1000-1500€ pour utilisation en haute résolution.


---------------
Demain c'est loin
n°9260618
F117
Posté le 04-09-2014 à 23:15:03  profilanswer
 

fricofou a écrit :

Bof le gamin... A mon humble avis c'est celui qui ose prétendre être green, ecolo, prêcheur de parole verte ou tout autre synonyme dans l'air du temps, en changeant un DD black pour un green, que 10% de conso sur 260W c'est énorme, en omettant le principe de fabrication tout dégueulasse qu'il y a en amont, sur la chaine complète du processus incluant même les externes, pour qu'il change son cpu/gpu tous les 6/12/18/36 mois.
Celui là, il croit vraiment au père noël.
 
Je ne comprends pas que l'on puisse s’inquiéter de 20/50W (bon ok, ça sort du porte monnaie, pour certains ça parle plus tout d'un coupt), ou même s'en servir d'argument, surtout le coté ecolo de la chose. Vous occultez le reste ? :??:


 
 
faut voir a l’échelle globale et non a l’échelle individuelle
 
prenons l'aspect argent, si la banque te met 10 centimes d'euro d'agio non justifié la plupart diront rien, mais si elle fait a a 100 000 000 de compte fait le calcul
 
20% électricité en moins a l’échelle individuel ca représente rien, 10 000 000 de carte graphique a l’échelle globale électricité non consommé servira a alimenter autre chose

Message cité 1 fois
Message édité par F117 le 04-09-2014 à 23:19:24
n°9260632
bugfx32
Posté le 04-09-2014 à 23:26:33  profilanswer
 

Une machine à laver à 250w? Tu me donne le nom du fabricant?

 

Faire une comparaison avec une machine à laver quand on parle de la conso d'une cg...
Qu'on change déjà tout les vielles "ampoules" et la y'en aura un réel changement. (et je parle même pas des éclairages public).

 

Sérieusement faut arrêter avec l’argument de la conso..
Pour les versions mobile et serveur (ou y'a toute une tripoté de cg) oui y'a un réel intérêt.

 

Mais pour les versions grand public, 90% des gens (et je suis gentil) s'en foute royalement.

 

Comme ce faux débat d’ailleurs...

  


Message édité par bugfx32 le 04-09-2014 à 23:28:02

---------------
Ryzen 7800x / Strix 670E  / 64go Gskill / 6 To SSD /Suprim 4080 super / Msi MEG 1300 / Full Watercooling
n°9260633
Eife
Juste avant le .G - Topic de
Posté le 04-09-2014 à 23:26:36  profilanswer
 

F117 a écrit :


 
 
faut voir a l’échelle globale et non a l’échelle individuelle
 
prenons l'aspect argent, si la banque te met 10 centimes d'euro d'agio non justifié la plupart diront rien, mais si elle fait a a 100 000 000 de compte fait le calcul
 
20% électricité en moins a l’échelle individuel ca représente rien, 10 000 000 de carte graphique a l’échelle globale électricité non consommé servira a alimenter autre chose


 
lol. Pour du jeu.
on est pas en train de parler d'économiser pour nos besoins vitaux hein.
 
et nvidia en a rien a carrer de la production d'EDF.
alors que la banque, elle a tout a gagner a prendre tes agios :o


---------------
Topic de vente de trucs divers
n°9260642
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 04-09-2014 à 23:31:22  profilanswer
 

Giulietta26 a écrit :

Je vois que je ne suis pas le seul à attendre le futur des CG comme capable d'assumer la 4K en mono et bi carte, bien plus qu'un gain de 50-75W de conso en charge.

 

Et certains ont osé parler de troll...manque de compréhension? Fanboyisme aveugle? Ou simplement boboisme?


Tu fait exprès de pas comprendre ou bien ? Si les futurs GPU sont capables d'assumer la 4K en mono carte dans le même TDP que les actuelles, c'est bien que leur efficacité énergétique augmente, sauf si tu t'imagines avec des cartes deux fois plus performantes et consommant deux fois plus.

 

Tu ne peux pas dire que tu veux des cartes mono ou bi GPU capablent de faire péter le 4K et dire que tu te fout des gains en efficacité énergétique, soi tu ne comprends rien, soit effectivement c'est du troll. Si des déclinaisons arrivent avec efficacité en hausse cela laisse autant de marge pour celles là, ou pour d'autres à venir si c'est des GPU mdg qui font les mêmes perfs que l'ancien hdg pour moins de conso, pour des performances globales en hausse.

Message cité 1 fois
Message édité par Marc le 04-09-2014 à 23:42:14
n°9260650
Mini_BN
Le Goujat est un fromage !
Posté le 04-09-2014 à 23:37:23  profilanswer
 

On jette tous nos PC et on retourne vivre dans la foret, comme ça, pu de gaz à effet de serre, pu de conso électrique, pu de nucléaire.
 
Vive l'âge de Pierre !
 
*****Ce troll morveux vous a été offert par la Fabrik A BisKuiT*****
 
Edit : Marc, je crois que Giulietta essaye d'expliquer que ce qui importe le plus aux joueurs, c'est pas d'avoir une carte nouvelle qui a la même perf que l'ancienne avec de la conso en moins, mais que le joueur préfère une nouvelle carte plus puissante pour une conso identique à la série précédente. En clair, et de ce que j'ai lu, Guilietta ne remet pas en cause les gains en efficacité énergétique, il trouve juste que ça fait bobo-écolo que les cartes haut de gamme nouvelles aient un TDP / conso inférieure à la série précédente mais peu/pas de puissance en plus. pour autant, les gains en efficacité NRGtique ne sont pas blâmés ni "écolo-bobo-isés".

Message cité 1 fois
Message édité par Mini_BN le 04-09-2014 à 23:43:33
n°9260662
bugfx32
Posté le 04-09-2014 à 23:55:38  profilanswer
 

Effectivement je pense qu'il y à un vrai probleme de compréhension entre le fait de sortir comme argument la consommation et le gain possible en euro et le rapport perf/w.
Les deux sont forcement liés, mais pas mis en avant de la même façon.
J'ai un doute si c'est ce que j'ai écris et très claire. :lol:


Message édité par bugfx32 le 04-09-2014 à 23:56:19

---------------
Ryzen 7800x / Strix 670E  / 64go Gskill / 6 To SSD /Suprim 4080 super / Msi MEG 1300 / Full Watercooling
n°9260664
F117
Posté le 04-09-2014 à 23:57:15  profilanswer
 

Eife a écrit :


 
lol. Pour du jeu.
on est pas en train de parler d'économiser pour nos besoins vitaux hein.
 
et nvidia en a rien a carrer de la production d'EDF.
alors que la banque, elle a tout a gagner a prendre tes agios :o


 
mais nvidia sais aussi que l’Europe selon ses normes veut taxer tout ce qui ne sera pas ecolo, et que des taxes c'est le consommateur finale qui les paiera, donc autant faire le nécessaire pour éviter qu'il les paie si elle veut que ses produits se vendent


Message édité par F117 le 04-09-2014 à 23:58:29
n°9260666
MasterSam
Paster of Muppets
Posté le 05-09-2014 à 00:01:08  profilanswer
 

[:lardoncru]  
 
En espérant trouver une remplaçante digne de ce nom à ma GTX670, et pas à 600€...(ou alors j'attendrais 6 mois de plus pour les révisions :D )


---------------
Feedback/Ventes/Divers/Estim -- www.laquadrature.net
n°9260682
Zilak
I can't carry anymore !
Posté le 05-09-2014 à 01:12:53  profilanswer
 

On est aussi dans des GPU haut de gamme qui ne tourne pas a 100%. Perso ma GTX 780 ce trouve rarement à tirer la tronche.  
 
Mon point de vue :
Les fabricants s'attardent peut être plus sur la conso car le besoin de vitesse n'est pas forcément nécessaire aujourd'hui. Que le GPU mobile c'est l'avenir. Que l'ITX fait fureur et que les gamers sont de plus en plus casu et s'en foutent d'un benchmark overpowered pro AMD ou Nvidia. Et même si la taxe écolo est encore abstraite dans le domaine du jeu m'étonnerais pas qu'elle pointe son nez assez rapidement.  
Gain de conso c'est moins de chaleur, des alims plus petites avec des gpus plus fin dans des boitiers plus petits. Une meilleurs maîtrise de la chaleur sur des puces plus imposante que le format MxM et donc un avenir plus joyeux pour le marché du laptop.

n°9260683
Invite_Sur​prise
Racaille de Shanghaï
Posté le 05-09-2014 à 01:14:36  profilanswer
 

Giulietta26 a écrit :

Je vois que je ne suis pas le seul à attendre le futur des CG comme capable d'assumer la 4K en mono et bi carte, bien plus qu'un gain de 50-75W de conso en charge.
 
Et certains ont osé parler de troll...manque de compréhension? Fanboyisme aveugle? Ou simplement boboisme?


Le bizness, c'est pas fait pour contenter juste le moment, mais surtout l'avenir.
Si ton concurrent présente un produit qui rivalise avantageusement avec ta gamme actuelle avec une conso 30-40% moindre, c'est que la grande soeur va arriver par derrière pour te la mettre à l'envers.
La visibilité, c'est important. nVidia n'a aucun soucis à dévoiler ses plans sur plusieurs années. AMD/ATI (never forget) est pas très prolixe en terme de projections et fait plus office de suiveur.
C'est peut-être le moment de franchir le cap pour eux.


Message édité par Invite_Surprise le 05-09-2014 à 01:15:30
n°9260692
havoc_28
Posté le 05-09-2014 à 01:49:00  profilanswer
 

En terme d'innovation GPU , ATI puis AMD ont souvent été pionniers , donc le terme suiveur me parait mal choisit :o .
 
ne pas dévoiler sa roadmap , ne veut pas forcément dire suiveur  .


Message édité par havoc_28 le 05-09-2014 à 01:49:21
n°9260702
chris282
id steam/psn : chris282_fr
Posté le 05-09-2014 à 03:04:09  profilanswer
 

Marc a écrit :


Tu fait exprès de pas comprendre ou bien ? Si les futurs GPU sont capables d'assumer la 4K en mono carte dans le même TDP que les actuelles, c'est bien que leur efficacité énergétique augmente, sauf si tu t'imagines avec des cartes deux fois plus performantes et consommant deux fois plus.
 
Tu ne peux pas dire que tu veux des cartes mono ou bi GPU capablent de faire péter le 4K et dire que tu te fout des gains en efficacité énergétique, soi tu ne comprends rien, soit effectivement c'est du troll. Si des déclinaisons arrivent avec efficacité en hausse cela laisse autant de marge pour celles là, ou pour d'autres à venir si c'est des GPU mdg qui font les mêmes perfs que l'ancien hdg pour moins de conso, pour des performances globales en hausse.


 :sweat: oh p*tin merci ça devenait chiant :o

n°9260705
chris_teuf​er
Posté le 05-09-2014 à 04:25:21  profilanswer
 

tromzy a écrit :

Drap'.  [:ill nino]  
 
À votre avis, une alim 500W (Seasonic), ça devrait suffire pour une 980 ? Sortez vos  [:michaeldell] :o
 
(Ça passe avec ma 680 actuelle)


 
 
Voilà LA question.
 
Une 980 qui a les perfs d'une 780ti mais consomme bien moins et coûte un peu moins (prix de lancement), je signe!
 
Si elle gère l'HEVC, si elle troque un port DVI-D contre du HDMi 2, etc, c'est du bonus!
 
La conso c'est important!
Seasonic a une alim 520W fanless en Platinium.
Mais 520W c'est juste pour un i7-4790 + une 780ti
 
Dans 20 ans, les gens rigoleront en voyant les tours gamers!
Les PC sont de plus en plus reliés à la TV depuis qu'on dématérialise (légalement hein)!
Le silence est une notion qui compte plus que les quelques € économisés annuellement (à part 1% de bobos écolos).
 
 

skynet fx a écrit :

hormis la 4K, je trouve la demande de puissance un peu farfelue.


 
Ben justement c'est déjà beaucoup!
La puissance d'une 780ti suffit au commun des gamers et il faut vraiment être un forcené du gaming pour vouloir mieux… en 1920 x 1080.
Le problème c'est que 1080 c'est 20ème siècle ça (1999, de mémoire quand a été lancé le DVD).
La norme devient le QHD (2560x1440), le "Retina" (2560x1600) et on se dirige vers le QHD+ (3200x1800).
Les gamers commencent à rêver de 21:9 (3440x1440) ou de triple écran!  
Sans compter que l'UHD (3840x2160) se démocratise à vitesse grand V.
Et là, il faut des cartes plus puissantes et plus efficientes !
 
Je ne comprends pas votre débat puissance / consommation. Les 2 sont liés.
O n s'attend en toute vraisemblance à une meilleure conso et un prix de lancement inférieur (du, selon les premières rumeurs, au retournement de marché des mineurs de bitcoins)!
Imaginez une 980 qui se place entre une 780 et une 780ti mais qui consomme comme une 760.
JE LA VEUX !

Message cité 1 fois
Message édité par chris_teufer le 05-09-2014 à 05:38:36
n°9260706
chris_teuf​er
Posté le 05-09-2014 à 05:11:59  profilanswer
 

Celui qui trouve sa 780ti ou sa Titan trop limitée, il peut quand même attendre car il possède sa carte depuis peu !  
 
Et il peut acheter une seconde 780ti / Titan  :D  
 
Sinon, comme il a été dit plus haut, il y aura ensuite des déclinaisons biGPU à partir de cette 980.
Mais là c'est le remplaçant de la 780 qui sort, pas le remplaçant de la Titan  :non:  


Message édité par chris_teufer le 05-09-2014 à 05:14:34
n°9260714
silv3rm@n
Posté le 05-09-2014 à 06:04:17  profilanswer
 

Mon dieu  il arrive même pas a voir qu il troll le garçon .
 


---------------
Celui qui sauve une  vie , sauve le monde entier .
n°9260715
silv3rm@n
Posté le 05-09-2014 à 06:06:42  profilanswer
 

Tu peux me dire ta source sur le faite que le 4 k se démocratise à vitesse grand v?  
 
Car y a pas longtemps j ai lu le contraire


---------------
Celui qui sauve une  vie , sauve le monde entier .
n°9260722
Giulietta2​6
Avanti!!!
Posté le 05-09-2014 à 07:36:26  profilanswer
 

Mini_BN a écrit :

On jette tous nos PC et on retourne vivre dans la foret, comme ça, pu de gaz à effet de serre, pu de conso électrique, pu de nucléaire.
 
Vive l'âge de Pierre !
 
*****Ce troll morveux vous a été offert par la Fabrik A BisKuiT*****
 
Edit : Marc, je crois que Giulietta essaye d'expliquer que ce qui importe le plus aux joueurs, c'est pas d'avoir une carte nouvelle qui a la même perf que l'ancienne avec de la conso en moins, mais que le joueur préfère une nouvelle carte plus puissante pour une conso identique à la série précédente. En clair, et de ce que j'ai lu, Guilietta ne remet pas en cause les gains en efficacité énergétique, il trouve juste que ça fait bobo-écolo que les cartes haut de gamme nouvelles aient un TDP / conso inférieure à la série précédente mais peu/pas de puissance en plus. pour autant, les gains en efficacité NRGtique ne sont pas blâmés ni "écolo-bobo-isés".


 
CQFD, mais bon c'est du troll à ce qu'il parait...


---------------
Demain c'est loin
n°9260756
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-09-2014 à 08:50:15  profilanswer
 

:sleep:

 

Sauf que c'est pas comme ça que tu l'exprimes mais avec des messages de ce style, qui intervient juste après un autre qui parle de l'efficacité d'ailleurs

 
Giulietta26 a écrit :

OSEF de la conso pour boboparigosocialecolo, ce qui compte c'est la perf en jeu et le prix d'achat en face, et pour ça le GK110 est très décevant.

 

Si à termes le rapport perf/prix n'augmente pas et que seul le rapport perf/w augmente, tout le monde est d'accord je pense ici pour dire que ce n'est pas intéressant pour le consommateur, tout du moins pour ceux qui sont sur HFR. Par contre, dire qu'on s'en fout de la conso, ouais c'est du troll, car même sur le produit final si d'un côté tu as une carte 300W qui fait les mêmes perfs qu'une 200W alors c'est logique de préférer la 200W sauf si la 300W compense par exemple par le prix (donc OSEF pas, ça a un impact).

Message cité 1 fois
Message édité par Marc le 05-09-2014 à 09:02:38
n°9260758
Mastoy
Don't be sorry, be better
Posté le 05-09-2014 à 08:57:36  profilanswer
 

Est-ce qu'on sait quelque chose sur ces nouveaux GPU à propos du GPU computing avec les cores CUDA ?
Le tableau en 1st post semble vieux et je n'ai pas trouvé d'autres infos.
Je compte les utiliser pour des moteurs de rendu 3D (et du coup la consommation est importante ;) ) donc je voudrais que le rapport prix/nombre de cores CUDA soit bon


---------------
And we played the first thing that came to our heads, just so happened to be, The Best Song in the World, It was The Best Song in the World.
n°9260772
Giulietta2​6
Avanti!!!
Posté le 05-09-2014 à 09:14:14  profilanswer
 

Marc a écrit :

:sleep:

 

Sauf que c'est pas comme ça que tu l'exprimes mais avec des messages de ce style, qui intervient juste après un autre qui parle de l'efficacité d'ailleurs

 


 
Marc a écrit :

 

Si le rapport perf/prix n'augmente pas et que seul le rapport perf/w augmente, tout le monde est d'accord je pense ici pour dire que ce n'est pas intéressant pour le consommateur. Par contre, dire qu'on s'en fout de la conso, ouais c'est du troll, car même sur le produit final si d'un côté tu as une carte 300W qui fait les mêmes perfs qu'une 200W alors c'est logique de préférer la 200W sauf si la 300W compense par exemple par le prix (donc OSEF pas, ça a un impact).


 
Comme tu viens de conclure c'est le prix qui finit l'équation, imaginons la 980 avec un niveau de perf compris entre 1,0 et 1,15 x celui de la 780, une baisse de l'ordre de 50 - 75 W de conso en pleine charge, et un prix maintenu entre 450 et 550 €.
En effet on ne peut pas critiquer l'amélioration nette du rendement énergétique tout en restant sur la même finesse de gravure, qui sans nul doute Nvidia semble mieux maitriser qu'AMD, toutefois dans ce cas de figure l'évolution de performance et de caractéristiques pour s'orienter vers le JV en haute résolution ne progresserait pas ou si peu. Ce qui serait à mon sens une pause ou un ventre mou pour attendre la suite en 20 nm.


---------------
Demain c'est loin
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  10  11  12  ..  695  696  697  698  699  700

Aller à :
Ajouter une réponse
 

Sujets relatifs
[HFR] Actu : GTX 800 Gaming G1 pour Gigabyte à la rentréeDVI-D sur Nvidia GTX750
Installation de GPU AMD et NvidiaGTX 760 seulement 100FPS
GTX 780 TI + alim 650W - suffisante ?[Résolu] Pc qui reboot avec GX 780 TI
Soucis : plus d'affichage GTX 770GTX 750 TI
[HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test 
Plus de sujets relatifs à : [Topic Unique] NVidia GTX 970 & 980 - Maxwell GM204 -


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)