Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3444 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  212  213  214  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8258520
hamon6
PSN: HaMoNeR
Posté le 26-03-2012 à 19:18:18  profilanswer
 

Reprise du message précédent :
Ouais faut les enfoncer pour qu'ils comprennent un peut :whistle:
D'ailleur fillai moi votre 680, moi je verrai la dif avec ma pauvre 560, je pourrai vous dire si ça carbure :lol:


Message édité par hamon6 le 26-03-2012 à 19:19:23

---------------
FeedBack -- Zowie -- Profil D3
mood
Publicité
Posté le 26-03-2012 à 19:18:18  profilanswer
 

n°8258527
tech9nine
Posté le 26-03-2012 à 19:23:31  profilanswer
 

quand on voie la GTX 680 les autre gamme promette d’être puissante?

n°8258528
actaruxs
Posté le 26-03-2012 à 19:23:50  profilanswer
 

maerens a écrit :


le mieux reste encore le downsampling, que je n'arrive pas a faire fonctionner chez AMD et a faire moyennement fonctionner avec nvidia, il n' y a aucun filtre avec cette technique, juste un sampling d'une résolution plus hautes downscalée en 1920*1080, on a ainsi une filtre AF qui n'en est pas un, des distants LOd plus nettes, de meilleures textures, et le mieux une réductions de l'aliasing de TOUTES les textures y compris les Shaders... c'est magnifique. Et tout ça sans filtres.
 
j'ai réussit à forcer le 2880*1800 dans les drivers cependant même en modifiant l'EDID de mon écran je ne suis pas en mesure d'afficher du 3840*2400... Dommage car l'aliasing est quand même encore présent. cette technique nécessite au moins un SLI de 680 avec 4Go de ram... l'image parfaite à un prix... ceux qui veulent essayer veiller à ne pas dépasser le pixel clock rate de 165Mhz maximum induit par le DVI sinon la bande passante est saturée et votre écran risque de succomber.


 
Je savais pas qu'on pouvait faire ce genre de bidouille...
 
Quelle est la réso d'origine de ton ecran ?
 
Il n'y a que la freq de 165Mhz a pas dépasser ?
De mémoire, et avec ma pratique, les 3 freq mhz/khz/hz dépendent l'une de l'autre... Si tu dépasse les caracteristique (sur n'importe quelle freq) de ton écran, il risque de mal vieillir... Tu force sur l'éléctronique (cristaux inclus)...
 
Concretement, ça force l'écran a afficher en 2880x1600 ? ou bien c'est juste au niveau du driver qui calcul dans cette réso qui est ensuite downscalée dans ta reso native ?
 
 

n°8258529
couillesho​t
Les bouboules et la boubouche
Posté le 26-03-2012 à 19:26:01  profilanswer
 

bon et sinon c'est du MDG ou du HDG :o
 
 :whistle:


---------------
:o :o :o
n°8258531
hamon6
PSN: HaMoNeR
Posté le 26-03-2012 à 19:27:02  profilanswer
 

c'est du DTC :o


Message édité par hamon6 le 26-03-2012 à 19:27:10

---------------
FeedBack -- Zowie -- Profil D3
n°8258533
actaruxs
Posté le 26-03-2012 à 19:28:26  profilanswer
 

euh... ça on s'en fout 1 peu... Soit on est interressé par le surplus de perf, soit on l'est pas...


Message édité par actaruxs le 26-03-2012 à 19:28:52
n°8258552
Zarbi74
Posté le 26-03-2012 à 19:43:59  profilanswer
 

couilleshot a écrit :

bon et sinon c'est du MDG ou du HDG :o
 
 :whistle:


 
MHDG pour moi. :o


---------------
Mon Topic Vente
n°8258557
Alis_70
Posté le 26-03-2012 à 19:47:00  profilanswer
 

Activation a écrit :


 
 
y a pas à compatir pour eux  :o , c'est pas faute ici qu'on soit plusieurs à dire que c est ridicule de passer de genre gtx580 à gtx680  surtout à ce prix


 
non mais là le gain exprimé est pas du tout négligeable, donc j'ai même pas à compatir, surtout que c'est de SLI 480 à SLI 680 ... donc la différence est encore un peu plus importante.  
De là à dire que la dépense vaut la différence  [:fading]

Message cité 1 fois
Message édité par Alis_70 le 26-03-2012 à 19:47:51
n°8258565
maerens
Posté le 26-03-2012 à 19:53:38  profilanswer
 

actaruxs a écrit :


 
Je savais pas qu'on pouvait faire ce genre de bidouille...
 
Quelle est la réso d'origine de ton ecran ?
 
Il n'y a que la freq de 165Mhz a pas dépasser ?
De mémoire, et avec ma pratique, les 3 freq mhz/khz/hz dépendent l'une de l'autre... Si tu dépasse les caracteristique (sur n'importe quelle freq) de ton écran, il risque de mal vieillir... Tu force sur l'éléctronique (cristaux inclus)...
 
Concretement, ça force l'écran a afficher en 2880x1600 ? ou bien c'est juste au niveau du driver qui calcul dans cette réso qui est ensuite downscalée dans ta reso native ?
 
 


je pêux t'expliquer par MP si tu veux c'est très intéressant comme méthode surtout pour les jeux à rendus différés qui n'ont pas d'AA.
 
grossierement ta CG est dupée et calcule l'image en 2880*1800 réso 16/10 vu que j'ai un écran en 1920*1200, la résolution est ensuite downscalée avec un apport en qualité visuelle, je peux le faire avec une simple GTX 460 sous Mass Effect 3, mais sous skyrim c'est la catastrophe... même pas 2 FPS...
 
en fait il faut que j'arrive à forcer mon écran à descendre en dessous des 60FPS pour ne pas dépasser les 165Mhz et ainsi valider le test de résolution personnalisé du panneau de config nV, mais je n'y arrive pas au dela de 2880*1800, en fait ca marchait avec le 295* mais plus avec le 296.10.
 
valider le 3840*2400 marche théoriquement en 52Hz, mais je n'arrive plus à forcer une réso en dessous des 60FPS...

Message cité 1 fois
Message édité par maerens le 26-03-2012 à 19:59:46

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8258577
tsubasa_40​383
Posté le 26-03-2012 à 20:00:48  profilanswer
 

hamon6 a écrit :

 

En meme temps passé d'un sli de 580 a un de 680 fallait pas t'attendre a un doublement des fps...10a 15% de plus sur un jeux qui tourne a 60 ça te fait 6 fps de plus... :ouch: la claque visuelle ;)

 

Nan mais ca je le savais, mais bon rien qu'au niveau de Batman Arkham City je suis cense faire beaucoup mieux avec mon SLI GTX 680 et pourtant je suis au meme niveau que mon SLI GTX 580

 
actaruxs a écrit :

 

Lorsque j'ai fais quelques tests d'o/c sur mes cg, je me suis aperçu qu'il me fallait aussi (pour etre stable) retoucher 2 voltages liés au bus pci-e... Les perf s'en ressentaient un peu. Regarde du coté du topic dédié a ta mobal ;)

 

Tu as touche quel type voltage? Je n'arrive pas trouver le topic dedie a ma carte mere EVGA histoire de voir ce que je devrais toucher pour pas faire de connerie.
le changement se ressent vraiment ou pas? Car moi je trouve que mes 2 GPU sous travaillent dans le sens ou par moment ils restent a 40% d'utilisation alors qu'ils peuvent monter bien plus haut...
Ca doit etre la le noeud du probleme qui flingue ainsi mes performances

 

Message cité 1 fois
Message édité par tsubasa_40383 le 26-03-2012 à 20:02:52
mood
Publicité
Posté le 26-03-2012 à 20:00:48  profilanswer
 

n°8258584
actaruxs
Posté le 26-03-2012 à 20:09:46  profilanswer
 

tsubasa_40383 a écrit :


 
Tu as touche quel type voltage? Je n'arrive pas trouver le topic dedie a ma carte mere EVGA histoire de voir ce que je devrais toucher pour pas faire de connerie.
le changement se ressent vraiment ou pas? Car moi je trouve que mes 2 GPU sous travaillent dans le sens ou par moment ils restent a 40% d'utilisation alors qu'ils peuvent monter bien plus haut...
Ca doit etre la le noeud du probleme qui flingue ainsi mes performances
 


 
Je te répond en MP... hs ici ;)

n°8258592
Gein
Posté le 26-03-2012 à 20:15:39  profilanswer
 

maerens a écrit :


le mieux reste encore le downsampling, que je n'arrive pas a faire fonctionner chez AMD et a faire moyennement fonctionner avec nvidia, il n' y a aucun filtre avec cette technique, juste un sampling d'une résolution plus hautes downscalée en 1920*1080, on a ainsi une filtre AF qui n'en est pas un, des distants LOd plus nettes, de meilleures textures, et le mieux une réductions de l'aliasing de TOUTES les textures y compris les Shaders... c'est magnifique. Et tout ça sans filtres.
 
j'ai réussit à forcer le 2880*1800 dans les drivers cependant même en modifiant l'EDID de mon écran je ne suis pas en mesure d'afficher du 3840*2400... Dommage car l'aliasing est quand même encore présent. cette technique nécessite au moins un SLI de 680 avec 4Go de ram... l'image parfaite à un prix... ceux qui veulent essayer veiller à ne pas dépasser le pixel clock rate de 165Mhz maximum induit par le DVI sinon la bande passante est saturée et votre écran risque de succomber.


 
:lol:  
 
ça me rappel mes bidouilles de l'époque avec une 9600Pro et un CRT 17" j'arrivais a afficher du 2000*1500 en 45Hz.
Y avait pas d'aliasing, mais le CRT faisait un peu trombinoscope  :whistle:

n°8258602
hifibuff
Posté le 26-03-2012 à 20:20:53  profilanswer
 

Alis_70 a écrit :


 
non mais là le gain exprimé est pas du tout négligeable, donc j'ai même pas à compatir, surtout que c'est de SLI 480 à SLI 680 ... donc la différence est encore un peu plus importante.  
De là à dire que la dépense vaut la différence  [:fading]


 
Je suis le premier à dire que non ;)  
Mais c'est pas grave, pour la Xième fois, je ne suis pas déçu de mon achat, simplement c'est agaçant de voir qu'il manque les 5-10 fps de plus qui me permettraient de jouer à 60 fps constant :D
Et pour répondre à space, non, ça doit être psychologique mais je n'arrive pas à baisser les features, pour moi c'est TAF ou je mets le jeu de coté et j'attends de pouvoir y jouer dans de bonnes conditions :D


---------------
"Every man dies, not every man really lives"
n°8258603
bigboub
Posté le 26-03-2012 à 20:21:38  profilanswer
 

Bon je n'ai toujours pas sauté le pas... Je résiste mais plus pour longtemps... :whistle:  
 
J'ai mes bons qui vont expirer d'ici à peine à moins et je n'arrive pas à savoir si des versions améliorées vont prochainement sortir. Disons d'ici un mois histoire que mes bons servent à quelque chose. :lol:  
Ou alors je choisirais un autre composant à acheter mais cette GTX 680 me tente.
 
Mais j'ai peur que les versions améliorées sortent dans 1 mois et demi... :pt1cable:

n°8258604
furyfox
Posté le 26-03-2012 à 20:24:19  profilanswer
 

Bonjour,
Je viens réagir à ce topic. Cela fait longtemps que je suit ce topic et je me suis inscrit pour m'exprimer :)
 
Okay on pose le décor : on est des geeks. Nous aimons tous le Hardware. (Faut le noter :))
 
Cependant, au début, l'ensemble des HFRiens étaient très motivés et très enthousiaste quand à cette nouvelle génération de GPU by Nvidia en 28nm.  
Gk110, GK100 GK104, des performances énormes par rapport à une GTX 580...
 
Seulement voilà, Nvidia a sorti une GTX 680 @500€ avec des performances environ 30% (Grosso merdo, ca dépend de plein de truc je sais !) plus puissante qu'une GTX 580.
Et tout simplement parce que c'est un GK 104, vous criez tous au scandale parce que ce n'est pas du "haut de gamme".
 
Non mais ya un problème là, 500€ et 30% de perf en plus par rapport au Haut de gamme précédent et cela ne vous convient pas?
 
Le problème c'est que c'est totalement normal. Perso j'ai une GTX 460. Je n'ai pas sauté sur la GTX 560 ni même la GTX 580, parce que les performances entre deux générations ne sont pas énormes.
Si vous voulez augmenter significativement de performance, alors attendez une génération, un peu comme moi :D Si vous avez une GTX 5xx pas la peine de prendre la nouvelle génération, même si on est un gros geek.  
 
Perso je me suis pris une GTX 680 parce que ma GTX 460 commence un peu à souffrir sur mon Benq XL2420T tout récent et que du coup, j'ai patienté et je n'ai pas acheté de génération GTX 5xx pour me prendre celle là.
 
Ca me paraît tout simplement naturel de ne pas râler contre Nvidia parce qu'il y a que 30% de performance en plus.
 
Etant développeur, je trouve ca déjà énorme les progrès que Nvidia a fait, en terme de drivers et de performance de leurs cartes. Je pense que c'est pas évident de développer une nouvelle architecture de carte graphique. Surtout en passant du 40nm au 28 nm.  
Alors oui, certains d'entre-vous vont criez au FanBoy de Nvidia, oui mais non. J'ai eut du ATI, je reste du coté Nvidia pour profiter de la 3D Vision de mon écran.  
 
Un peu de respect sur ce topic, s'il vous plaît. Si la GTX 680 ne vous plaît pas, au lieu de crachez dessus, attendez simplement la prochaine génération, dans le calme et la bonne humeur.
 
Je devrais bientot recevoir ma mienne :) Je posterai des photos bientôt :)
 
Ps : a votre avis : un i5 760 @3.6Ghz et une GTX 680, CPU limited? une alim de 600w 80+ (Cooler Master) ca passe tranquille? :) (j'ai prévu d'acheter dans quelques mois une alimentation entre 800W et 1000W pour faire du SLI plus tard mais en attendant).
 
Merci pour vos réponses les gars :)

n°8258613
Marc
Chasseur de joce & sly
Posté le 26-03-2012 à 20:29:27  profilanswer
 

maerens a écrit :


le mieux reste encore le downsampling, que je n'arrive pas a faire fonctionner chez AMD et a faire moyennement fonctionner avec nvidia, il n' y a aucun filtre avec cette technique, juste un sampling d'une résolution plus hautes downscalée en 1920*1080, on a ainsi une filtre AF qui n'en est pas un, des distants LOd plus nettes, de meilleures textures, et le mieux une réductions de l'aliasing de TOUTES les textures y compris les Shaders... c'est magnifique. Et tout ça sans filtres.
 
j'ai réussit à forcer le 2880*1800 dans les drivers cependant même en modifiant l'EDID de mon écran je ne suis pas en mesure d'afficher du 3840*2400... Dommage car l'aliasing est quand même encore présent. cette technique nécessite au moins un SLI de 680 avec 4Go de ram... l'image parfaite à un prix... ceux qui veulent essayer veiller à ne pas dépasser le pixel clock rate de 165Mhz maximum induit par le DVI sinon la bande passante est saturée et votre écran risque de succomber.


Dis donc, tu ne raconterais pas n'importe quoi par hasard ? :o

n°8258615
actaruxs
Posté le 26-03-2012 à 20:30:15  profilanswer
 

nn c'est vrai tu as raison furyfox...
 
Pour ma part j'ai été déçu car il était prevu un autre gpu un peu plus puissant...
 
Je peux donc pas changé mon vieux cf de 2.5ans car encore trop perf par rapport a la 680... vu le prix je peux pas en prendre 2

n°8258624
Activation
21:9 kill Surround Gaming
Posté le 26-03-2012 à 20:38:09  profilanswer
 

furyfox a écrit :

Bonjour,
Je viens réagir à ce topic. Cela fait longtemps que je suit ce topic et je me suis inscrit pour m'exprimer :)
 
Okay on pose le décor : on est des geeks. Nous aimons tous le Hardware. (Faut le noter :))
 
Cependant, au début, l'ensemble des HFRiens étaient très motivés et très enthousiaste quand à cette nouvelle génération de GPU by Nvidia en 28nm.  
Gk110, GK100 GK104, des performances énormes par rapport à une GTX 580...
 
Seulement voilà, Nvidia a sorti une GTX 680 @500€ avec des performances environ 30% (Grosso merdo, ca dépend de plein de truc je sais !) plus puissante qu'une GTX 580.
Et tout simplement parce que c'est un GK 104, vous criez tous au scandale parce que ce n'est pas du "haut de gamme".
 
Non mais ya un problème là, 500€ et 30% de perf en plus par rapport au Haut de gamme précédent et cela ne vous convient pas?
 
Le problème c'est que c'est totalement normal. Perso j'ai une GTX 460. Je n'ai pas sauté sur la GTX 560 ni même la GTX 580, parce que les performances entre deux générations ne sont pas énormes.
Si vous voulez augmenter significativement de performance, alors attendez une génération, un peu comme moi :D Si vous avez une GTX 5xx pas la peine de prendre la nouvelle génération, même si on est un gros geek.  
 
Perso je me suis pris une GTX 680 parce que ma GTX 460 commence un peu à souffrir sur mon Benq XL2420T tout récent et que du coup, j'ai patienté et je n'ai pas acheté de génération GTX 5xx pour me prendre celle là.
 
Ca me paraît tout simplement naturel de ne pas râler contre Nvidia parce qu'il y a que 30% de performance en plus.
 
Etant développeur, je trouve ca déjà énorme les progrès que Nvidia a fait, en terme de drivers et de performance de leurs cartes. Je pense que c'est pas évident de développer une nouvelle architecture de carte graphique. Surtout en passant du 40nm au 28 nm.  
Alors oui, certains d'entre-vous vont criez au FanBoy de Nvidia, oui mais non. J'ai eut du ATI, je reste du coté Nvidia pour profiter de la 3D Vision de mon écran.  
 
Un peu de respect sur ce topic, s'il vous plaît. Si la GTX 680 ne vous plaît pas, au lieu de crachez dessus, attendez simplement la prochaine génération, dans le calme et la bonne humeur.
 
Je devrais bientot recevoir ma mienne :) Je posterai des photos bientôt :)
 
Ps : a votre avis : un i5 760 @3.6Ghz et une GTX 680, CPU limited? une alim de 600w 80+ (Cooler Master) ca passe tranquille? :) (j'ai prévu d'acheter dans quelques mois une alimentation entre 800W et 1000W pour faire du SLI plus tard mais en attendant).
 
Merci pour vos réponses les gars :)


 
c est pas la le gk104 qui nous plait pas c'est le tarif qui nous plait pas
 
après si ça te fait plaise de refourguer 500 euros à NV dans une carte qui a couté moins cher à fabriqué que la GTX580 qui est vendu 380 euros c'est toi que ça regarde
 
on ne critique pas le hardware mais bien le principe du vache à lait
 
à la fin sur cet exercice fiscal NV aura ramené autant de pognon sauf qu'au lieu de vendre disons 100000 cartes "gtx680" à 370 euros maintenant, au final ils va en vendre quoi
10000 à 500 euros là et 99000 à 350 euros dans 5 mois et dans 5 mois ça sera toujours la même gtx680 mais retaggé gtx760
m'enfin je le redit si tu veux claqué 500 euros maintenant fait toi plaise
 
 [:cerveau haha] et si t'es dev, cochonne pas tes lignes de codes pour nous forcé à avoir des gpu toujours plus puissant pour un même résultat final  [:haha]
 
bref faut pas confondre la qualité du produit et la sodomie du service marketing
 
on peut suivre le topic kepler car on a bien l intention d acheter un gk104 ou gk110, mais ça nous force absolument pas de le payer "profond" là maintenant, on peut tout à fait envisagé l achat d'un gk104 dans 4/5 mois quand y aura plus la taxe "enfilage de gobelet" du service marketing de 150 boules
 
tu part d'une gtx460 donc de ton point de vu c'est sur que le gap de perf est énorme, ça n'enlève pas qu'à fabriquer et même si tu compte les prix de R&D tout ça... rien ne justifie le prix de la gtx680
 
après que AMD soit dans le gouffre et qu'avec leur nouvelle direction il augmente leur prix pour sortir la tête de l'eau ce qui est pas pour déplaire à MR NV qui se prive pas d'augmenter les tarifs
toutes les preuve on été exposé même de documents officiel comme quoi ça devait être une milieu de gamme
 
ce gk104 c'est comme le g92 du temps du passage au g80 vers g92
tu les a vu débouler à 500 euros les 8800gt plusieurs mois après la sortie des 8800gtx et 8800ultra
bien sur que non
 
et là est bien la problème la "prochaine gamme" ne sera pas la prochaine génération" ça sera juste celle actuelle avec le tarif qui aurait du s'appliqué dès maintenant si NV lui avait du respect (m'enfin monde capitaliste mondialisation tout ça :o )
 
en attendant on attend tes photos car encore une fois, c'est pas sur le produit qu'on crache mais bien sur son tarif éhonté

Message cité 1 fois
Message édité par Activation le 26-03-2012 à 20:59:00
n°8258625
Gein
Posté le 26-03-2012 à 20:41:07  profilanswer
 

Marc a écrit :


Dis donc, tu ne raconterais pas n'importe quoi par hasard ? :o


 
C'est seulement maintenant que tu le remarque ?  :o

n°8258631
The Panda
...
Posté le 26-03-2012 à 20:44:33  profilanswer
 

Je reçois la mienne demain  :bounce:

n°8258636
Alis_70
Posté le 26-03-2012 à 21:00:02  profilanswer
 

+1 Activation, j’apprécie le vocabulaire employé et les expressions en plus
 
"l'enfilage de gobelet" va rester dans les annales   :whistle:

Message cité 1 fois
Message édité par Alis_70 le 26-03-2012 à 21:02:51
n°8258638
foksa37
Posté le 26-03-2012 à 21:01:58  profilanswer
 

Activation a écrit :


rrroh ça fait qqs jours déjà que ce "teaser" se trimballe
 
tu m'a fait une fausse joie, j ai cru que ton link était l executable de la demo qu on pouvait enfin télécharger


 
Dans un genre approchant et avec un exécutable disponible, tu as ceci
 
http://www.crydev.net/viewtopic.php?f=126&t=83615

n°8258639
Marc
Chasseur de joce & sly
Posté le 26-03-2012 à 21:02:00  profilanswer
 

furyfox a écrit :

Bonjour,
Je viens réagir à ce topic. Cela fait longtemps que je suit ce topic et je me suis inscrit pour m'exprimer :)
 
Okay on pose le décor : on est des geeks. Nous aimons tous le Hardware. (Faut le noter :))
 
Cependant, au début, l'ensemble des HFRiens étaient très motivés et très enthousiaste quand à cette nouvelle génération de GPU by Nvidia en 28nm.  
Gk110, GK100 GK104, des performances énormes par rapport à une GTX 580...
 
Seulement voilà, Nvidia a sorti une GTX 680 @500€ avec des performances environ 30% (Grosso merdo, ca dépend de plein de truc je sais !) plus puissante qu'une GTX 580.
Et tout simplement parce que c'est un GK 104, vous criez tous au scandale parce que ce n'est pas du "haut de gamme".
 
Non mais ya un problème là, 500€ et 30% de perf en plus par rapport au Haut de gamme précédent et cela ne vous convient pas?
 
Le problème c'est que c'est totalement normal. Perso j'ai une GTX 460. Je n'ai pas sauté sur la GTX 560 ni même la GTX 580, parce que les performances entre deux générations ne sont pas énormes.
Si vous voulez augmenter significativement de performance, alors attendez une génération, un peu comme moi :D Si vous avez une GTX 5xx pas la peine de prendre la nouvelle génération, même si on est un gros geek.  
 
Perso je me suis pris une GTX 680 parce que ma GTX 460 commence un peu à souffrir sur mon Benq XL2420T tout récent et que du coup, j'ai patienté et je n'ai pas acheté de génération GTX 5xx pour me prendre celle là.
 
Ca me paraît tout simplement naturel de ne pas râler contre Nvidia parce qu'il y a que 30% de performance en plus.
 
Etant développeur, je trouve ca déjà énorme les progrès que Nvidia a fait, en terme de drivers et de performance de leurs cartes. Je pense que c'est pas évident de développer une nouvelle architecture de carte graphique. Surtout en passant du 40nm au 28 nm.  
Alors oui, certains d'entre-vous vont criez au FanBoy de Nvidia, oui mais non. J'ai eut du ATI, je reste du coté Nvidia pour profiter de la 3D Vision de mon écran.  
 
Un peu de respect sur ce topic, s'il vous plaît. Si la GTX 680 ne vous plaît pas, au lieu de crachez dessus, attendez simplement la prochaine génération, dans le calme et la bonne humeur.
 
Je devrais bientot recevoir ma mienne :) Je posterai des photos bientôt :)
 
Ps : a votre avis : un i5 760 @3.6Ghz et une GTX 680, CPU limited? une alim de 600w 80+ (Cooler Master) ca passe tranquille? :) (j'ai prévu d'acheter dans quelques mois une alimentation entre 800W et 1000W pour faire du SLI plus tard mais en attendant).
 
Merci pour vos réponses les gars :)

D'habitude avec une nouvelle génération + nouveau process on a nettement plus que +30% chez Nv donc c'est logique que certains soit déçus.

n°8258640
mightmagic
Posté le 26-03-2012 à 21:05:33  profilanswer
 

furyfox a écrit :

Bonjour,
Je viens réagir à ce topic. Cela fait longtemps que je suit ce topic et je me suis inscrit pour m'exprimer :)

 

Okay on pose le décor : on est des geeks. Nous aimons tous le Hardware. (Faut le noter :))

 

Ne mélangeons pas amoureux du hardware et geek.

 

Un geek est quelqu'un qui va acheter le dernier matos à la mode pour être  à la mode même si c'est à prix prohibitif et même si il en a nullement besoin pas forcément parce qu'il aime le matos.

 

Un amoureux du matos va pas forcément acheter le dernier matos juste parce que c'est le dernier matos mais va réfléchir dans son achat.

 

On peut aimer sans être con.

 

Je suis amoureux du hardware mais l'inverse d'un geek. D'ailleurs geek à la base c'est quelqu'un d'un peu idiot et pas très fut fut si on se réfère au mot étymologiquement donc ne mélangeons pas les 2 termes même si malheureusement c'est fait par le grand public.

 

Quand on me traite de geek, j'ai l'impression qu'on m'insulte vu la vraie signification du terme donc ne mélangeons pas tout.

 


Citation :

Cependant, au début, l'ensemble des HFRiens étaient très motivés et très enthousiaste quand à cette nouvelle génération de GPU by Nvidia en 28nm.
Gk110, GK100 GK104, des performances énormes par rapport à une GTX 580...

 

Seulement voilà, Nvidia a sorti une GTX 680 @500€ avec des performances environ 30% (Grosso merdo, ca dépend de plein de truc je sais !) plus puissante qu'une GTX 580.
Et tout simplement parce que c'est un GK 104, vous criez tous au scandale parce que ce n'est pas du "haut de gamme".

 

Non mais ya un problème là, 500€ et 30% de perf en plus par rapport au Haut de gamme précédent et cela ne vous convient pas?

 

Le problème c'est que c'est totalement normal. Perso j'ai une GTX 460. Je n'ai pas sauté sur la GTX 560 ni même la GTX 580, parce que les performances entre deux générations ne sont pas énormes.
Si vous voulez augmenter significativement de performance, alors attendez une génération, un peu comme moi :D Si vous avez une GTX 5xx pas la peine de prendre la nouvelle génération, même si on est un gros geek.

 

Perso je me suis pris une GTX 680 parce que ma GTX 460 commence un peu à souffrir sur mon Benq XL2420T tout récent et que du coup, j'ai patienté et je n'ai pas acheté de génération GTX 5xx pour me prendre celle là.

 

Ca me paraît tout simplement naturel de ne pas râler contre Nvidia parce qu'il y a que 30% de performance en plus.

 

Etant développeur, je trouve ca déjà énorme les progrès que Nvidia a fait, en terme de drivers et de performance de leurs cartes. Je pense que c'est pas évident de développer une nouvelle architecture de carte graphique. Surtout en passant du 40nm au 28 nm.
Alors oui, certains d'entre-vous vont criez au FanBoy de Nvidia, oui mais non. J'ai eut du ATI, je reste du coté Nvidia pour profiter de la 3D Vision de mon écran.

 

Un peu de respect sur ce topic, s'il vous plaît. Si la GTX 680 ne vous plaît pas, au lieu de crachez dessus, attendez simplement la prochaine génération, dans le calme et la bonne humeur.


Ce n'est pas la gtx680 qui est critiqué en soi, c'est le placement de cette carte destiné à la base au MDG alors qu'il est plus qu'évident qu'un HDG devait sortir en même temps.

 

C'est ça que certains critiquent ici.

 

On peut être d'accord ou pas cependant sur la critique mais je ne fais qu'expliquer le pourquoi du comment.

 


Citation :


Je devrais bientot recevoir ma mienne :) Je posterai des photos bientôt :)

 

Ps : a votre avis : un i5 760 @3.6Ghz et une GTX 680, CPU limited? une alim de 600w 80+ (Cooler Master) ca passe tranquille? :) (j'ai prévu d'acheter dans quelques mois une alimentation entre 800W et 1000W pour faire du SLI plus tard mais en attendant).

 

Merci pour vos réponses les gars :)


Alim de 600W si de qualité, tu seras largement tranquille. Même une 450W suffit pour du mono gpu.

 

Le 800 W et plus c'est pour du SLI et/ou si tu o/c avec de l'air ou de l'azote liquide.

 

Avec ton processeur tu le seras peut être sur certains jeux et en fonction des paramètres que tu as imposé.

Message cité 1 fois
Message édité par mightmagic le 26-03-2012 à 21:11:41
n°8258644
Alis_70
Posté le 26-03-2012 à 21:09:33  profilanswer
 

mightmagic a écrit :


Ne mélangeons pas amoureux du hardware et geek.
 
Un geek est quelqu'un qui va acheter le dernier matos à la mode pour être  à la mode même si c'est à prix prohibitif et même si il en a nullement besoin pas forcément parce qu'il aime le matos.
 
Un amoureux du matos va pas forcément acheter le dernier matos juste parce que c'est le dernier matos mais va réfléchir dans son achat.  
 
On peut aimer sans être con.
 
Je suis amoureux du hardware mais l'inverse d'un geek. D'ailleurs geek à la base c'est un idiot si on se réfère au mot étymologiquement donc ne mélangeons pas les 2 termes même si malheureusement c'est fait par le grand public.


 
Assez d'accord avec ces définitions ...

n°8258649
Yo80
SERIOUS SHARK :D
Posté le 26-03-2012 à 21:11:51  profilanswer
 

Définition:

 

g33k: ceux qui achetent une gtx680 @ 500 boules

 

amoureux du hardware: ceux qui achetent une 7970 d'occaz (a prix défiant toute concurrence) aux g33k :D

 

[:nicoozz]

Message cité 1 fois
Message édité par Yo80 le 26-03-2012 à 21:12:08

---------------
Mon Feed  /  Mes Ventes
n°8258650
maerens
Posté le 26-03-2012 à 21:12:10  profilanswer
 

Marc a écrit :


Dis donc, tu ne raconterais pas n'importe quoi par hasard ? :o


http://translate.googleusercontent [...] vhfCOQ5znA
 
ou pas.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8258656
mightmagic
Posté le 26-03-2012 à 21:14:29  profilanswer
 


Comment fais tu du downsampling?

 

Je ne sais pas comment on fait car les jeux ne proposent pas ça et j'ai rien trouvé dans les drivers alors que certains en parlent.

Message cité 1 fois
Message édité par mightmagic le 26-03-2012 à 21:15:06
n°8258661
maerens
Posté le 26-03-2012 à 21:17:49  profilanswer
 

mightmagic a écrit :


Comment fais tu du downsampling?
 
Je ne sais pas comment on fait car les jeux ne proposent pas ça et j'ai rien trouvé dans les drivers alors que certains en parlent.


 c'est une technique vieille comme le monde... il suffit de créer une résolution personnalisée dans le panneau de config.
 
respectant le ration
 
*1.25/*1.5/*1.75/*2.
 
le ratio 1.75 et 2 ne marche pas chez moi tout dépends de l'écran. ensuite il ne te reste plus qu'à activer la résolution dans les jeux Directx9 uniquement.
http://translate.googleusercontent [...] vhfCOQ5znA

Message cité 1 fois
Message édité par maerens le 26-03-2012 à 21:19:02

---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8258664
Alis_70
Posté le 26-03-2012 à 21:19:55  profilanswer
 

si il faut une aussi grosse config (voir plus) que si tu actives simplement l'AA, bah je vois pas bien l’intérêt du truc, à part bouffer encore plus de ressource pour une différence que tu ne verras même pas.

n°8258666
fantom23
Posté le 26-03-2012 à 21:21:44  profilanswer
 

Yo80 a écrit :

Définition:
 
g33k: ceux qui achetent une gtx680 @ 500 boules
 
amoureux du hardware: ceux qui achètent une 7970 d'occaz (a prix défiant toute concurrence) aux g33k :D
 
 [:nicoozz]


+1   [:zz-fab]  
 
 
 
j arrives [:onizuka_dark]


---------------
¯\_(ツ)_/¯  ᕦ(ò_óˇ)ᕤ  FEED ⊂(◉‿◉)つ ( ͡° ͜ʖ ͡°)
n°8258667
mightmagic
Posté le 26-03-2012 à 21:22:07  profilanswer
 

maerens a écrit :


 c'est une technique vieille comme le monde... il suffit de créer une résolution personnalisée dans le panneau de config.
 
respectant le ration
 
*1.25/*1.5/*1.75/*2.
 
le ratio 1.75 et 2 ne marche pas chez moi tout dépends de l'écran. ensuite il ne te reste plus qu'à activer la résolution dans les jeux Directx9 uniquement.
http://translate.googleusercontent [...] vhfCOQ5znA


Comment fait-on pour activer la réso dans les jeux uniquement?
 
Je ne sais pas faire cela et l'écran ne supporte pas des résos supérieures à celle native.

n°8258675
maerens
Posté le 26-03-2012 à 21:28:19  profilanswer
 

Alis_70 a écrit :

si il faut une aussi grosse config (voir plus) que si tu actives simplement l'AA, bah je vois pas bien l’intérêt du truc, à part bouffer encore plus de ressource pour une différence que tu ne verras même pas.


la différence tu la vois sinon je n'en parlerai pas... il n'y a aucune altération de l'image induite par un filtre et un "simple" GTX 680 suffit dans la plupart des jeux... Hormis skyrim qui dépasse les 4 Go dans ces circonstances, ainsi que d'autres jeux tels que Crysis Warhead... Mass Effect 3 parait très beau comme ca, sur une GTX 460 OC.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8258676
maerens
Posté le 26-03-2012 à 21:31:50  profilanswer
 

mightmagic a écrit :


Comment fait-on pour activer la réso dans les jeux uniquement?
 
Je ne sais pas faire cela et l'écran ne supporte pas des résos supérieures à celle native.


panneau de config/changer la réso/personnaliser/créer une réso personnalisée.
 
changer synchro en automatique
 
définir le nombre de pixel en haut, appuyer sur tester, apuyer sur oui à la fin du test, la réso ne sera pas prise en compte, mais disponible... ça marche même sur mon YUsmart chinois à 40€...
 
jouer à un jeux et activer la réso.


---------------
Crossfire R9-290x/290 (1Ghz 1300mhz;1Ghz 1350),I5 4690K 4,6Ghz 1,25V; Asus sabertooth Z97 Mark2; Cooler Master HAF X; Samsung 840 PRO 128GO ; Caviar Green EARS 1TO; Caviar RED EFRX 2TO; 8GB G-SKILL 1600 cl8; CORSAIR AX860I .
n°8258677
Marc
Chasseur de joce & sly
Posté le 26-03-2012 à 21:32:44  profilanswer
 


Et donc en quoi c'est mieux que du SSAA ?

 

Le gros des pertes de perf. du SSAA est lié au rendu dans une résolution supérieure... C'est aussi le cas ici.

 

Le downscaling  n'est pas fait par le GPU (ne coute pas grand chose en perfs) mais par le moniteur ce qui induit toutes les merdes au niveau réglage et un DS pas forcément de super bonne qualité. Tu dis pas de filtre, tu crois qu'un downscaling ce n'est pas un filtre ? Ca se fait par le saint esprit ? ;) C'est un rendu dans une résolution supérieur à celle affichée suivi d'un downscaling dans les deux cas.

 

Et le rapport avec l'AF, le LOD ou la qualité des textures... Aucun.

 

Le seul vrai intérêt que je vois c'est lorsque les jeux/pilotes ne supportent pas le SSAA, à condition d'avoir un écran qui fait un DS correct.


Message édité par Marc le 26-03-2012 à 21:46:50
n°8258686
WipEout 20​97
Processus créatif
Posté le 26-03-2012 à 21:39:18  profilanswer
 

Space a écrit :

tu n'es pas obligé non plus de jouer tous les détails à fond , surtout qu'il peut arriver que certaines options graphiques d'un jeu bouffent pas mal pour un rendu graphique au final pas si important...


 
 
j'aimerais rebondir la dessus, j'ai moi aussi l'impression que la plupart des modes "ultra" c'est un peu du bullshit, tres peu de differences par rapport a du "high", alors que les perfs plongent :o
du genre Crysis 2, BF3, etc... vous en pensez quoi  [:transparency]
d'ailleurs je trouve que les reglages automatiques dans les jeux sont de mieux en mieux calibrés (tout comme la resolution qui est desormais souvent calée a celle du bureau, pas plus mal pour ceux qui savent pas ou veulent pas bidouiller, au moins ils ont de bonnes conditions).
 
et concernant le FXAA, d'ou vient cette difference niveau rendu entre les jeux ?

n°8258687
mightmagic
Posté le 26-03-2012 à 21:42:07  profilanswer
 

maerens a écrit :


panneau de config/changer la réso/personnaliser/créer une réso personnalisée.
 
changer synchro en automatique
 
définir le nombre de pixel en haut, appuyer sur tester, apuyer sur oui à la fin du test, la réso ne sera pas prise en compte, mais disponible... ça marche même sur mon YUsmart chinois à 40€...
 
jouer à un jeux et activer la réso.


L'écran  va t-il supporter ces résolutions?
 
Normalement si tu met une réso supérieure à celle supportée par l'écran, cela ne fonctionne pas.
 
L'écran ferait tout seul le downscaling quand le jeu lui demande une réso supérieure à celle qu'il peut supporter?
 
Tu es sure de ça?
 
Sur mon ancien CRT, si je mettais une réso supérieure à celle supportée par mon écran, l'écran devenait tout noir mais je n'avais point de downscaling.
 
Edit: Je viens de tester ce que tu m'as dit, cela ne fonctionne pas. J'ai un écran noir tout simplement car il doit tester pour pouvoir valider la réso personnalisée.

Message cité 2 fois
Message édité par mightmagic le 26-03-2012 à 21:46:26
n°8258690
furyfox
Posté le 26-03-2012 à 21:43:37  profilanswer
 

@Mighmagic : merci pour les conseils :)
 
C'est vrai, j'ai dit geek un peu vite et ca veut un peu rien et tout dire ce terme d'ailleurs. Bref. Moi aussi je suis un amoureux du hardware et je suis quand même patient pour acheter quelque chose qui me fera plaisir :)
 
Après j'aime pas trop non plus qu'on me traite de Geek mais j'y ai le droit très souvent étant développeur... xD
 
@Activation : Faut bien qu'Nvidia se fasse de l'argent? Alors okay, peut être qu'ils s'en font beaucoup sur notre dos sur ce coup. Mais personne n'a eut d'information fiable quand au coût réel du 28 nm !
On a eut que des spéculations de journalistes pas très bien informés (malheuresement) !!
 
Et aussi Activation, je pense qu'Nvidia a mis un prix élevé de sa GTX 680, parce qu'il se rend bien compte, qu'en fin de compte, il n'y a pas beaucoup de personnes qui vont l'acheter.
Le gros du marché pour Nvidia c'est le milieu de gamme (et les tablettes :D). La fameuse GTX 660. Qui, je l'espère, aura des performances équivalentes (ou pas loin) d'une GTX 580. (ce qui pour le coup est normal aussi HDG ancienne génération = (souvent) MDG nouvelle génération)
 
 
Enfin bref, je regarde de loins depuis peut être bien un an ou deux, le forum hardware.fr et je dois avouer que la réaction après la sortie de la GTX 680 m'a étonné.
 
Moi perso, je suis  heureux de voir qu'Nvidia a sorti une carte très performante et qui va remplacer ma GTX 460 au poil (2 connecteurs 6 pins aussi :D)
 
Enfin voilà, je retourne dans ma tanière, je me suis exprimé et pis c'est tout. :D
 
ps : En tant que Dev, c'est du CPU que je need :D du CPU !!! (miam le dual xéon 4C/8T dans nos serveurs :) )

n°8258692
mum1989
Posté le 26-03-2012 à 21:45:38  profilanswer
 

furyfox a écrit :

@Mighmagic : merci pour les conseils :)
 
C'est vrai, j'ai dit geek un peu vite et ca veut un peu rien et tout dire ce terme d'ailleurs. Bref. Moi aussi je suis un amoureux du hardware et je suis quand même patient pour acheter quelque chose qui me fera plaisir :)
 
Après j'aime pas trop non plus qu'on me traite de Geek mais j'y ai le droit très souvent étant développeur... xD
 
@Activation : Faut bien qu'Nvidia se fasse de l'argent? Alors okay, peut être qu'ils s'en font beaucoup sur notre dos sur ce coup. Mais personne n'a eut d'information fiable quand au coût réel du 28 nm !
On a eut que des spéculations de journalistes pas très bien informés (malheuresement) !!
 
Et aussi Activation, je pense qu'Nvidia a mis un prix élevé de sa GTX 680, parce qu'il se rend bien compte, qu'en fin de compte, il n'y a pas beaucoup de personnes qui vont l'acheter.
Le gros du marché pour Nvidia c'est le milieu de gamme (et les tablettes :D). La fameuse GTX 660. Qui, je l'espère, aura des performances équivalentes (ou pas loin) d'une GTX 580. (ce qui pour le coup est normal aussi HDG ancienne génération = (souvent) MDG nouvelle génération)
 
 
Enfin bref, je regarde de loins depuis peut être bien un an ou deux, le forum hardware.fr et je dois avouer que la réaction après la sortie de la GTX 680 m'a étonné.
 
Moi perso, je suis  heureux de voir qu'Nvidia a sorti une carte très performante et qui va remplacer ma GTX 460 au poil (2 connecteurs 6 pins aussi :D)
 
Enfin voilà, je retourne dans ma tanière, je me suis exprimé et pis c'est tout. :D
 
ps : En tant que Dev, c'est du CPU que je need :D du CPU !!! (miam le dual xéon 4C/8T dans nos serveurs :) )


Tu aurais eu une 480 ou 570, pas certain que tu aurais tenu le même discours  :o   :sleep:  

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  212  213  214  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)