Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3316 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  129  130  131  ..  1028  1029  1030  1031  1032  1033
Auteur Sujet :

[Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)

n°8244788
Martin_G
Sacrament Of Wilderness
Posté le 14-03-2012 à 18:14:25  profilanswer
 

Reprise du message précédent :

Chrismatique a écrit :


 
 
Dans cette article ils disent: "A commencer par deux photos de la GTX680, avec notamment l'arrière de son PCB, il s'agit d'une carte de référence produite pour le compte de Sapphire (on peut voir le nom de la marque sur la boite en haut à gauche)."
 
Mais Sapphire n'a jamais fait de carte Nvidia... Vont ils s'y mettre maintenant?
 
Edit: je viens de voir que quelqu'un d'autre c 'est posé la meme question que moi...


 
Sapphire non, mais si je ne dis pas de bêtises (je ne suis pas certain du tout), Zotac est une filiale de sapphire non ?

mood
Publicité
Posté le 14-03-2012 à 18:14:25  profilanswer
 

n°8244809
Nomain
Carpe diem
Posté le 14-03-2012 à 18:30:44  profilanswer
 

Activation a écrit :

 


les 2 clip sont l un en face de l autre au centre de ce double connecteur

 

donc genre t es obligé d'enlever le premier cable pour pouvoir déclipser le second  sinon tu ne peut accéder à la "languette" de celui ci (plus ou moins caché par la languette du premier)

 

Je confirme que d'après la photo, les prises sont face à face. Mais même après avoir ôté le premier câble, j'ai du mal à croire que l'espace libéré me permettra de glisser un doigt pour déclipser le second câble.
D'ailleurs, sur le PCB, on voit qu'il y a des points permettant la mise en place d'une prises 6 broches à côté de l'autre, au lieu d'au-dessus.

 

Photo correspondant à un prototype ? Une version finale ?


Message édité par Nomain le 14-03-2012 à 18:39:25
n°8244819
actaruxs
Posté le 14-03-2012 à 18:49:36  profilanswer
 

fire du 57 a écrit :

Le pire c'est les cas de Cfx et de SLI , sous des titres comme BF3 la mémoire doit facilement monté à plus de 2Go si l'on met un maximum de filtre ;)  
 
Et y a des filtres comme le SSAA ou le MSAA qui pompe vraiment beaucoup dans la mêmoire , alors en plus si tu rajoute la haute résolution les 2Go peuvent limiter ;)
...


 
Il aurait été plus simple de dire que l'antialiasing (AA) pompe beaucoup (trop) dans la memoire, non ? ;)
 
Car le MSAA et le SSAA ne définissent que le niveau de qualité de l'AA... Le MSAA étant le moins gourmand des 2.
 
Et moi, je peux pas concevoir de jouer sans AA... Et le AAx2 est inutile... Mini AAx4.
 

pepes003 a écrit :

Le top serait d'avoir dans un comparatif avec ces 18 cartes : (9 de chaque camps)
 
nVidia
- GTX460
- GTX480
- GTX560Ti
- GTX570
- GTX580
- GTX590
- GTX660Ti
- GTX670
- GTX680
 
AMD
- HD5870
- HD6870
- HD6950
- HD6970
- HD6990
- HD7850
- HD7870
- HD7950
- HD7970
 
Et pouvoir en établir un classement :
1) perf' pures en 1920*1080 et 5760*1080 (Surround (si les GTX6** sont compatibles en mono-gpu) ou Eyefinity)
2) ratio perf/conso
3) ratio perf/prix d'achat


 
Inclure la 5970 aurait été pas mal je trouve, aussi ;)
 
PS: Ses perf sont a mis chemin entre la GTX580 et la GTX590 (au mieux, hein :) ).


Message édité par actaruxs le 14-03-2012 à 18:58:37
n°8244824
Invite_Sur​prise
Racaille de Shanghaï
Posté le 14-03-2012 à 19:00:42  profilanswer
 

NoradII a écrit :

:??:
Ben Cf. la news d'arrêt de production, qui c'est soldé par une reprise d'une partie des chaines 4 semaines et demi après et dont ATI en fait parties.
 
Tu veux que j'en dise, plus ?
La révision actuelle (A3) de Kepler va devoir subir une modification en cours de route, peut-être pas être identifié comme A4, mais du travail à dû être rajouté avant la disponibilité massive du produit.
 
Tu en veux encore ?
NVIDIA ne parviens pas à faire cohabiter ses ROPs et son BUS 512 bits, ils songent à le retarder sortant ainsi complètement des possibilités, de la gamme actuelle GTX600. On aurait donc à nouveau 384 bits au maximum. La faute à qui ? à la désynchronisation du ROP Domain, dans les fréquences. Si tu en veux encore, MP tes questions je tâcherai d'y répondre .. va savoir tu n'as peut être pas finis de rire ;)


Proof ?
 

Spoiler :

[:xla]


 
edit :
 

Citation :

Many people would say this is not obvious what the number x04 core is only mid-positioning, the flagship of the left to GK110 core specifications are also exposed to many times, 2304 CUDA cores, 160 texture units, 48 one R0P unit, memory interface, a storage capacity of 384bit, 3GB, will be released in August this year.


 
edit 2 :
 

Citation :

Kepler family will be at 6:00 am Pacific Time on March 22


 
http://translate.google.fr/transla [...] 18768.html


Message édité par Invite_Surprise le 14-03-2012 à 19:14:08
n°8244832
NoradII
Il y a 17 ans naquit un PC
Posté le 14-03-2012 à 19:11:37  profilanswer
 

damn .. you got me [:onizuka_dark]


---------------
valid.x86.fr/575505 /842925 /902578
n°8244851
actaruxs
Posté le 14-03-2012 à 19:24:04  profilanswer
 

D'après vous, cb ? Dans les 700€ ?

n°8244852
Agent heav​y
Posté le 14-03-2012 à 19:27:27  profilanswer
 

Après tout sans source, ça peut être une construction de ton esprit Noradii.  
On n'a aucune garantie que tu ne sois pas un mythomane. A partir de là, t'étonnes pas d'être mal reçu.  
Si tu sais des choses mais que tu ne peux pas donner la source et que tu n'as pas la légitimité de Marc par exemple, garde les informations pour toi.


---------------
Feed-back
n°8244854
Mseirco
Posté le 14-03-2012 à 19:28:09  profilanswer
 

Salut.
 
J'ai lu quelques commentaires sur la quantité faiblarde de la ram qui equipera la 680gtx. Ben.... JE SUIS TOTALEMENT DACCORD! Franchement Nvidia c'est quoi ce foutage de gueule toujours avec la ram? Sa me donne presque envie de passer a AMD!
 
Meme la version 580gtx ram+ en a plus! 3Gb. Deja que 1.5gb de ram satures aujourd'huit (full hd skyrim+mod ou bf3 ultra) J'ose deja immaginer que tres bientot 2GB seront limites!
 
Sinon, quand pourrait sortir une version 680gtx avec plus de ram ??

n°8244858
Activation
21:9 kill Surround Gaming
Posté le 14-03-2012 à 19:31:58  profilanswer
 

JeucépAh, ptet qu'ils ont pas envie de mettre 16puces gddr5 sur le pcb :o
 
qu'ils permettent déjà le surround gaming (3 écrans pas plus ça sera déjà bien) en monogpu ça sera un grand pas en avant :o

n°8244874
actaruxs
Posté le 14-03-2012 à 19:42:06  profilanswer
 

Ah non alors... Pas faire comme AMD avec sont fichu eyefinity...
 
Si t'es pas en eyefinity et que tu branche un seconde écran pour monitoring (par ex)... Ben, tu perd 20% de perf in-game... Je veux pas de ça avec nVidia. :fou:
[troll:off] dsl... c'était plus fort que moi :jap:


Message édité par actaruxs le 14-03-2012 à 19:44:17
mood
Publicité
Posté le 14-03-2012 à 19:42:06  profilanswer
 

n°8244876
pepes003
Loués soient les Or(d)i
Posté le 14-03-2012 à 19:42:34  profilanswer
 

Activation a écrit :


 
qu'ils permettent déjà le surround gaming (3 écrans pas plus ça sera déjà bien) en monogpu ça sera un grand pas en avant :o


 
+7 milliards


---------------
> Mon FEEDBACK <
n°8244880
actaruxs
Posté le 14-03-2012 à 19:46:30  profilanswer
 

pepes003 a écrit :


 
+7 milliards


 
Bon meme si ça fonctionne... Faut combien de cg pour que ça tourne correctement ?
 
ça va encore gonfler la note... surtout si on ne veut pas du surround gaming :(

n°8244890
mightmagic
Posté le 14-03-2012 à 19:52:20  profilanswer
 

Si c'est aout pour le gk110, j'espère que ce sera le début aout.

n°8244894
kriechbaum
Posté le 14-03-2012 à 19:58:17  profilanswer
 

Si elle sort en Aout, elle s'appellera GTX685, ça m'étonnerait qu'ils la nomment GTX780, alors que la 680 est sortie fin mars...  ça ferait un peu short niveau timing pour deux "pseudo-gammes".

n°8244897
Invite_Sur​prise
Racaille de Shanghaï
Posté le 14-03-2012 à 19:58:44  profilanswer
 

Martin_G a écrit :


 
Sapphire non, mais si je ne dis pas de bêtises (je ne suis pas certain du tout), Zotac est une filiale de sapphire non ?


Zotac et Sapphire sont tous les deux des entités de PCPartner.

n°8244909
actaruxs
Posté le 14-03-2012 à 20:05:37  profilanswer
 

kriechbaum a écrit :

Si elle sort en Aout, elle s'appellera GTX685, ça m'étonnerait qu'ils la nomment GTX780, alors que la 680 est sortie fin mars...  ça ferait un peu short niveau timing pour deux "pseudo-gammes".


c'est aussi mon avis... D'autant plus qu'il faut pas oublier la 690... qui devrait etre un bi-gpu... donc un poil plus perf que la "685" (gk110)... normalement.
 
EDIT: Ou alors... Il y aura bien la 780... la 690, et la 790... + probablement quelques modeles intermédiaire, pour rentabiliser le développement bien a fond... Ils vont quand meme pas faire l'inverse, par rapport aux 4xx -> 5xx... Surtout qu'il va falloir faire patienter le client jusqu'a la sortie de Maxwell


Message édité par actaruxs le 14-03-2012 à 20:09:56
n°8244931
Charles K
Posté le 14-03-2012 à 20:13:56  profilanswer
 

actaruxs a écrit :


 
Bon meme si ça fonctionne... Faut combien de cg pour que ça tourne correctement ?
 
ça va encore gonfler la note... surtout si on ne veut pas du surround gaming :(


http://www.hardocp.com/article/201 [...] d_review/1
 
avec les options adaptés c'est jouable sur une 580, donc ça le sera sur une 680

n°8244936
mightmagic
Posté le 14-03-2012 à 20:16:26  profilanswer
 

kriechbaum a écrit :

Si elle sort en Aout, elle s'appellera GTX685, ça m'étonnerait qu'ils la nomment GTX780, alors que la 680 est sortie fin mars...  ça ferait un peu short niveau timing pour deux "pseudo-gammes".


Pourquoi pas? S'ils renomment les gtx680, gtx670 en gtx 770 et gtx760, cela peut le faire.
 
Le renommage ce n'est pas nouveau et cela fera 5 mois environ donc rien est impossible.

Message cité 1 fois
Message édité par mightmagic le 14-03-2012 à 20:17:15
n°8244941
Activation
21:9 kill Surround Gaming
Posté le 14-03-2012 à 20:20:19  profilanswer
 

surround gaming ça veut pas dire que faut se sentir obligé de jouer aux 5jeux les plus gourmand de l univers reglage à fond (comprendre metro 2033 :o )
 
le plaisir de pouvoir jouer à need for speed hot pursuit, tomb raider, assassin's creed 2, brotherhood, skyrim... j en passe et des meilleurs  
 
 
http://widescreengamingforum.com/a [...] en-vs-blue

n°8244945
actaruxs
Posté le 14-03-2012 à 20:28:12  profilanswer
 

Merci charles pour le lien
 
exact mightmagic... j'y pensais plus a ça
 
@Activation
 
Je suis d'accord... Mais je suis pas non plus un harcore-gamer :D
Meme si je l'étais... J'ai dejà a peine assez de place pour 2 écran 24"...  
 
Maintenant, si il font cette possibilité... Ils risquent d'en profiter pour gonfler le prix...  
Et là, ceux qui n'en profitent pas (du surround gaming), vont payer pour les autres... si je puis dire. Ben tant pis... T'as qu'a t'y mettre si tu veux pas"dépenser" de l'argent inutilement (chui pas sûr d'etre très clair).


Message édité par actaruxs le 14-03-2012 à 20:29:45
n°8244946
serioussam
Plouf
Posté le 14-03-2012 à 20:28:59  profilanswer
 

Activation a écrit :

surround gaming ça veut pas dire que faut se sentir obligé de jouer aux 5jeux les plus gourmand de l univers reglage à fond (comprendre metro 2033 :o )
 
le plaisir de pouvoir jouer à need for speed hot pursuit, tomb raider, assassin's creed 2, brotherhood, skyrim... j en passe et des meilleurs  
 
 
http://widescreengamingforum.com/a [...] en-vs-blue


Ca veut pas non plus dire qu'il faut s'en priver...

n°8244950
actaruxs
Posté le 14-03-2012 à 20:32:44  profilanswer
 

En fait, ce que j'ai voulu dire a la base... En parlant du concurent... C'est que leur solution nous oblige a l'utiliser.
Si tu as plus de 1 écran... C'est pour jouer sur tous tes écrans... J'ai constaté que dans cette config là... En jeu avec 1 seul écran... Tu perd en perf (20 à 30% pour etre précis), et en gros en eyefinity, c'est pareil... Mais tu joue sur plusieurs écran... L'un compensant l'autre (tu joue en tres haute reso... normal que tu perd 1 ti peu en i/s)
 
Donc, pour rien perdre faut o/c :(
 
... suite -> J'éspere seulement que nvidia ne commettra pas cette erreur... Dans plusieurs années ok, pour Maxwell par ex... Sinon... Je devrais me re-mettre a la console (bien moins honéreux) :/


Message édité par actaruxs le 14-03-2012 à 20:40:08
n°8244955
Activation
21:9 kill Surround Gaming
Posté le 14-03-2012 à 20:40:43  profilanswer
 

serioussam a écrit :


Ca veut pas non plus dire qu'il faut s'en priver...


 
 
ça veut surtout que si tel 5 jeux écrit avec les pieds au monde tu peut pas les lancer sur un triple ecran... bah tu le lance seulement sur l écran central, pourquoi se priver de 80 jeux si ce n est plus de jeux, ou tu pourra profiter du triple screen simplement car y en a 5 ou si tu le fait t'as cg va pleurer
 
perso j ai toujours préféré le triple screen à la stereoscopie, et les jeux horizontal+ c'est pas ce qui manque
 
après y a toujours des petit regret genre street fighter IV et split second qui sont vertical- (en même temps pire que tout split second il est bridé à 30i/s... bande de con chez disney :o )

n°8244968
sasuke87
Posté le 14-03-2012 à 21:01:09  profilanswer
 

NoradII a écrit :

:heink: Tu aime les Lock, à ce point ?
Non parce que lâcher un troll pareil, juste après un lock. C'est un peu balancer de l'huile sur le feu. [:clappclapp]


 
Mais même sérieusement, est-ce que l'on peut considéré les HD38xx, HD48xx et même HD58xx comme du HDG? On peut jouer autant qu'on veut avec les mots mais le plus simple (et correct) est de parler de mono-GPU le plus puissant du fabricant.

n°8244969
sasuke87
Posté le 14-03-2012 à 21:02:16  profilanswer
 

seu a écrit :


 
 
Désolé mais c'est inexact  :jap:  
 
Le Dernier GPU HDG de ATI sencé entrer en concurrence "officielle" avec Nvidia c'était la série 29xx (http://www.hardware.fr/articles/671-1/ati-radeon-hd-2900-xt.html) Et je parles bien sur à générations équivalente et sur DX10.
 
Le HD38xx était un milieu de gamme "officiellement" , bien que très correct niveau performances.


 
Bah c'est ce que je sous entends...

n°8244983
jumpyman97​2
Posté le 14-03-2012 à 21:17:07  profilanswer
 

sasuke87 a écrit :


 
Mais même sérieusement, est-ce que l'on peut considéré les HD38xx, HD48xx et même HD58xx comme du HDG? On peut jouer autant qu'on veut avec les mots mais le plus simple (et correct) est de parler de mono-GPU le plus puissant du fabricant.


 
Du test d'Hardware.fr  
 

Citation :

La Radeon HD 5870 2 Go permet de combler une partie du retard sur la GeForce GTX 480 dans les quelques jeux et conditions qui sont à l'étroit avec 1 Go de mémoire. En 2560x1600 l'avance de la GeForce GTX 480 varie alors entre 3 et 9 % suivant le niveau d'antialiasing.


 
Si on considère la gtx480 comme du HDG, comment une carte (certes dans sa version 2go ;)  c'était plus dans la version 1go) avec une différence si faible peut être considéré comme du MDG au niveau performance et ça vaut aussi pour la 4890. L'exception est la 3870.

Message cité 1 fois
Message édité par jumpyman972 le 14-03-2012 à 21:19:41
n°8245000
mac fly
Posté le 14-03-2012 à 21:31:05  profilanswer
 

jumpyman972 a écrit :


 
Du test d'Hardware.fr  
 

Citation :

La Radeon HD 5870 2 Go permet de combler une partie du retard sur la GeForce GTX 480 dans les quelques jeux et conditions qui sont à l'étroit avec 1 Go de mémoire. En 2560x1600 l'avance de la GeForce GTX 480 varie alors entre 3 et 9 % suivant le niveau d'antialiasing.


 
Si on considère la gtx480 comme du HDG, comment une carte (certes dans sa version 2go ;)  c'était plus dans la version 1go) avec une différence si faible peut être considéré comme du MDG au niveau performance et ça vaut aussi pour la 4890. L'exception est la 3870.


Moi je traduis ça par: la gtx480 était du HDG qui pouvait se retrouver handicapée dans des conditions extrêmes sur une minorité de jeux.  Ca ne veut toujours pas dire que la 5870 2go était du HDG à mettre au même niveau que la gtx480... tu prends le constat à l'envers en te basant sur un manque de ram handicapant les perfs dans des cas extrêmes pour en déduire une généralité

Message cité 1 fois
Message édité par mac fly le 14-03-2012 à 21:33:52
n°8245008
fire du 57
The futur is Fusion
Posté le 14-03-2012 à 21:38:15  profilanswer
 

Alors pour vous la 5870 qui fut l'affaire du siècle ( au niveau perf'/prix ) qui arrive au niveau d'une 480 ( ou presque ) tout en consommant moins avec plus de VRAM que la 480 alors c'est du MDG ?

 

Donc pour vous la 7970 sera du MDG à la sortie de la GTX680 ? J'ai un peu de mal à comprendre le raisonnement de certains... Ou alors j'ai pas compris :lol:

 

Après il y a les Bi-GPU qui selon moi ne sont pas du "HDG" à proprement parlé ! ;)

Message cité 2 fois
Message édité par fire du 57 le 14-03-2012 à 21:38:46

---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8245009
couillesho​t
Les bouboules et la boubouche
Posté le 14-03-2012 à 21:38:31  profilanswer
 

mightmagic a écrit :


Pourquoi pas? S'ils renomment les gtx680, gtx670 en gtx 770 et gtx760, cela peut le faire.
 
Le renommage ce n'est pas nouveau et cela fera 5 mois environ donc rien est impossible.


+1
les geforce 9 et GTX200 ont été lancées en l'espace de 5 mois


---------------
:o :o :o
n°8245012
jumpyman97​2
Posté le 14-03-2012 à 21:42:06  profilanswer
 

mac fly a écrit :


Moi je traduis ça par: la gtx480 était du HDG qui pouvait se retrouver handicapée dans des conditions extrêmes sur une minorité de jeux dans sa version 1 Go de ram.  Ca ne veut toujours pas dire que la 5870 2go était du HDG à mettre au même niveau que la gtx480... tu prends le constat à l'envers en te basant sur un manque de ram handicapant les perfs dans des cas extrêmes pour en déduire une généralité


 
La GTX480 n'avait pas 1go mais 1.5 go et c'est plutôt la 5870 dans sa version 1go qui était handicapée en haute résolution, Certes les 1.5 go pouvait limiter mais même en 1920*1200 la GTX 480 était au mieux 15% plus performante avec aa8x et 9% sans AA sur les 5870 qui ne montraient aucune différence entre 1go et 2go. Sérieusement cette différence fait qu'on ne peut pas considérer le GPU comme HDG et je parle même pas du fait que la gtx est sortie 6 mois plus tard. A ce moment là seul les cartes bi-gpu sont du HDG.

Message cité 1 fois
Message édité par jumpyman972 le 14-03-2012 à 21:48:24
n°8245021
Yo80
SERIOUS SHARK :D
Posté le 14-03-2012 à 21:46:46  profilanswer
 

fire du 57 a écrit :


Donc pour vous la 7970 sera du MDG à la sortie de la GTX680 ? J'ai un peu de mal à comprendre le raisonnement de certains... Ou alors j'ai pas compris :lol:
 


C'est pourtant simple:
 
HD7970 = HDG AMD
GTX680 = MDG Nvidia
 
donc 2 solutions possibles pour Nvidia vu les perfs de son MDG:
1 - gtx680 au prix normal d'un MDG, Amd réagit et ajuste ses prix...
2 - ils s'alignent sur le prix du HDG AMD et s'en mette plein les poches...


---------------
Mon Feed  /  Mes Ventes
n°8245022
fire du 57
The futur is Fusion
Posté le 14-03-2012 à 21:48:48  profilanswer
 

Yo80 a écrit :


C'est pourtant simple:
 
HD7970 = HDG AMD
GTX680 = MDG Nvidia
 
donc 2 solutions possibles pour Nvidia vu les perfs de son MDG:
1 - gtx680 au prix normal d'un MDG, Amd réagit et ajuste ses prix...
2 - ils s'alignent sur le prix du HDG AMD et s'en mette plein les poches...


 
 
Réponse 2 jusqu’à la sortie du GK110 ou du GK100 ! :jap: Faut pas rêver niveau prix ;)


---------------
"Si vous ne changez pas en vous-même, ne demandez pas que le monde change"
n°8245026
kriechbaum
Posté le 14-03-2012 à 21:51:48  profilanswer
 

Yo80 a écrit :


C'est pourtant simple:
 
HD7970 = HDG AMD
GTX680 = MDG Nvidia
 
donc 2 solutions possibles pour Nvidia vu les perfs de son MDG:
1 - gtx680 au prix normal d'un MDG, Amd réagit et ajuste ses prix...
2 - ils s'alignent sur le prix du HDG AMD et s'en mette plein les poches...


 
 
Ce qui classe une carte dans sa gamme, c'est son appellation, en l'occurence GTX 680, donc HDG. Si c'etait un MDG, ça aurait été  GTX660 ou un truc du genre.
Bien entendu le prix va avec la gamme, et pas la puce qui équipe cette dernière.

n°8245028
Yo80
SERIOUS SHARK :D
Posté le 14-03-2012 à 21:52:12  profilanswer
 

je ne reve pu depuis longtemps... vive l'entente et l'engraissement financier!


---------------
Mon Feed  /  Mes Ventes
n°8245030
mac fly
Posté le 14-03-2012 à 21:52:35  profilanswer
 

jumpyman972 a écrit :


 
La GTX480 n'avait pas 1go mais 1.5 go -> je sais bien puisque j'ai une gtx470 ^^j'ai corrigé et tu as simplement oublié de rafraichir avant de me quoter  ;)  et c'est plutôt la 5870 dans sa version 1go qui était handicapée en haute résolution, Certes les 1.5 go pouvait limiter mais même en 1920*1200 la GTX 480 était au mieux 15% plus performante avec aa8x et 9% sans AA sur les 5870 qui ne montraient aucune différence entre 1go et 2go. Sérieusement cette différence fait qu'on ne peut pas considérer le GPU comme HDG. A ce moment là seul les cartes bi-gpu sont du HDG.


Le facteur limitant est uniquement la quantité de ram.
Tu peux pas mettre la 5870 au meme niveau du fait qu'en conditions extrèmes elle va grapiller des points dans sa version 2go face à la gtx480 qui va se retrouver handicapée en conditions extrèmes sur une minorité de jeux...
La 5870 était à mettre au niveau de la gtx470 c'est la raison pour laquelle à l'époque j'ai opté pour une gtx470 (car avec son potentiel d'o/c en % elle devient alors redoutable  :ouch:  -> je suis au niveau de la gtx570 "stock" -> voir ma config)

Message cité 2 fois
Message édité par mac fly le 14-03-2012 à 21:56:57
n°8245031
Yo80
SERIOUS SHARK :D
Posté le 14-03-2012 à 21:53:53  profilanswer
 

kriechbaum a écrit :


 
 
Ce qui classe une carte dans sa gamme, c'est son appellation, en l'occurence GTX 680, donc HDG. Si c'etait un MDG, ça aurait été  GTX660 ou un truc du genre.
Bien entendu le prix va avec la gamme, et pas la puce qui équipe cette dernière.


le gk104 est MDG...
alors ca y est, ils ont mis un 8 à la place du 6, et ca fait de la carte du HDG ^^ tu serais pas commercial par hasar :D


---------------
Mon Feed  /  Mes Ventes
n°8245036
jumpyman97​2
Posté le 14-03-2012 à 21:57:46  profilanswer
 

mac fly a écrit :


Le facteur limitant est uniquement la quantité de ram.
Tu peux pas mettre la 5870 au meme niveau du fait qu'en conditions extrèmes elle va grapiller des points dans sa version 2go face à la gtx480 qui va se retrouver handicapée en conditions extrèmes sur une minorité de jeux...
La 5870 était à mettre au niveau de la gtx470 c'est la raison pour laquelle à l'époque j'ai opté pour une gtx470 (car avec son potentiel d'o/c en % elle devient alors redoutable  :ouch:  -> je suis au niveau de la gtx570 "stock" )


 
Je le remets encore, en 1920*1200 la GTX 480 était au mieux 15% plus performante avec aa8x et 9% sans AA sur les 5870 qui ne montraient aucune différence entre la version 1go et la version 2go.
 
S'il n'y avait aucune différence entre la version 1go et 2go de la 5870 comment la gtx480 pouvait, elle, être limitée avec ses 1.5 go :??: et la différence en faveur de la 5870 sur la 470 était la même que la 480 sur la 5870 donc si tu les considère  la 5870 et la 470au même niveau il faut donc mettre aussi la 5870 au même niveau que la 480 CQFD :D  et je m'arrêtes là.

Message cité 1 fois
Message édité par jumpyman972 le 14-03-2012 à 22:02:12
n°8245037
mac fly
Posté le 14-03-2012 à 21:59:46  profilanswer
 

jumpyman972 a écrit :


 
Je le remets encore, en 1920*1200 la GTX 480 était au mieux 15% plus performante avec aa8x et 9% sans AA sur les 5870 qui ne montraient aucune différence entre 1go et 2go.
 
S'il n'y avait aucune différence entre la version 1go et 2go de la 5870 comment la gtx480 pouvait, elle, être limité avec ses 1.5 go :??:


Je la remet aussi, as tu comparé la gtx470 à la 5870 ?
La gtx 470 par son prix n'est pas le fleuron alors qu'en pratique il n'y a pas non plus un fossé vs gtx 480 dès lors ou on la cloque "normalement" ne serait ce qu'aux memes fréquences que la gtx480 -ce que n'importe quelle gtx470 peu faire- (Nvidia a volontairement underclocké par défaut sa gtx470 pour rendre sa gamme cohérente, fallait juste comprendre ça pour se rendre compte que c'était une des cartes les plus interessantes)
Ce qui fait le HDG c'est comme dit au dessus: son NOM et sa position tarifaire..

Message cité 1 fois
Message édité par mac fly le 14-03-2012 à 22:04:25
n°8245039
wnorton
Je suis néerlandophone
Posté le 14-03-2012 à 22:02:23  profilanswer
 

Moi perso, je dit que Nvidia devrais trouver un truc pour cumuler la Gddr5 en SLI comme 2x1.5Go=3Go la on irai de l'avant.  :D


---------------
Je suis néerlandophone une fois
n°8245042
kriechbaum
Posté le 14-03-2012 à 22:04:01  profilanswer
 

Yo80 a écrit :


le gk104 est MDG...
alors ca y est, ils ont mis un 8 à la place du 6, et ca fait de la carte du HDG ^^ tu serais pas commercial par hasar :D


 
Non, désolé  :fou:

n°8245046
jumpyman97​2
Posté le 14-03-2012 à 22:08:18  profilanswer
 

mac fly a écrit :

 

Ce qui fait le HDG c'est comme dit au dessus: son NOM et sa position tarifaire..

 

la 5870 2 go était le modèle le plus élevé de part son nom dans la gamme AMD excepté le bi-gpu  et

 
Citation :

Commercialisée à près de 500€, la Radeon HD 5870 2 Go

 

Au moment du test en avril 2010 soit au moment de la sortie des gtx480 donc c'est bien du HDG selon le NOM et la position tarifaire :)

 

Et aussi selon les performances vis-à-vis du marché.

Message cité 1 fois
Message édité par jumpyman972 le 14-03-2012 à 22:08:51
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  129  130  131  ..  1028  1029  1030  1031  1032  1033

Aller à :
Ajouter une réponse
 

Sujets relatifs
Concours Nvidia / questions sur les... questionsCartes Mères Z68 GIGABYTE, laquelle choisir ?
Panneau de configuration NVIDIA ?[HFR] Actu : 5 cartes A75 FM1 pour ASRock
Probleme aprés installation carte NVIDIA GEFORCE 8400 GS[HFR] Actu : Nvidia lance les GTX 580M et 570M
[HFR] Actu : 4 cartes Socket FM1 pour Gigabyte[Topic Unique] Problème pour mettre à jour sa carte réseau
Gestion des ventilateurs 3 pins avec les cartes mères P67Configuration MCP73VE NVIDIA MCP73
Plus de sujets relatifs à : [Topic Unique] NVIDIA GeForce GTX 660Ti/670/680/690/760/770 (GK104)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)