Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1331 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Page Suivante
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX 660 Ti, Asus GTX 660 Ti DirectCU II TOP, EVGA

n°8419952
hafx
What happens next is up to you
Posté le 19-08-2012 à 09:19:55  profilanswer
0Votes positifs
 

Reprise du message précédent :
En même temps Nvidia n'a jamais autant vendu de cartes HDG donc la baisse de prix c'est pas pour tout de suite.
 
http://www.comptoir-hardware.com/a [...] x-680.html

mood
Publicité
Posté le 19-08-2012 à 09:19:55  profilanswer
 

n°8420050
sagittaire
Posté le 19-08-2012 à 12:28:29  profilanswer
3Votes positifs
 

beuc a écrit :

Encore un test avec baisse volontaire des fréquences GPU pour Nvidia et nada côté AMD. Vive l'équité. Non seulement vous testez une carte AMD spécialement modifiée pour la presse qui n'est absolument pas le modèle commerciale mais pour couronner le tout vous testez une carte Nvidia commerciale en la castrant des sa puissance en prétextant qui mémé va perdre une dent si vous ne le faites pas...
Bref, ça fait vraiment pitié...un test dans le vent qui ne veut strictement rien dire.
 
et oui je sais...blablabla, je suis un fanboy...c'est tout ce que vous savez dire.
 
Si trouver que le protocole de test est minable est on ne peut plus désavantageux pour l'une des deux cartes concurrentes c'est pour vous être fanboy Nvidia (à en croire certains)...alors j'assume et je me casse de ce site bidon qui fait des benchs à la mord moi le noeu hyper orientés.
 
Le prochain coup, vous n'avez qu'à tester les GTX700 à leur sortie en diminuant la fréquence GPU de moitié de la GTX780...en prétextant que sinon mémé bave trop quand elle se brosse les dents...vous en êtes capables.


 
Bon quand on lit ça, on ne sait pas si on doit rire ou si on doit pleurer tellement beurk ne comprend rien. Hardware.fr explique pourtant très bien son protocole de test. Mais je vais réessayer d'expliquer le pourquoi du comment:
 
1) bon et d'une les résultats des tests avec Turbo pleinement actif sont donnés pour les 660 Ti ... qui sont des "éditions presses" ou du moins dont on peut soupçonner qu'elles ont été sélectionnées pour les tests faits par la presse ... !!?
 
2) Le Turbo pour les cartes AMD est 100% déterministe. Toute les cartes AMD auront toujours le même niveau de performance édition presse ou pas. Ensuite les cartes éditions presses de chez AMD pourront se montrer meilleures pour l'overclocking manuel, le niveau de bruit ou la consommation mais en aucun cas pour les performances de calcul sur leurs fréquences usines.
 
3) Le turbo pour les cartes NVIDIA n'est pas 100% déterministe. NVIDIA garanti simplement un niveau de turbo minimal que toutes les cartes atteindront. Et c'est justement à ce niveau que la performance peut être faussé pour les cartes NVIDIA "édition presse". Elles sont généralement sélectionnées pour atteindre des niveau de turbo bien plus élevé que le niveau de turbo minimal garanti par NVIDIA ce qui ne sera évidement pas le cas de l'échantillon moyen destiné au grand public. Hardware.fr bidouille donc les cartes NVIDIA "édition presse" pour que le niveau de turbo ne dépasse pas le niveau de turbo minimal garanti par NVIDIA. Les cartes NVIDIA "édition presse" étant soigneusement sélectionnées, la carte équivalente que le consommateur achètera dans le commerce aura 99% de chance de ne pas atteindre le niveau de performance de la carte "édition presse". Hardware.fr bidouille donc le turbo pour montrer que ce que 100% des cartes NVIDIA pourront atteindre comme niveau de performance réel.
 
4) Cette méthode de test n'est sans doute pas parfaite non plus. Un consommateur qui aura moyennement de la chance pourra sans doute acheter une carte avec un niveau de turbo subtantiellement supérieur au niveau de turbo garanti. Mais il faut bien prendre en compte le consommateur qui n'aura pas de chance et qui achètera une carte avec un niveau de turbo juste au niveau minimal garanti par NVIDIA.
 
5) Pour finir c'est un débat qui ne porte finalement pas sur une augmentation très importante de performance. Entre une carte avec un turbo au niveau minimal garanti par NVIDIA et les cartes "éditions presse", il y a en moyenne 5% d'écart. Un consommateur moyennement chanceux pourra espérer lui 2 ou 3%.

Message cité 1 fois
Message édité par sagittaire le 19-08-2012 à 13:09:41
n°8420632
Singman
The Exiled
Posté le 19-08-2012 à 23:26:17  profilanswer
0Votes positifs
 

Que le Boost AMD soit déterministe ne signifie pas qu'il est meilleur. C'est juste un choix technique d'AMD, pas forcement le plus judicieux pour une carte graphique. Pour le reste, OK.

n°8420633
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 19-08-2012 à 23:31:38  profilanswer
0Votes positifs
 

Il a jamais dit ça [:mouais]


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8420635
Profil sup​primé
Posté le 19-08-2012 à 23:32:00  answer
0Votes positifs
 

+1 il a jamais dit que le turbo AMD était meilleur ...

n°8420649
malouaire
Posté le 20-08-2012 à 00:11:34  profilanswer
1Votes positifs
 

       Concernant la 7870, je me demande si on peut se fier uniquement aux plaintes de quelques dizaines d'utilisateurs ici pour juger de sa fiabilité, car la carte est sortie il y a plusieurs mois et a eu un certain succès du fait de son prix....pas trop exagéré. Même pour une carte réussie pour laquelle on a 1% de renvoi, 10000 acheteurs ça fait 100 mécontents (ne parlons pas des séries ratées où le taux atteint 10%).  
            Parce que sans ce problème, bien que la 660 soit un peu plus puissante, la 7870 reste la solution la moins onéreuse pour jouer en full.

n°8420676
Le bon viv​ant
Posté le 20-08-2012 à 01:19:48  profilanswer
1Votes positifs
 

Oui et puis il y a toujours le délai des 7 jours de rétractation...

n°8420792
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 20-08-2012 à 10:13:11  profilanswer
1Votes positifs
 

sagittaire a écrit :


[...]
3) Le turbo pour les cartes NVIDIA n'est pas 100% déterministe. NVIDIA garanti simplement un niveau de turbo minimal que toutes les cartes atteindront. Et c'est justement à ce niveau que la performance peut être faussé pour les cartes NVIDIA "édition presse". Elles sont généralement sélectionnées pour atteindre des niveau de turbo bien plus élevé que le niveau de turbo minimal garanti par NVIDIA ce qui ne sera évidement pas le cas de l'échantillon moyen destiné au grand public. Hardware.fr bidouille donc les cartes NVIDIA "édition presse" pour que le niveau de turbo ne dépasse pas le niveau de turbo minimal garanti par NVIDIA. Les cartes NVIDIA "édition presse" étant soigneusement sélectionnées, la carte équivalente que le consommateur achètera dans le commerce aura 99% de chance de ne pas atteindre le niveau de performance de la carte "édition presse". Hardware.fr bidouille donc le turbo pour montrer que ce que 100% des cartes NVIDIA pourront atteindre comme niveau de performance réel.
[...]


Faux.
 
nVidia ne garantie aucun mode turbo minimal.
Juste la fréquence de base annoncée est garantie.
Le GPU Boost annoncé par nVidia est une fréquence typique et non garantie.
 
Voir l'explication en détail de la fonctionnalité du GPU boost sur geforce.com http://www.geforce.com/whats-new/a [...] x-680-gpu/:
 
Because GPU Boost happens in realtime and the boost factor varies depending on exactly what's being rendered, it's hard to pin the performance gain down to a single number. To help clarify the typical performance gain, all Kepler GPUs with GPU Boost will list two clock speeds on its specification sheet: the base clock and the boost clock. The base clock equates to the current graphics clock on all NVIDIA GPUs. For Kepler, that's also the minimum clock speed (la seule qui est donc garantie) that the GPU cores will run at in an intensive 3D application. The boost clock is the typical clock speed that the GPU will run at in a 3D application.
 
For example, the GeForce GTX 680 has a base clock of 1006 MHz and a boost clock of 1058 MHz. What this means is that in intensive 3D games, the lowest the GPU will run at is 1006 MHz, but most of the time, it'll likely run at around 1058 MHz. It won't run exactly at this speed--based on realtime monitoring and feedback, it may go higher or lower, but in most cases it will run close to this speed (donc rien de garanti).

 
Fréquence "typique" ne veut pas dire "garantie".
 
Sinon, pour revenir au soit disant "édition presse" fournie par nVidia, eh bien , il faudrait que nVidia les trie mieux que cela, car j'ai un GPU Boost bien au dessus de celui de 'l'édition presse" alors. (GPU Boost à 1201 MHz pour une GTX 670). Je fais donc parti des "1%" des chanceux suivant tes statistiques. D'ailleurs d'où vient ta statistique de 99 % ?

Message cité 1 fois
Message édité par wgromit le 20-08-2012 à 10:24:53
n°8420808
hafx
What happens next is up to you
Posté le 20-08-2012 à 10:21:16  profilanswer
0Votes positifs
 

malouaire a écrit :

       Concernant la 7870, je me demande si on peut se fier uniquement aux plaintes de quelques dizaines d'utilisateurs ici pour juger de sa fiabilité, car la carte est sortie il y a plusieurs mois et a eu un certain succès du fait de son prix....pas trop exagéré. Même pour une carte réussie pour laquelle on a 1% de renvoi, 10000 acheteurs ça fait 100 mécontents (ne parlons pas des séries ratées où le taux atteint 10%).  
            Parce que sans ce problème, bien que la 660 soit un peu plus puissante, la 7870 reste la solution la moins onéreuse pour jouer en full.


 
Et puis si aucun site de hardware ne parle de ce problème c'est bien la preuve qu'il est ultra minoritaire.

n°8420813
doh-ko
Posté le 20-08-2012 à 10:27:28  profilanswer
0Votes positifs
 

hafx a écrit :


Et puis si aucun site de hardware ne parle de ce problème c'est bien la preuve qu'il est ultra minoritaire.

 

Pas faux mais sur certains forums comme Sapphire on commence à parler de plantages aléatoire et d'écran noir  :sarcastic:


Message édité par doh-ko le 20-08-2012 à 10:27:51

---------------

mood
Publicité
Posté le 20-08-2012 à 10:27:28  profilanswer
 

n°8420989
JechtPurga​teur
Posté le 20-08-2012 à 13:34:38  profilanswer
0Votes positifs
 

Personnellement j'ai eu autant de problème avec Nvidia que ATI. Que ce soit l'un ou l'autre, les drivers sont souvent en carton. Donc à moins d'avoir des besoins spécifiques (3DVision, Eyefinity etc), le mieux est de se tourner vers le meilleur rapport perf/prix ou vers le meilleur gpu.
Ceux qui prétendent des taux de plantages ou des % de retour SAV plus important chez l'un que l'autre parlent totalement au hasard.

n°8421109
tridam
Profil : Equipe HardWare.fr
Posté le 20-08-2012 à 14:27:55  profilanswer
4Votes positifs
 

wgromit a écrit :


Faux.
 
nVidia ne garantie aucun mode turbo minimal.
Juste la fréquence de base annoncée est garantie.
Le GPU Boost annoncé par nVidia est une fréquence typique et non garantie.
 
Voir l'explication en détail de la fonctionnalité du GPU boost sur geforce.com http://www.geforce.com/whats-new/a [...] x-680-gpu/:
 
Because GPU Boost happens in realtime and the boost factor varies depending on exactly what's being rendered, it's hard to pin the performance gain down to a single number. To help clarify the typical performance gain, all Kepler GPUs with GPU Boost will list two clock speeds on its specification sheet: the base clock and the boost clock. The base clock equates to the current graphics clock on all NVIDIA GPUs. For Kepler, that's also the minimum clock speed (la seule qui est donc garantie) that the GPU cores will run at in an intensive 3D application. The boost clock is the typical clock speed that the GPU will run at in a 3D application.
 
For example, the GeForce GTX 680 has a base clock of 1006 MHz and a boost clock of 1058 MHz. What this means is that in intensive 3D games, the lowest the GPU will run at is 1006 MHz, but most of the time, it'll likely run at around 1058 MHz. It won't run exactly at this speed--based on realtime monitoring and feedback, it may go higher or lower, but in most cases it will run close to this speed (donc rien de garanti).

 
Fréquence "typique" ne veut pas dire "garantie".
 
Sinon, pour revenir au soit disant "édition presse" fournie par nVidia, eh bien , il faudrait que nVidia les trie mieux que cela, car j'ai un GPU Boost bien au dessus de celui de 'l'édition presse" alors. (GPU Boost à 1201 MHz pour une GTX 670). Je fais donc parti des "1%" des chanceux suivant tes statistiques. D'ailleurs d'où vient ta statistique de 99 % ?


 
Nvidia est volontairement vague au niveau de la description officielle de GPU Boost, tout simplement parce que Nvidia en veut pas admettre trop clairement que les GPU ne sont tous validés de la même manière. Leur service légal les a probablement aidés à choisir soigneusement chaque mot ;)
 
Je suis probablement le journaliste qui a passé le plus de temps à creuser le sujet avec Nvidia. La dernière fois on a presque redécoré les nappes d'un steakhouse pour schématiser nos avis :p Au départ le responsable de la technologie s'opposait à mon interprétation puis il en est finalement ressorti que j'avais raison et que la fréquence GPU Boost annoncée, dans le cadre d'un test, n'était pas une fréquence typique. Tout d'abord quand Nvidia parle d'application intensives, il s'agit de Furmark par exemple. Ensuite la fréquence typique lors d'un test GPU = freq GPU Boost max - 1bin. C'est un petit peu  différent lors d'une longue session de jeu suivant le refroidissement du boîtier et de la carte, celle-ci n'arrivant en général pas à maintenir une fréquence maximale pendant très longtemps. Enfin Nvidia admet que certaines cartes ne pourront pas dépasser la fréquence GPU Boost annoncée, mais refuse de donner la moindre info sur la proportion de cartes que cela concerne.
 
Une question qui reste en suspens est de savoir si les partenaires ont le droit de modifier la fréquence GPU Boost comme ils l'entendent. Pour rappel c'est une spécification fictive qui n'influe pas sur le comportement de la carte mais représente la fréquence GPU Boost que la carte pourra au moins atteindre. Nvidia indique que les partenaires sont libres à ce sujet, mais je n'en ai vu aucun augmenter significativement le gap Base -> GPU Boost. Il est possible, mais pas confirmé, que Nvidia ne les autorise pas à augmenter cet écart au-delà d'une certaine limite et que la fréquence minimale garantie pour certaines cartes personnalisées (pas pour les cartes de référence) soit supérieure à la fréquence GPU Boost qu'ils annoncent.

Message cité 1 fois
Message édité par tridam le 20-08-2012 à 14:28:16
n°8421117
Invite_Sur​prise
Racaille de Shanghaï
Posté le 20-08-2012 à 14:32:26  profilanswer
0Votes positifs
 

On est pas prêt de trouver un utilitaire style Nibitor pour les GTX 6X0 vu toutes les restrictions mises en place par le caméléon ... [:le_phoque_pedoque:1]

n°8421163
tridam
Profil : Equipe HardWare.fr
Posté le 20-08-2012 à 14:53:05  profilanswer
0Votes positifs
 

Invite_Surprise a écrit :

On est pas prêt de trouver un utilitaire style Nibitor pour les GTX 6X0 vu toutes les restrictions mises en place par le caméléon ... [:le_phoque_pedoque:1]


 
Les bios doivent être signés en principe sur GTX 60,0 ce qui complique fortement la chose :/

n°8421202
wgromit
BG3 GOTY 2023! Bravo Larian
Posté le 20-08-2012 à 15:18:24  profilanswer
0Votes positifs
 

tridam a écrit :


 
Nvidia est volontairement vague au niveau de la description officielle de GPU Boost, tout simplement parce que Nvidia en veut pas admettre trop clairement que les GPU ne sont tous validés de la même manière. Leur service légal les a probablement aidés à choisir soigneusement chaque mot ;)
[...]


Je trouve au contraire que la définition du GPU Boost donnée officiellement par nVidia est claire.
Le texte officiel donné par geforce.com le précise bien qu'il s'agit d'une fréquence typique et non d'une fréquence minimale garantie.
Après que le comportement de cette fréquence ne soit pas clair c'est autre chose, notamment il est sur qu'il n'est pas déterministe.
Mais en aucun cas, nVidia a précisé quelque part que le GPU Boost annoncé était une fréquence minimale garantie en 3D/jeu.
C'est bien précisé dans le texte donné plus haut sur le site de geforce.com, que la fréquence peut très bien être en dessous du GPU Boost annoncée, même si la plupart du temps il sera plutôt autour de la valeur annoncée et même au dessus.
 
Bref, comme il n'y a rien de déterministe, forcer la fréquence de fonctionnement à ce GPU Boost annoncé ne se rapproche pas nécessairement du cas réel.
En fait, à cause de ce non déterministe, les tests sont bien plus compliqués à faire, ou du moins moins comparables. Car il faudrait idéalement faire 2 tests: 1 test en ne prenant que la fréquence de base (qui elle, est bien garantie), puis un autre test où on laisse le GPU boost travailler (en ayant bien précisé qu'elle était la fréquence au moment du test). Et donc afficher les résultats en précisant la fourchette obtenue.
Je conçois que cela complique énormément les tests.
 
Enfin, peut-être que ce non déterministe arrange quelque peu nVidia aussi. Car son produit devient moins comparable, notamment face à son concurrent AMD.
L'histoire de fausser les interprétations des tests ou les tests ne pourront donner que des tendances (hiérarchie des performances entre cartes) mais du coup, cela devient pratiquement impossible de comparer de manière rigoureuse les résultats face à AMD à partir du moment que ceux faits pour les cartes nVidia n'ont rien de déterministe, surtout s'il y a moins de 5% d'écart.
 
C'est pourquoi quand je lis, que telle carte AMD qui a une perf de 3% de plus par rapport à une nVidia est nécessairement plus puissante n'est pas forcément vrai pour tout le monde à cause de ce non déterministe du GPU Boost. Et réciproquement, si une carte nVidia fait 3% de plus qu'une AMD. On doit donc intégrer dans l'interprétation des résultats publiés le non déterministe de la fréquence de fonctionnement qui semble "perturber" les résultats de 3-5% d'après vos retours.  
 
En revanche, à partir d'un certain % (mais lequel, 5% si on se base sur vos retours de tests ?) on peut commencer à classifier les performances des cartes.
 
Bref, nVidia avec ce GPU Boost a sérieusement compliqué les choses même s'ils vendent cela comme un "cadeau" (marketingment parlant).
 
Enfin, ces 3-5% de différence sont-ils si primordiaux dans l'utilisation courante d'un jeu ? Ce n'est pas cela qui m'a fait choisir ma carte graphique mais d'autres critères (qualité du refroidissement, silence, conception du PCB, choix car toujours satisfait par une marque dans le passé, ...).

Message cité 1 fois
Message édité par wgromit le 20-08-2012 à 15:52:42
n°8421916
titienzo18
Fight Fire With Fire
Posté le 20-08-2012 à 23:09:24  profilanswer
0Votes positifs
 

Galaxy propose une version avec 3Gigas de RAM, je connais pas le tarif, mais elle tire son épingle du jeu...

n°8422242
jackie_sha​n
Posté le 21-08-2012 à 10:47:04  profilanswer
1Votes positifs
 

bon je remplace par quoi ma Asus GTX560 Ti DCII TOP ? Sachant que je veux conserver Asus :o

n°8422916
sasuke87
Posté le 21-08-2012 à 19:13:07  profilanswer
0Votes positifs
 

wgromit a écrit :


Je trouve au contraire que la définition du GPU Boost donnée officiellement par nVidia est claire.
Le texte officiel donné par geforce.com le précise bien qu'il s'agit d'une fréquence typique et non d'une fréquence minimale garantie.
Après que le comportement de cette fréquence ne soit pas clair c'est autre chose, notamment il est sur qu'il n'est pas déterministe.
Mais en aucun cas, nVidia a précisé quelque part que le GPU Boost annoncé était une fréquence minimale garantie en 3D/jeu.
C'est bien précisé dans le texte donné plus haut sur le site de geforce.com, que la fréquence peut très bien être en dessous du GPU Boost annoncée, même si la plupart du temps il sera plutôt autour de la valeur annoncée et même au dessus.
 
Bref, comme il n'y a rien de déterministe, forcer la fréquence de fonctionnement à ce GPU Boost annoncé ne se rapproche pas nécessairement du cas réel.
En fait, à cause de ce non déterministe, les tests sont bien plus compliqués à faire, ou du moins moins comparables. Car il faudrait idéalement faire 2 tests: 1 test en ne prenant que la fréquence de base (qui elle, est bien garantie), puis un autre test où on laisse le GPU boost travailler (en ayant bien précisé qu'elle était la fréquence au moment du test). Et donc afficher les résultats en précisant la fourchette obtenue.
Je conçois que cela complique énormément les tests.
 
Enfin, peut-être que ce non déterministe arrange quelque peu nVidia aussi. Car son produit devient moins comparable, notamment face à son concurrent AMD.
L'histoire de fausser les interprétations des tests ou les tests ne pourront donner que des tendances (hiérarchie des performances entre cartes) mais du coup, cela devient pratiquement impossible de comparer de manière rigoureuse les résultats face à AMD à partir du moment que ceux faits pour les cartes nVidia n'ont rien de déterministe, surtout s'il y a moins de 5% d'écart.
 
C'est pourquoi quand je lis, que telle carte AMD qui a une perf de 3% de plus par rapport à une nVidia est nécessairement plus puissante n'est pas forcément vrai pour tout le monde à cause de ce non déterministe du GPU Boost. Et réciproquement, si une carte nVidia fait 3% de plus qu'une AMD. On doit donc intégrer dans l'interprétation des résultats publiés le non déterministe de la fréquence de fonctionnement qui semble "perturber" les résultats de 3-5% d'après vos retours.  
 
En revanche, à partir d'un certain % (mais lequel, 5% si on se base sur vos retours de tests ?) on peut commencer à classifier les performances des cartes.
 
Bref, nVidia avec ce GPU Boost a sérieusement compliqué les choses même s'ils vendent cela comme un "cadeau" (marketingment parlant).
 
Enfin, ces 3-5% de différence sont-ils si primordiaux dans l'utilisation courante d'un jeu ? Ce n'est pas cela qui m'a fait choisir ma carte graphique mais d'autres critères (qualité du refroidissement, silence, conception du PCB, choix car toujours satisfait par une marque dans le passé, ...).


 
Post très intéressant ainsi ceux de Tridam, qui montre à quel point nvidia a réussi à compliquer les tests de CG. Par contre, on dirait qu'il n'y a que HFR qui s'est penché sur la problématique... Je n'irais pas jusqu'à dire que ça invalide totalement les tests des autres sites, vu que la tendance générale tourne de toute manière autour des mêmes résultats que HFR. Par contre, il aurait été intéressant que d'autres sites développent d'autres approches notamment celle expliqué par wgromit, cela aurait permis des comparaisons entre tests plus intéressantes (que les bêtes changement de jeux lol).

n°8427891
Ploufplouf​972
Posté le 25-08-2012 à 16:58:07  profilanswer
1Votes positifs
 

Le bon vivant a écrit :

Oui et puis il y a toujours le délai des 7 jours de rétractation...


Quand allez vous comprendre que je les 7 jours de rétractation ne sont pas un SAV ?  
 
C'est à cause de ce genre de comportement qu'on se retrouve avec des cartes déjà ouvertes, sans parlé du fait que ça remet la carte en circulation au lieu de l'en sortir avec un retour SAV qui dure une semaine environs avec un site sérieux qui procède à un échange standard...
 
Faites un effort c'est pas si difficile  :jap:

n°8428930
Darkraver4​6
Posté le 26-08-2012 à 19:35:33  profilanswer
0Votes positifs
 

jackie-shan moi a ta place vu la qualité prix je te conseil fortement une 670GTX DCII TOP, elle est sublime en tout points, elle est plus rapide qu'une 680 gtx de base et plus rapide qu'une 7970 dans certains jeux......
 
 
moi je te la conseil, perso j'ai un sli de celle-ci et c'est juste énorme.........
 
un ami a une 680 GTX DCII TOP et elle est certe plus rapide mais de 10% a peine dans certains jeux, bf3, crysis 2, Arma 2 (qui est mal optimisé)........
 
rapport qualité prix elle est parfaite....
 
bonne soirée

n°8450085
behelits
Posté le 15-09-2012 à 02:33:09  profilanswer
1Votes positifs
 

Dossier encore plus détaillé que d'habitude,j'adore!=)merci

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
Ventilateur GTX 670[HFR] Actu : Nvidia lance la GeForce GTX 660 Ti
Nvidia geforce 8800 gt[HFR] Actu : Creative lance 3 Sound Blaster série Z
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX 660 Ti, Asus GTX 660 Ti DirectCU II TOP, EVGA


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR