Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2835 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Suivante
Auteur Sujet :

[HFR] Focus : GPU Boost et GTX 680 : une double variabilité

n°8298760
kroks-
Posté le 03-05-2012 à 10:08:51  profilanswer
0Votes positifs
 

Reprise du message précédent :
J'ai pas compris votre article.. certaines cartes s'overclock mieux que d'autres et alors?
C'est bien le principe de l'overclocking (gpu boost).. apres c'est la loterie comme toujours :)
 
 
Si vous voulez faire un test vraiment complet, testez en boost minimum garantie dans les specs nvidia (1058mhz) et maximum si on a de la chance (1150mhz?)
 
La mienne monte à 1137 et s'overclock à 1346 en wc :D
 

mood
Publicité
Posté le 03-05-2012 à 10:08:51  profilanswer
 

n°8298764
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-05-2012 à 10:14:54  profilanswer
1Votes positifs
 

kroks- a écrit :

J'ai pas compris votre article.. certaines cartes s'overclock mieux que d'autres et alors?
C'est bien le principe de l'overclocking (gpu boost).. apres c'est la loterie comme toujours :)

 

GPU Boost ce n'est pas de l'overclocking, l'overclocking c'est aller au delà des spécifications constructeur par une intervention extérieure, hors GPU Boost fonctionne dans des bornes fixées par Nvidia et est activé par défaut.

 
kroks- a écrit :

Si vous voulez faire un test vraiment complet, testez en boost minimum garantie dans les specs nvidia (1058mhz) et maximum si on a de la chance (1150mhz?)

 

Encore une fois ce n'est pas possible de limiter la fréquence du GPU Boost.

 

On va la faire en plus simple pour ceux qui ont du mal. Imaginez que vous hésitiez entre une Radeon HD 7970 et une GeForce GTX 680. Vous prenez la 680 car elle est 5% plus rapide... mais il se trouve que le testeur a utilisé une carte avec un GPU Boost à 1150 MHz max (chance) et que celle que vous achetée est à 1058 MHz max (pas de chance). Du coup votre carte est moins rapide que la 7970 que vous avez écarté et qui était pourtant moins chère...

 

PS : Je parle @ stock bien sûr, l'oc (le vrai) c'est ENCORE autre chose ;)

Message cité 1 fois
Message édité par Marc le 03-05-2012 à 10:23:10
n°8298766
herazul
Posté le 03-05-2012 à 10:17:05  profilanswer
0Votes positifs
 

@ Elian : Je suis pas d'accord, les fréquence n'ont pas a être variable d'un exemplaire à un autre. D'une situation à une autre oui, comme le turbo boost des cpu, mais pas d'un exemplaire à un autre. Si les fréquences sont trop variables, et ben il les normalisent sur 2 cartes : une 680 et une 675. Ils peuvent même filer les exemplaire les meilleur aux partenaires pour qu'il sois vendus overclockés d'usine, tant que l'overclock est signalé et est le même entre tout les exemplaires.

n°8298774
PitOnForum
thèse - antithèse - synthèse
Posté le 03-05-2012 à 10:25:26  profilanswer
0Votes positifs
 

pour tester sérieusement, il faut déjà commencer par acheter le matos incognito dans le commerce et pas se faire envoyer un exemplaire "presse" optimisé par le fabricant ou l'un de ses partenaires

n°8298784
ptibonom
Posté le 03-05-2012 à 10:35:21  profilanswer
0Votes positifs
 

Pour revenir à la comparaison avec le turbo des cpus, personnellement je ne serais pas contre un cpu dont le turbo monterait plus haut que certifié dans la mesure où c'est bien un gain par rapport à ce qui m'est vendu ...
Le système GPU Boost me semble intéressant en soi. Ce qui est critiquable est que nVidia fasse son marketing sur des fréquences non certifiées pour tous les gpus...

n°8298786
BlueScreen​Junky
Posté le 03-05-2012 à 10:36:54  profilanswer
0Votes positifs
 

ptibonom a écrit :

Le système GPU Boost me semble intéressant en soi. Ce qui est critiquable est que nVidia fasse son marketing sur des fréquences non certifiées pour tous les gpus...


Je crois qu'on est tous d'accords à ce sujet  :jap:

 

edit : En même temps je pense que bientôt on verra des modèles "super turbo" apparaitre quand les fabriquants auront compris le truc et qu'ils trieront eux-même les GPU pour vendre plus chers ceux qui ont un boost plus intéressant.


Message édité par BlueScreenJunky le 03-05-2012 à 10:38:17
n°8298789
wiwitop
Posté le 03-05-2012 à 10:38:39  profilanswer
0Votes positifs
 

PitOnForum a écrit :

pour tester sérieusement, il faut déjà commencer par acheter le matos incognito dans le commerce et pas se faire envoyer un exemplaire "presse" optimisé par le fabricant ou l'un de ses partenaires


 
Je trouve que la solution d'Hardware.fr contente tout le monde. Un test avec des cartes réservés à la presse pour les plus pressés complété si besoin ensuite par des cartes prises dans le commerce.

n°8298792
kroks-
Posté le 03-05-2012 à 10:42:55  profilanswer
0Votes positifs
 

Marc a écrit :

Encore une fois ce n'est pas possible de limiter la fréquence du GPU Boost.


si avec afterburner on peut limiter (underclocking ^^)


Message édité par kroks- le 03-05-2012 à 10:44:11
n°8298803
wiwitop
Posté le 03-05-2012 à 10:55:01  profilanswer
1Votes positifs
 

nVidia a clairement triché en donnant à la presse une carte qui a un GPU boost au delà de la pire carte qu'il est possible d'avoir. Cela correspond à tester une carte overclockée. Et entre une carte à 1110 et une autre à 1058, il y a 5% d'écart de fréquence ce qui la rapprocherait considérablement d'une 7970.

n°8298827
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-05-2012 à 11:21:08  profilanswer
0Votes positifs
 

kroks- a écrit :

Marc a écrit :

Encore une fois ce n'est pas possible de limiter la fréquence du GPU Boost.


si avec afterburner on peut limiter (underclocking ^^)

Ce n'est pas si simple, puisqu'on ne peut modifier que la fréquence de base et pas la fréquence du GPU Boost.
 
Une carte à 1006 avec Turbo à 1110 ne pourra pas simuler une carte à 1006 avec Turbo à 1058 si on la passe à 954 MHz de base et donc avec un Turbo à 1058 max. Chaque bin de Turbo est associé à une tension et une carte à 954 MHz + 8 bins consommera plus à 1058 MHz qu'une carte à 1006 + 4 bins ce qui fait que le Turbo n'ira pas forcément aussi loin qu'une carte "1058" native. Augmenter la Power Target permettra de s'en rapprocher... mais de combien pour ne pas aller au delà de la carte "1058" native ? ;)

mood
Publicité
Posté le 03-05-2012 à 11:21:08  profilanswer
 

n°8298833
davesorco6​9
HFR_NoR
Posté le 03-05-2012 à 11:27:54  profilanswer
0Votes positifs
 

Entre 1058 et 1150 on est tout de même a environ 8.5% d'écart je trouve cela énorme ... trop.. c'est juste honteux pour ma part.
 
Mauvais point pour nvidia sur ce coup la

n°8298865
Fouge
Posté le 03-05-2012 à 12:02:17  profilanswer
0Votes positifs
 

davesorco69 a écrit :

Entre 1058 et 1150 on est tout de même a environ 8.5% d'écart je trouve cela énorme ... trop.. c'est juste honteux pour ma part.

 

Mauvais point pour nvidia sur ce coup la

Honteux que tu puisses avoir plus que ce qu'on te vend ?
La variabilité de la qualité des produits a toujours été là et sera toujours là : tension, consommation, T° de fonctionnement, bruit, fréquences, etc.
2 possibilités :
 - on oblige les fabricants à fixer tout ces paramètres pour qu'il soient égaux à ce qui est annoncé : là faudra s'attendre à la fourchette basse, pas sûr qu'on soit gagnant. D'autre part il faudra malgré tout déterminer un niveau de tolérence (combien ?).
 - on oblige les fabricants à respecter les specs tout en autorisant des variations mais uniquement en faveur du consommateur : les specs annoncées sont "minimales".
Dans beaucoup de domaines, les specs sont des specs minimales, et je vois rarement les gens râler d'avoir un peu mieux que ce qui est annoncé.

 

Pour moi, vendre du 1006MHz (GPU Boost à 1058) me semble une façon honnête (mais pas la plus précise) de présenter les choses. On est quand même à 1000 lieues des arnaques que l'on voit dans d'autres domaines (au hasard les écrans LCD) où les specs annoncées ne sont non seulement pas celles annoncées (et d'un ordre de grandeur qui n'est pas de +/-5%) et bien entendu en défaveur du consommateur. Là c'est une véritable arnaque, là c'est honteux et inadmissible !

 

Pour moi la seule problématique est pour les testeurs (et donc pour leur lecteurs qui baseraient leur achat sur ces tests) : comment présenter un produit dont le critère le plus important sont les performances (pour la consommation, les clients se contentent généralement de l'ordre de grandeur, mais pour les perfs ils sont à 1% près :)) ?
Il faudrait qu'ils puissent avoir la possibilité de régler la carte aux specs minimales annoncées cad 1006/1054 (base/boost). Le fait que ce soit actuellement impossible est pour moi la seule erreur d'nVidia, qu'on peut voir pratiquement comme une malhonnêteté puisque cela donne un chouilla de perf en plus que le futur client n'aura pas nécessairement. D'ailleurs les cartes de presse auraient dû être en 1006/1054 : le fait qu'elles ne le furent pas + le fait qu'nVidia a été volontairement flou sur le GPU Boost, c'est ça qu'il faut pointer du doigt, pas la techno en elle-même !

 

Qu'nVidia propose qu'on puisse limiter (voire désactiver) le GPU Boost et tout le monde sera content, surtout les testeurs :jap:


Message édité par Fouge le 03-05-2012 à 13:19:56
n°8298914
herazul
Posté le 03-05-2012 à 12:49:10  profilanswer
0Votes positifs
 

@ Fouge je crois que tu n'as pas compris le problème. Les perf des écran lcd c'est comme les be,ch NVidia, du pipeau, tout le monde le sais.
 
Par contre l'ecran LCD envoyé à la presse à généralement le bon gout de se comporter de la même façon chez le client après, sinon la c'est scandaleux.
 
C'est ce qu'il s'est passé pour la valse des dalles lcd, surtout chez samsung, et crois moi qu'ils ont été violemment critiqués sur ce points.
 
Donc non ce n'est pas normal que tout les gpu ne se comportent pas pareil et qu'on envoie les meilleurs possible à la presses.
S'il y a des écart de fréquences possible entre les GPU, qu'il fasse 2 gammes à prix différent, c'est tout.

n°8298978
Fouge
Posté le 03-05-2012 à 13:51:12  profilanswer
0Votes positifs
 

herazul a écrit :

@ Fouge je crois que tu n'as pas compris le problème. Les perf des écran lcd c'est comme les be,ch NVidia, du pipeau, tout le monde le sais.

Je ne suis pas d'accord sur ton parallèle. Les specs des écrans LCD, ce sont des specs et elles doivent être respectées (et j'imagine que cela est légiféré). D'autre part, tout le monde ne le sait pas, bien au contraire la majorité des clients ignorent que ces chiffres sont pipo : heureusement que des sites comme HFR et leur frère LesNumeriques sont là pour justement pointer du doigt ces mensonges afin que nous en sommes informés. Mais les personnes qui savent, c'est malheureusement pas tout le monde, et ce n'est pas parce que certains savent que ça doit être admissible, ça doit même parfois être illégal. Les specs annoncées doivent être respectées, ça c'est le minimum que l'on doit attendre d'eux ! J'dis donc que c'est nécessaire, pas que c'est suffisant.

 
herazul a écrit :

Par contre l'ecran LCD envoyé à la presse à généralement le bon gout de se comporter de la même façon chez le client après, sinon la c'est scandaleux.

 

C'est ce qu'il s'est passé pour la valse des dalles lcd, surtout chez samsung, et crois moi qu'ils ont été violemment critiqués sur ce points.

 

Donc non ce n'est pas normal que tout les gpu ne se comportent pas pareil et qu'on envoie les meilleurs possible à la presses.

Je ne parlais que du respect des specs annoncées. Toi tu pointes du doigt 2 autres problèmes :
 - le fait que certains produits voient leur specs ("internes" ) changer radicalement du fait de changement complet de certaines pièces importantes qui composent le produit final. Là on ne parle plus de la variabilité qualitatif d'un même composant. Débat intéressant et déjà pointé du doigt mais hors sujet ici.
 - le fait que les produits envoyés à la presse soit volontairement de meilleur qualité que ceux vendus dans le commerce. On est d'accord, c'est à pointer du doigt et cela est régulièrement fait par les sites sérieux. Est-ce que cela a été le cas de la GTX680 d'HFR ? Pas sûr : au vu des retour utilisateurs, ya du mieux parfois du moins bien. Moi ce que je regrette c'est que l'on ne puisse pas tester la carte pour donner un aperçu des perfs minimales que le lecteur pourra obtenir avec le produit acheté. C'est ça que je pointe du doigt, pas la techno en elle-même.

 
herazul a écrit :

S'il y a des écart de fréquences possible entre les GPU, qu'il fasse 2 gammes à prix différent, c'est tout.

Pas d'accord. Je ne veux pas qu'on leur impose une si grande granularité : ils ne vont quand même pas créer un modèle pour chaque VID/leakage/freq_max qu'ils obtiennent. Déjà qu'ils nous empoisonnent la vie avec de trop nombreux modèles et variantes (parfois dû à la mémoire associée au GPU, pas au GPU lui-même) alors si en plus ils doivent ajouter des modèles pour chaque micro-variation (13MHz) de fréquence...

 

Moi j'exigerais 3 choses :
 - que les specs minimales annoncés (1006/1054) soient respectées
 - qu'il soit possible pour les testeurs de présenter le produit avec ces specs minimales
 - que la GTX680, actuellement équipées du GK104, ne voit pas son "coeur" changer (où l'une de ses specs minimales) sans changement de dénomination du produit

 

Ensuite que certains chanceux aient une carte qui montent à 1110 au lieu de 1080, que leur carte consomme un peu moins qu'une autre, chauffe un peu moins qu'une autre, fait un peu moins de bruit qu'une autre, ça a souvent été comme ça et je ne trouve pas cela choquant, cela fait partie des variations normales liées à la fabrication de certains composants. Tant mieux pour ceux qui ont un peu mieux que ce qui est annoncé (spec fabricants) et un poil plus perf que ce que les testeurs montrent (perfs mesurées). L'inverse serait par contre honteux et malhonnête et on le voit malheureusement encore dans certains domaines, mais pas dans ce cas-ci.

Message cité 1 fois
Message édité par Fouge le 03-05-2012 à 15:10:14
n°8299055
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-05-2012 à 14:58:47  profilanswer
0Votes positifs
 

Fouge a écrit :

Pas d'accord. Je ne veux pas qu'on leur impose une si grande granularité : ils ne vont quand même pas créer un modèle pour chaque VID/leakage/freq_max qu'ils obtiennent. Déjà qu'ils nous empoisonnent la vie avec de trop nombreux modèles et variantes (parfois dû à la mémoire associée au GPU, pas au GPU lui-même) alors si en plus ils doivent ajouter des modèles pour chaque micro-variation (13MHz) de fréquence...
 
Moi j'exigerais 3 choses :
 - que les specs minimales annoncés (1006/1054) soient respectées
 - qu'il soit possible pour les testeurs de présenter le produit avec ces specs minimales
 - que la GTX680, actuellement équipées du GK104, ne voit pas son "coeur" changer (où l'une de ses specs minimales) sans changement de dénomination du produit
 
Ensuite que certains chanceux aient une carte qui montent à 1110 au lieu de 1080, que leur carte consomme un peu moins qu'une autre, chauffe un peu moins qu'une autre, fait un peu moins de bruit qu'une autre, ça a souvent été comme ça et je ne trouve pas cela choquant, cela fait partie des variations normales liées à la fabrication de certains composants. Tant mieux pour ceux qui ont un peu mieux que ce qui est annoncé (spec fabricants) et un poil plus perf que ce que les testeurs montrent (perfs mesurées). L'inverse serait par contre honteux et malhonnête et on le voit malheureusement encore dans certains domaines, mais pas dans ce cas-ci.

:jap:

n°8299058
Elpriser
Posté le 03-05-2012 à 15:00:33  profilanswer
0Votes positifs
 

Tout est dit mais dans la majorité des cas ce n'est pas les 2% de perfs de différence qui pousseront à un achat mais tout le reste:température consommation,nuisances sonores etc...avec bien entendu les affinités pour Ati ou Nvidia.Chaque personne sait ce qui l'attend à quelques détails près sachant que la majorité des gamers n'achète ni des GTX 680 ni des 7970 mais plutôt les modèles inférieures.
Très bon débat et très bon article.

n°8299100
hknx
Posté le 03-05-2012 à 15:21:22  profilanswer
0Votes positifs
 

ma version inno3D (la moins cher) tiens les 1250/2400 oc sans soucis avec le monitoring température enclenché, j'ai pas essayé plus mais  
je pense qu'elles explosent toutes les 1200mhz oc ... vue que j'ai le modèle le moins chère
 
 
sont où les benchs gtx690
 
sans oc j'ai l'impression qu'elle est tout le temps à 1097

Message cité 1 fois
Message édité par hknx le 03-05-2012 à 17:28:32
n°8299116
jeffk
Fluent in shitposting
Posté le 03-05-2012 à 15:29:04  profilanswer
0Votes positifs
 

hknx a écrit :

ma version inno3D (la moins cher) tiens les 1250/2400 oc sans soucis avec le monitoring température enclenché, j'ai pas essayé plus mais  
je pense qu'elles explosent toutes les 1200mhz oc ... vue que j'ai le modèle le moins chère
 
 
sont où les benchs gtx690


 
Rien à voir avec le prix. Pour les design de ref c'est toute des cartes nVidia que les constructeurs re-badge.
 
Pour les version custom, seul le pcb change, et je ne suis même pas sur que les constructeurs ont le choix des puces.
 
+1 pour le bench des GTX690, c'était 15h00 :o :o

n°8299142
Singman
The Exiled
Posté le 03-05-2012 à 15:44:06  profilanswer
0Votes positifs
 

wiwitop a écrit :

nVidia a clairement triché en donnant à la presse une carte qui a un GPU boost au delà de la pire carte qu'il est possible d'avoir. Cela correspond à tester une carte overclockée. Et entre une carte à 1110 et une autre à 1058, il y a 5% d'écart de fréquence ce qui la rapprocherait considérablement d'une 7970.


Innocent ! Tu crois que les cartes AMD envoyées aux services presse ne sont pas triées sur le volet ? On a déjà vu pire avec d'autres produits, c'est justement là qu'on reconnait les vrais testeurs (dont Hw.fr fait partie) ! Et la carte envoyée par NVidia n'était pas la meilleure, puisque dans le commerce on trouve des cartes qui vont bien au delà de celle de test.

n°8299148
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 03-05-2012 à 15:48:17  profilanswer
0Votes positifs
 

Singman a écrit :


Innocent ! Tu crois que les cartes AMD envoyées aux services presse ne sont pas triées sur le volet ? On a déjà vu pire avec d'autres produits, c'est justement là qu'on reconnait les vrais testeurs (dont Hw.fr fait partie) ! Et la carte envoyée par NVidia n'était pas la meilleure, puisque dans le commerce on trouve des cartes qui vont bien au delà de celle de test.


 
Les cartes AMD n'ont pas de fréquence variable lors des tests, au pire elles consommeront on peu moins ou monteront plus en O/C, mais elles auront les mêms perfs.
Là, les 1.5% c'est ce qui sépare la 7970 de la 680 en 2560 sur hfr..., et à donc permis à nVidia d'annoncer avoir repris le flambeau. (C'est plus net en 1920 ok).
Mais si après l'acheteur se retrouve avec une carte moins rapide que dans les tests, voire qui perd les 1.5% en question, c'est un peu limite...


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8299154
Singman
The Exiled
Posté le 03-05-2012 à 15:49:27  profilanswer
0Votes positifs
 

Marc a écrit :

On va la faire en plus simple pour ceux qui ont du mal. Imaginez que vous hésitiez entre une Radeon HD 7970 et une GeForce GTX 680. Vous prenez la 680 car elle est 5% plus rapide... mais il se trouve que le testeur a utilisé une carte avec un GPU Boost à 1150 MHz max (chance) et que celle que vous achetée est à 1058 MHz max (pas de chance). Du coup votre carte est moins rapide que la 7970 que vous avez écarté et qui était pourtant moins chère...
 
PS : Je parle @ stock bien sûr, l'oc (le vrai) c'est ENCORE autre chose ;)


 
Mais c'est justement votre rôle ! C'est le rôle de la presse de signaler que la technologie employée par NVidia contient une part variable, qui fait que la GTX 680 est équivalente ou supérieure à ... Mais en aucun cas, vous ne pouvez condamner une attitude qui permet aux clients d'obtenir plus pour le même prix.

n°8299155
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-05-2012 à 15:51:24  profilanswer
1Votes positifs
 

Quelle condamnation ?
Informer, ce n'est pas justement ce que l'on fait ? ;)

 

Et oui c'est notre rôle mais encore faut-il que ce soit techniquement possible de le faire bien.

 

Et pour le "obtenir plus pour le même prix", c'est ton interprétation de cette technologie. Vu l'opacité de Nvidia sur le sujet ce n'est pas forcément l'objectif premier ;)


Message édité par Marc le 03-05-2012 à 15:54:00
n°8299162
Singman
The Exiled
Posté le 03-05-2012 à 15:54:46  profilanswer
0Votes positifs
 

darkstalker a écrit :

Les cartes AMD n'ont pas de fréquence variable lors des tests, au pire elles consommeront on peu moins ou monteront plus en O/C, mais elles auront les mêms perfs.


 
Gasp ! Demandons vite a Hw.fr et aux autres d'arrêter de faire des tests d'OC sur leur cartes, et de les intégrer aux benchs et dans leur conclusions alors. N'es tu pas d'accord ?
Clairement, tout les constructeurs fournissent à la presse des exemplaires au minimum vérifiés, au mieux "sélectionnés" (sauf ASUS). La personne qui teste doit en avoir conscience et ne pas baser son jugement sur son seul exemplaire pour l'OC mais sur un retour plus large qui arrive quelques semaines plus tard.
A noter, je le redis, l'exemplaire fournit pas NVidia n'était pas un des meilleur...

n°8299176
herazul
Posté le 03-05-2012 à 16:02:26  profilanswer
0Votes positifs
 

Fouge a écrit :


Moi j'exigerais 3 choses :
 - qu'il soit possible pour les testeurs de présenter le produit avec ces specs minimales
 - que la GTX680, actuellement équipées du GK104, ne voit pas son "coeur" changer (où l'une de ses specs minimales) sans changement de dénomination du produit


 
Pour le coup on est d'accord.
Mais je trouve ça dommage quand même d'introduire une technologie qui introduis des différence entre les exemplaire vendu @stock.
J'aimerais vraiment pas, mais vraiment pas que ça se généralise dans les composant informatiques, et encore moins dans d'autre domaine.
(j'imagine assez mal des lave-linge d'un même modèle qui tournerait plus ou moins vite parce que des moteur sont mieux finis que d'autre, libre aux acheteur d'overclocker leur lave-linge après ^^)
 
Par contre je trouve ta comparaison avec les nombreux modèles et dénominations de NVidia injuste : Je leur reprocherais pas de faire de nombreux modèles si les dénominations étaient simples et logiques (gtx660>gtx655>gtx650>gtx640m>gtx630m). Faire deux modèle au lieu d'un avec 10% de fréquences de différence, 10% de prix de différence, et des noms logique, j'y vois vraiment aucun problème.
 
une gtx560 plus puissante qu'une 580m, ou une 220 qui est de la génération 8x00 renommée 4 fois, la oui j'y vois un problème.
 
Enfin bref on fera avec, ou on achètera du AMD. (et on continuera à lire hardware.fr surtout ^^)

n°8299181
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-05-2012 à 16:10:52  profilanswer
0Votes positifs
 

Singman a écrit :

 

Gasp ! Demandons vite a Hw.fr et aux autres d'arrêter de faire des tests d'OC sur leur cartes, et de les intégrer aux benchs et dans leur conclusions alors. N'es tu pas d'accord ?
Clairement, tout les constructeurs fournissent à la presse des exemplaires au minimum vérifiés, au mieux "sélectionnés" (sauf ASUS). La personne qui teste doit en avoir conscience et ne pas baser son jugement sur son seul exemplaire pour l'OC mais sur un retour plus large qui arrive quelques semaines plus tard.
A noter, je le redis, l'exemplaire fournit pas NVidia n'était pas un des meilleur...


Je ne vois pas le rapport direct.

 

Les résultats atteints en overclocking de CG sont toujours donnés à titre indicatif et ne sont pas utilisés pour trancher en faveur ou en défaveur d'un modèle.

 

A contrario, c'est le cas des performances @ stock. Mais si elles sont variables, c'est une autre affaire... est ce qu'il faudra la aussi attendre un retour plus large quelques semaines plus tard pour avoir le taux de variabilité afin de pouvoir juger ? Et donc laisser les gens acheter sans être vraiment informés ? Mwais ;)

 

Par ailleurs tu n'as pas répondu à ce message
http://forum.hardware.fr/hfr/Hardw [...] m#t8298696 ;)


Message édité par Marc le 03-05-2012 à 16:11:40
n°8299185
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 03-05-2012 à 16:15:07  profilanswer
0Votes positifs
 

Singman a écrit :


Gasp ! Demandons vite a Hw.fr et aux autres d'arrêter de faire des tests d'OC sur leur cartes, et de les intégrer aux benchs et dans leur conclusions alors. N'es tu pas d'accord ?


 
Il est toujours indiqué clairement que les résultats d'OC sont a prendre avec des pincettes.
Les conclusions sur les perfs relatives des cartes sont toujours basées sur les perfs stock, normalement stables.
Se permettre du laxisme à ce niveau, c'est presque de la publicité mensongère. Tu y vois un truc qui permet d'obtenir plus au même prix, c'est louable, mais ca veut aussi dire qu'il est possible d'obtenir moins pour plus cher si la carte testée est exceptionelle...
Et le fait que la XFX testée en 7970 O/C ai été bien choisie ne change rien à ce fait.
Pas la peine d'essayer de faire un nuage de fumée en parlat de l'O/C, c'est un sujet parallèle.
 
edit : :grillade:


Message édité par darkstalker le 03-05-2012 à 16:15:34

---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8299249
Singman
The Exiled
Posté le 03-05-2012 à 16:54:51  profilanswer
0Votes positifs
 

Non, pas un sujet parallèle, mais bel et bien le même problème.  On parle ici de pratique visant a forcer la décision en faveur de NVidia, le Boost ou l'OC sont tout les deux importants.
Tu choisis un modèle de carte Gfx en fonction des paramètres que tu juges importants. L'OC, qui est présenté "a titre informatif" est bel et bien un élément du dossier, avec un effet bénéfique ou pas. Si par exemple on te présente une carte XX performante avec peu de marge d'OC et de l'autre coté une carte YY avec une grosse marge d'OC mais moins performante de base, que vas tu faire ? Beaucoup choisiront la carte YY, un petit coup de logiciel qui va bien et voila !
Et cependant, si la carte YY a été "choisie" pour offrir justement un gros potentiel d'OC, selon toi ça serait moins grave ?
 
J'essaie de me placer du coté du client, pas du coté de la bienséance ou du coté moral vis à vis de NVidia. Je vois là un système qui offre une chance d'avoir une très bonne carte graphique grâce à un Boost variable.
 
Concernant la question "à partir de combien de % je juge important la variation", c'est un avis personnel qui ne concerne que moi. Je crois cependant que le choix d'une carte Gfx, c'est une balance entre les performances, mais aussi entre l'habitude d'une marque (ne pas changer tout ses drivers), l'ergonomie du panneau de contrôle, la confiance dans le constructeur, les sorties vidéo, mais aussi un coté irrationnel (ou affectif) qui peut prendre la forme par exemple de récompenser NVidia pour son travail de pionnier dans le GPGPU, ou de vouloir soutenir AMD pour la concurrence qu'il fait à Intel, voir le design de la carte !
Bref, ce n'est pas les quelques pourcentages et les 2 ou 3 images par secondes qui sont vraiment importants pour départager deux cartes très proches.

n°8299264
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 03-05-2012 à 17:05:58  profilanswer
0Votes positifs
 

Singman a écrit :

Concernant la question "à partir de combien de % je juge important la variation", c'est un avis personnel qui ne concerne que moi.

 

Le fait de ne pas répondre simplement à une question simple montre bien que le problème n'est pas... si simple ;)

 

Tu te place côté client, ok :

 

Donc, NVAMD lance la GeDeon 8980, 2 GHz, Turbo Boost à 2.1 GHz min pouvant atteindre 2.4 GHz max.
A la vue des premiers tests (sur des cartes à 2.4 GHz max, sans possibilité de limiter le Turbo à 2.1 GHz) tu es super content des gains que ça t'apporterais contre ta GeDeon 8650, tu achètes une carte.
Malheureusement il se trouve que ta carte ne dépasse pas 2.1 GHz que le gain est inférieur de 10% à celui que tu attendais. Sachant ça, peut être que tu n'aurais pas fait l'upgrade, ou pas fait l'upgrade pour cette carte là tout du moins.

 

Tu trouves que c'est une chance ? Pas moi. Je crois qu'on ne sera jamais d'accord sur ce point ;)


Message édité par Marc le 03-05-2012 à 17:09:44
n°8299605
exemple555
Posté le 03-05-2012 à 20:58:25  profilanswer
0Votes positifs
 

C'est marrant, depuis le début il y'a débat sur le sujet alors que vous êtes unanimement d'accord sur le fond du problème :P

n°8302255
kaiser52
Posté le 05-05-2012 à 23:07:43  profilanswer
0Votes positifs
 

Je ne comprends vraiment pas les commentaires là. :o
De toute façon avec la même config que les tests, on peut déjà, en situation chez soi, faire jusqu'à 5% de différence.
 
De base le hardware c'est la loterie.

n°8302276
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-05-2012 à 23:25:31  profilanswer
0Votes positifs
 

kaiser52 a écrit :


De base le hardware c'est la loterie.


Non

n°8308321
kaiser52
Posté le 10-05-2012 à 16:23:59  profilanswer
0Votes positifs
 

Le hardware ça dépend de trop d'élément (Coté hardware et software) pour être à 100% sur du résultat, je ne m'attends pas à avoir exactement le même résultat que les tests que je lis.
Il suffit seulement de comparer les différents tests. :kaola:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°8308433
glrpignolo
Posté le 10-05-2012 à 17:10:26  profilanswer
0Votes positifs
 

La seule réponse à apporter est de faire ce que vous avez très bien fait dans le test de la 670 c'est à dire limiter la fréquence du turbo au minimum annoncé par nvidia.
Sinon, on retombe dans le o/c pur et dur ce qui est traité dans un chapitre à part.
 
Ceux qui auront un turbo supérieur et bien tant mieux pour eux mais vu la variabilité des échantillons, impossible d'en tirer une généralité.
Il faut donc rester au plus petit dénominateur commun.

n°8312945
[Toine]
A la demande générale...
Posté le 14-05-2012 à 09:27:07  profilanswer
0Votes positifs
 

Marc a écrit :

Je te propose d'aller voir les sites qui testent les portables à ce sujet :o
Ne traitant pas ce sujet je ne suis pas au courant, si tu as un lien je suis preneur.

 

Mais attention à ne pas mélanger température et consommation, si le Turbo ne s'enclenche pas à cause de la température c'est un problème de design du portable, de même dans une tour très mal ventilée dans lequel une 680 aurait trop chaud le GPU Boost ne s'enclenche pas du tout.


Je pense que pratiquement aucun portable grand public SB quad core ne permet d'être en dessous de 80-85° sous prime95 ... après, il faut des portables enclumes pour faire mieux.


Message édité par [Toine] le 14-05-2012 à 09:27:35

---------------
mes ventes : http://forum.hardware.fr/hfr/Achat [...] 0413_1.htm .
n°8323437
behelits
Posté le 23-05-2012 à 04:21:53  profilanswer
0Votes positifs
 

ce systeme evite a nvidia de mettre les fréquences de base, pour passer directement en un O/C variable. comme ca l'O/C passe pour des fréquences de base pendant le test. c'est fourbe.Tu sais pas sque tu achetes geniale...Heureusement qu'il y a HFR findus xD

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Aide] WaterCooling GPU.[HFR] Actu : Intel SSD 330 120 Go ajouté au comparatif
[HFR] Actu : Intel Next Unit of Computing[HFR] Actu : Le LGA1356 en approche
[HFR] Actu : SAS en 12 Gb/s chez Hitachi[HFR] Actu : Firmware SandForce, au tour de Sandisk
SLI GTX 560 ou HD7870[HFR] Actu : GeForce GTX 690 : rendez-vous jeudi
Plus de sujets relatifs à : [HFR] Focus : GPU Boost et GTX 680 : une double variabilité


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR