Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1823 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test

n°9232729
manusfreed​om
''Le reste est a venir''
Posté le 09-08-2014 à 17:54:27  profilanswer
0Votes positifs
 

Reprise du message précédent :
Dans le boitier Cooler Master RC-690 II Advanced, quelle est la configuration des ventilateurs utilisée lors des tests?

mood
Publicité
Posté le 09-08-2014 à 17:54:27  profilanswer
 

n°9234243
edtech
Posté le 11-08-2014 à 11:20:30  profilanswer
0Votes positifs
 

D'où ma question au départ sur la 4K et l'anticrénelage. A partir de quelle taille d'écran, la 4K permet de se passer de l'anticrénelage ? J'aimerai bien que ça passe sur un 24" car je ne recherche pas un écran plus grand, mais à avoir le confort que j'ai sur mon Lumia 1520 sur mon PC de bureau qui sert autant à bosser (développement) qu'à jouer !
 
Et en virant l'anticrénelage, ça compensera en partie les pertes de performances dues à la 4K !


Message édité par edtech le 11-08-2014 à 11:21:08
n°9234305
seb4771
Posté le 11-08-2014 à 12:06:32  profilanswer
1Votes positifs
 

en 4k, tu peux souvent te contenter d'un 2x, une grande majorité de jeu mais bon, comparé au 4x + de pixels demandés, c'est pas le problème de départ :(

n°9234325
Gazette
Posté le 11-08-2014 à 12:35:32  profilanswer
0Votes positifs
 

MasterDav a écrit :


Ce que je veux dire c'est que dans le dossier vous avez passé trois plombes à dire que c'est une mauvaise carte pour les jeux, et 3 lignes à dire qu'elle pourrait être mieux dans d'autres domaines.
Ce que je regrette c'est que vous n'ayez pas fait le contraire: passé 3 lignes à dire que c'est un échec pour les jeux, et qu'en fait elle est faite pour faire ceci ou cela.
Le DP et les 6Go ne sont que des exemples jetés à la va vite.
Si pour cela il avait fallu sortir du format habituel des tests de CG, pourquoi pas ?
 
Pour faire une analogie à la noix, c'est pas parce que le cayenne  [:vomi2]  est une porsche qu'il faut le tester comme les autres porsche, et ce même s'il est affreux inutile vendu par porsche comme étant une voiture sportive.  
 
De passer autant de temps à descendre cette carte, ce qui aurait du être fait bien plus brièvement, ça ressemble surtout à une grosse caresse dans le sens du poil pour les fanboys amd qui sont en large majorité sur HFR.
Et ça c'est juste un constat.
 
ps: ok pour le débat 4K, je comptais pas aller plus loin de toute façon.


 
Tu crois que HFR est la pour faire de la pub forcément bonne, il y a un protocole de test c'est tout.  

n°9234343
Giulietta2​6
Avanti!!!
Posté le 11-08-2014 à 12:56:19  profilanswer
0Votes positifs
 

seb4771 a écrit :

en 4k, tu peux souvent te contenter d'un 2x, une grande majorité de jeu mais bon, comparé au 4x + de pixels demandés, c'est pas le problème de départ :(


 
Certains disent qu'en résolution UltraHD 3840x2160, l'anticrénelage peut être désactivé sans affecté le confort en JV.


---------------
Demain c'est loin
n°9234375
seb4771
Posté le 11-08-2014 à 13:29:23  profilanswer
0Votes positifs
 

Comme je l'ai indiqué c'est une majorité ou 2x ça suffit et le reste y'a plus besoin.
 
Faut voir le jeu et ça reste toujours de l'appréciation de la personne devant l'écran (comme ceux qui sont heureux avec 30 fps et les autres qui pensent que 144 fps c'est le minimum tellement c'est flagrant pour eux...)
 
C'est le souci des "tests" des cartes vidéos, le but est de mettre le MAX possible même si ça ne change rien POUR le joueur final.
 
Résultat, le gars /la nana qui lit un test va se dire : elle est nulle cette carte alors que JAMAIS il/elle ne va l'utiliser comme ça.
 
Ce qui revient au test de la titan-z, à la lecture on peut se dire qu'elle est pas terrible mais l'acheteur il va essayer de prendre un écran 4k 1 ms de + 27" (y'en a combien en vente ?) et utilisera jamais le max de la carte.
 
Ah oui, c'est pas une carte de jeu maintenant selon nvidia, zut :)

n°9234377
edtech
Posté le 11-08-2014 à 13:29:59  profilanswer
0Votes positifs
 

Giulietta26 a écrit :

seb4771 a écrit :

en 4k, tu peux souvent te contenter d'un 2x, une grande majorité de jeu mais bon, comparé au 4x + de pixels demandés, c'est pas le problème de départ :(


 
Certains disent qu'en résolution UltraHD 3840x2160, l'anticrénelage peut être désactivé sans affecté le confort en JV.


 
Merci pour l'info :)

n°9235307
T0n10
Posté le 12-08-2014 à 00:02:34  profilanswer
1Votes positifs
 

seb4771 a écrit :


C'est le souci des "tests" des cartes vidéos, le but est de mettre le MAX possible même si ça ne change rien POUR le joueur final.


Bah disons que c'est le seul cas utile je dirais, voir comment se comporte le GPU en forte charge. Car comme tu dis, les mode über qualität dans les jeux ne servent esthétiquement à rien, a part faire lagger la CG en la surchargeant "inutilement".
Et comme bien souvent, les différences sont souvent visibles sur screenshot alors qu'en jeu ...

edtech a écrit :


Merci pour l'info :)


Si je dis pas de bêtise, l'AA calcule des images en résolutions supérieures avant de les afficher dans la résolution demandée (mettons pour l'exemple, ta CG calcule les images en 4k pour les afficher en 1080 derrière).
Demain tu achète un écran 4k. Si tu désactive l'AA, la CG va calculer et afficher les images en 4K. La charge GPU sera donc identique entre du 1080 AA et du 4k sans AA.
En gros si ta CG galere a faire du 1080 avec AA, ca ne sert a priori a rien d'acheter un ecran 4k sous prétexte tu pourras désactiver l'AA et gagner en perf.
C'est comme ça que je vois les choses (et si j'ai bien compris la question :D) :jap:  
 
Quand a savoir a partir de quand on peut désactiver l'AA, je suppose que dès que le pixel devient suffisamment petit pour être (vraiment) indistinguable on pourra a priori s'en passer, donc plus lié à la résolution d'un écran qu'a sa définition.

Message cité 1 fois
Message édité par T0n10 le 12-08-2014 à 00:31:14
n°9235466
edtech
Posté le 12-08-2014 à 09:19:17  profilanswer
0Votes positifs
 

J'ai une R9 290X Gaming (OC donc), ça devrait passer je pense :D
 
Je lorgne sur le Dell UltraSharp 24 | UP2414Q là.
 
Et au pire, je jouerai sur la TV 40" Full HD (à 4m, on ne voit pas les pixels !)


Message édité par edtech le 12-08-2014 à 09:20:20
n°9235988
Corleone_6​8
Posté le 12-08-2014 à 15:17:51  profilanswer
0Votes positifs
 

T0n10 a écrit :


Si je dis pas de bêtise, l'AA calcule des images en résolutions supérieures avant de les afficher dans la résolution demandée (mettons pour l'exemple, ta CG calcule les images en 4k pour les afficher en 1080 derrière).
Demain tu achète un écran 4k. Si tu désactive l'AA, la CG va calculer et afficher les images en 4K. La charge GPU sera donc identique entre du 1080 AA et du 4k sans AA.
En gros si ta CG galere a faire du 1080 avec AA, ca ne sert a priori a rien d'acheter un ecran 4k sous prétexte tu pourras désactiver l'AA et gagner en perf.
C'est comme ça que je vois les choses (et si j'ai bien compris la question :D) :jap:  
 
Quand a savoir a partir de quand on peut désactiver l'AA, je suppose que dès que le pixel devient suffisamment petit pour être (vraiment) indistinguable on pourra a priori s'en passer, donc plus lié à la résolution d'un écran qu'a sa définition.


 
C'est l'oversampling ;)
 
C'est pour cela que les lumières de ce topic qui crient au fort qu'il faut ce contenter du 1080P car il passe tout à fond n'ont pas compris que si le 1080P toutàfon passe le 4K dans la situation que tu as énoncé passera aussi. Mais bon fait laisser les savants dans leur bulle, quand le 16K sera là ils comprendront peu être enfin ;)


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
mood
Publicité
Posté le 12-08-2014 à 15:17:51  profilanswer
 

n°9237520
sagittaire
Posté le 13-08-2014 à 20:45:41  profilanswer
1Votes positifs
 

Corleone_68 a écrit :

 

C'est l'oversampling ;)

 

C'est pour cela que les lumières de ce topic qui crient au fort qu'il faut ce contenter du 1080P car il passe tout à fond n'ont pas compris que si le 1080P toutàfon passe le 4K dans la situation que tu as énoncé passera aussi. Mais bon fait laisser les savants dans leur bulle, quand le 16K sera là ils comprendront peu être enfin ;)

 

J'avais bien dis que lorsque les écrans 16K seraient là, tu serais un des premiers à en acheter. T'as du faire parti de ceux qui ont fait la queue pour acheter des smartphone à 500ppp. Le seul fait que tu prétendes avoir une bonne expérience de jeu sur du bi-GPU fera bien rire les vrais amateurs de jeux.

Message cité 1 fois
Message édité par sagittaire le 13-08-2014 à 20:46:22
n°9237673
Corleone_6​8
Posté le 13-08-2014 à 23:20:15  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
J'avais bien dis que lorsque les écrans 16K seraient là, tu serais un des premiers à en acheter. T'as du faire parti de ceux qui ont fait la queue pour acheter des smartphone à 500ppp. Le seul fait que tu prétendes avoir une bonne expérience de jeu sur du bi-GPU fera bien rire les vrais amateurs de jeux.  


 
Tu ne sais que répéter ca en boucle dis donc ?  [:zaib3k]
 
T'es à court d'argument de conneries ?  :D
 
En fait au début je pensais que tu faisais exprès pour te la jouer pro de l'informatique en déballant ton parcours, mais finalement je pense plutôt que tu es neuneu, tu n'as même pas réussi à voir l'ironie dans mon post même avec les smiley pour t'aider ? Sérieux ?
 
Qu'est ce que j'en ai a foutre des smartphones 1000K mon ancien modèle me convient parfaitement. Et pourquoi me parler de 16K alors que le 4K est là et bien suffisant pour de nombreuses années avant de voir une différence. Il est là et c'est nouveau et ne peut que s'améliorer avant même de changer de technologie. Réfléchis un peu [:delprozac:4]
 
Et oui mon petit, l'expérience de jeux en CF me convient très bien... T'es quand même au courant que ca c'est bien amélioré, et c'est pour ca qu'il y a de plus en plus de CF/SLI. Tu n'as pas eu l'info dans ta grotte ??
 
Bref avant je m'amusais bien avec toi, maintenant tu deviens vraiment pathétique, lourd et aigris. Et à vrai dire ca commence à me saouler de parler avec un ignares. Bonne continuation amuse toi tout seul moi je dédrap.
 
A bon entendeur. Salut.


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9237837
Dark Schne​iderr
⭐⭐
Posté le 14-08-2014 à 07:44:39  profilanswer
2Votes positifs
 

Vous êtes lourds.

n°9238110
sagittaire
Posté le 14-08-2014 à 12:09:01  profilanswer
0Votes positifs
 

Dark Schneiderr a écrit :

Vous êtes lourds.

 

Oui je sais ... c'est une provocation inutile mais parfaitement volontaire. Aller cette fois j'argumente sérieusement parce que cela m'amuse vraiment de lire que la 4K est là:

 

Bon déjà ne nous trompons pas de cible. Le coeur du marché des écrans c'est la TV. Les écrans PC ne sont qu'un marché de niche si on compare les volumes avec les écrans TV. Donc l'enjeu réel de la 4K ce sont les écrans TV et rien d'autre en pratique. De plus pour que la 4K soit là, il faut que la techno soit prête sur toute la chaine.

 

1) Les sources en 4K
Bon soyons clair, il n'y a pour l'instant aucun contenu accessible. Pas de source sur support optique, pas de source en VOD. Aucun flux TV dispo. Même les cinéma qui ont la techno 4K numérique ne diffusent la plupart du temps que des sources 2K. Les seuls contenus réellement accessible au grand public en 4K sont les derniers blockbusters US dans les salles numériques 4K. On aura pas de sources accessible en 4K avant très très très longtemps. Puis bon je rappelle au passage qu'il était possible d'imprimer numériquement nos bon vieux films 35 mm à une résolution de 8K (et oui, enfin bref, passons).

 

2) Le matériel en 4K
La 4K sur TV cela signifie un écran d'au moins 50 pouces et c'est un minimum. Un support du HDMI 2.0. La décompression en natif du HEVC 4K pour les futurs flux numériques qui seront à terme exclusivement dans ce format.

 

3) L'utilité réelle de la 4K
Le consommateur français continue d'acheter à 90% des DVD alors que 75% des français sont équipés d'une TV HD. La raison en est simple. La grande majorité des consommateurs peine à voir une différence de qualité notable entre un DVD et un BD dans les conditions où il le visionne. Je ne parle donc même pas des différences qui seront réellement perçues entre 2K et 4K. Sur un écran 4K, un panel composé "d'expert" aura du mal à voir la différence entre une source 2K upscalée en 4K et la source native en 4K (nombreux blinds tests réalisé dans l'industrie).

 

4) Le point sur la 2K
C'est là, la grande supercherie en fait. On parle du 4K alors que le 2K n'est même pas encore là et est particulièrement sous-exploité. La qualité des flux numériques (VOD, TNT et ADSL en France) est d'une qualité assez affligeante de mon point de vue mais j'ai une grande habitude pour détecter les défauts de l'image (flux H264 CBR à 6-12 Mbps avec encodage hardware pour la plupart). Même les meilleures sources actuellement disponibles, c'est à dire les Blu-Ray, sous-exploitent particulièrement le 2K. Un BD c'est aujourd'hui un encodage AVC "8 bits" à 30 Mbps 1080p YV12 4:2:0 24 fps. Cela signifie que les 2 canaux de couleurs UV sont encodés à demi-échelle en 960*540. Je discute avec beaucoup de codec-engineur et pour eux il s'agit d'un véritable gâchis. Entre une source 1080p 4:4:4 60 fps et la même source 2160p 4:2:0 24 fps, il n'y a pas photo pour les connaisseurs. Nos écrans 2K sont pourtant prêt pour ces sources. L'industrie préfère pousser le 4K, qui n'en sera en fait même pas vraiment un. Sans doute pour le plus grand bien du consommateur et de son portefeuille ... ;-)

 

Conclusion: La 4K est-elle là? Faudrait déjà que la 2K soit vraiment là avant de se poser la question.

 



Message édité par sagittaire le 14-08-2014 à 12:29:46
n°9238145
mimieseb
Posté le 14-08-2014 à 12:33:58  profilanswer
0Votes positifs
 

je m'y connais pas en terme de 2k et 4k mais si ils poussent a sortir la 4k c'est pour vendre des écran ( tv et pc) et c'est tout


---------------
Matos watercooling  http://forum.hardware.fr/forum2.ph [...] =3&trash=0
n°9238182
sagittaire
Posté le 14-08-2014 à 13:01:50  profilanswer
0Votes positifs
 

mimieseb a écrit :

je m'y connais pas en terme de 2k et 4k mais si ils poussent a sortir la 4k c'est pour vendre des écran ( tv et pc) et c'est tout


 
C'est un peu simpliste mais c'est ça. Objectivement la 4K n'apportera pratiquement rien visuellement (à part pour certains geeks qui regardent leur écrans avec une loupe ... dont je fais honnêtement parti). Pour apporter un vrai plus visuel, l'industrie va sans doute être obligée de de pousser des fonctionnalités connexes telles que la colorimétrie en pleine résolution et la fréquence temporelle à 50 ou 60 fps. Le vrai scandale, il est là, car ces fonctionnalités sont déjà accessibles sur nos écrans 2K.

n°9238259
tridam
Profil : Equipe HardWare.fr
Posté le 14-08-2014 à 14:01:27  profilanswer
0Votes positifs
 

Pour avoir essayé les deux, un écran en 3840x2160 31.5" c'est clairement mieux en bureautique qu'un écran 2560x1600 30". Ca ne m'empêche pas d'arriver à bosser sur un portable en 1440x900 13" :o
 
Ceci dit, ce n'est pas un dossier sur la 4K, faudrait voir à arrêter le HS :o
 

n°9238366
sagittaire
Posté le 14-08-2014 à 15:25:18  profilanswer
0Votes positifs
 

Citation :

Pour avoir essayé les deux, un écran en 3840x2160 31.5" c'est clairement mieux en bureautique qu'un écran 2560x1600 30". Ca ne m'empêche pas d'arriver à bosser sur un portable en 1440x900 13" :o


 
Oui mais bon c'est un peu comme comparer des poires et des oranges. D'une part en bureautique, tu es par définition sur un contenu statique. En terme HVS, tu ne sera sensible qu'au niveau de détail. De plus sur ton 31.5" tu as 10% de surface d'écran en plus avec une techno de dalle certainement plus récente et plus performante.  
 

Citation :

Ceci dit, ce n'est pas un dossier sur la 4K, faudrait voir à arrêter le HS :o


 
It's true. Game Over.
 
 
 

n°9238444
la_taupe
myope-la-boum
Posté le 14-08-2014 à 16:31:41  profilanswer
0Votes positifs
 

seb4771 a écrit :

Je voudrais demander si il était possible de faire un test d'un SLI titan-Z un jour ?
 
Voir si "4" GPU ça carbure vraiment beaucoup mieux (ont oublies les test en 1080p sur ce coup là, aucun intérêt) et le support niveau drivers.
 
Car il y aura toujours une niche (emir du Qatar, fils à papa, jeune pdg de statup, gagnant du loto, etc... ) pour ce type de config surpuissante et on pourrait voir si le 4k (et 8k) est enfin jouable à 120 fps sur un écran 120 Hz :)

HFR n'est pas vraiment le site des gamers du Qatar... surtout quand Nvidia refuse de fournir les exemplaires de test ;)
Ici on compare les bi-GPU à leur équivalent SLI, c'est déjà pas mal. Pour le quad-SLI il y a toujours les sites et les forums de passionnés de configs extrêmes: guru3d, [H]... rarement francophones ni aussi pointus que ce test, mais ils ont le mérite d'exister.

n°9240409
Ybendal
Posté le 16-08-2014 à 20:17:32  profilanswer
1Votes positifs
 

Pour moi le test sur le confort de jeux n est pas bon car il n'y a pas de test de la technologie G-sync de Nvidia qui aporte une bonne fluidité si l on ne tourne pas a 60Fps...
je trouve que c'est un oubli grave pour un test comme celui si...

n°9241050
Keser
Posté le 17-08-2014 à 15:26:51  profilanswer
0Votes positifs
 

C'est pas comme si GSync était une techno démocratisé et disponible sur tout les écrans...
 
Edit : D'ailleur trouve moi un seul revendeur français qui dispose d'au moins deux modèle d'écran gsync en stock.


Message édité par Keser le 17-08-2014 à 15:31:04
n°9241065
Neji Hyuga
Modérateur
:grut:
Posté le 17-08-2014 à 15:54:37  profilanswer
1Votes positifs
 

Ybendal a écrit :

Pour moi le test sur le confort de jeux n est pas bon car il n'y a pas de test de la technologie G-sync de Nvidia qui aporte une bonne fluidité si l on ne tourne pas a 60Fps...
je trouve que c'est un oubli grave pour un test comme celui si...


 
 
Mais oui, rajoutons donc une autre techno propriétaire et payante au test d'une carte hors de prix.
 
Et puis la prochaine fois il faudra ne tester que des jeux compatible PhysX, histoire d'être totalement impartial.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9241204
Giulietta2​6
Avanti!!!
Posté le 17-08-2014 à 18:41:49  profilanswer
4Votes positifs
 

ravenloft a écrit :

Très bon test et très complet comme d'hab. Carte excellente mais grévé par le prix si on la destinait aux joueurs.
Le positionnement tarifaire se comprend malgré tout et ne vise clairement pas les joueurs (un sli de 780ti est largement plus approprié) mais les professionnels qui veulent de grosses perfs sans se ruiner avec l'équivalent en carte pro.
 
Est-ce que vous comptez tester la carte sur les applis pro?


 
Je me suis arrêté à "carte excellente" pas la peine d'aller plus loin étant donné l'absence de points positifs pour cette carte, Nvidia s'est viandé et puis c'est tout.


---------------
Demain c'est loin
n°9241656
Neji Hyuga
Modérateur
:grut:
Posté le 18-08-2014 à 08:57:13  profilanswer
1Votes positifs
 

C'est si difficile que ça de comprendre que même pour un pro elle n'a que peu d'intérêt car elle reste 1000€ plus chère qu'un SLi de Titan Black :/ ?
 
Intrinsèquement, ce n'est effectivement pas une mauvaise carte (même si pour un joueur il y a mieux pour deux fois moins cher en face) mais sa tarification plombe complètement l'intérêt du produit, que ce soit pour un particulier ou un pro.  
 
Et ce n'est pas simplement parce qu'elle est chère, mais parce que le prix est disproportionné par rapport au reste de la "gamme" Titan.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9241659
gaius28
Hayabusa
Posté le 18-08-2014 à 08:59:41  profilanswer
0Votes positifs
 

Cette carte est conçu juste pour fermer le clapet à AMD :D


---------------
Petite cfg :I7 4770k@4.2ghz Sli Gigabyte GTX 780 Ghz Edition (1162mhz & 1136mhz) 16go Sniper@1800mhz Z87 Msi Power AC Max 2x24 pouces iiyama
n°9241685
Neji Hyuga
Modérateur
:grut:
Posté le 18-08-2014 à 09:39:56  profilanswer
2Votes positifs
 

1000€ le gain de place, la belle affaire, à ce prix là il y a boitier + CM + CPU en S2011 :/
 
Le seul intérêt c'est de pouvoir coller 4 (ou 6) GK110 "débridés" sur deux (ou trois) ports PCI-E, mais ça reste une sacré niche...
 
Mais même là, payer "deux pour le prix de trois" est difficilement justifiable.
 

gaius28 a écrit :

Cette carte est conçu juste pour fermer le clapet à AMD :D


 
Ah oui, quelle réussite :o


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9242558
Giulietta2​6
Avanti!!!
Posté le 18-08-2014 à 21:36:17  profilanswer
1Votes positifs
 


 
Oui je crois :D


---------------
Demain c'est loin
n°9363844
Pierreyann​1
Posté le 20-12-2014 à 17:24:33  profilanswer
1Votes positifs
 

Vous vous êtes piégés seuls, si l'on observe bien vos tests on remarque ceci (et il faut pas être un faucon pour le savoir).
1) vous avez overclock la radeon mais pas la NVIDIA, vous donnez donc un avantage non-négligeable et totalement subjectif à AMD.
2) vous mettez en avant la TITAN Z de base face à la 295 X2 OC Gigabyte soit la pire TITAN Z vs la meilleure 295 X2, deuxième avantage totalement subjectif.
3) Vous dites que La TITAN Z de base coûte 3000€ mais c'est faux : elle coûte MOINS de 1500€. Gros gros mensonge.
4) il ne faut pas oublier de dire que NVIDIA a mis 9 avancées technologiques de plus que AMD dans ces CG.
5) les jeux sont de TRÈS mauvais tests pour un benchmark car le résultat ne dépends plus de la CG mais de l'optimisation et du moteur du jeu qui sont à chaque fois pensés pour répondre aux exigences APU donc optimisés pour AMD.
6) il ne faut pas oublier que une CG puissante ne peut fonctionner correctement sans processeur et RAM puissants.
 
Pour un test objectif il faut :
1) Prendre les deux MEILLEURS modèles d'une CG. Soit la 295 X2 Gigabyte vs la TITAN Z ASUS (et bientôt la TITAN Z Twin frozr V (et tous les kikoos vont dire : mais MSI font des trucs abusés c'est pas équitable. Et je leur réponds qu'AMD a plus de budget qu'NVIDIA et peuvent accéder à la technologie TF V). Soit les OC toutes les deux soit en OC aucune.
2) faites un benchmark en passant par passmark, un logiciel poussant à leur limite et donne même des notes aux composants.
Pour le benchmark il faut EXACTEMENT les mêmes composants et ils doivent être neufs.
3) un benchmark physique se fait dans une pièce entre 10 et 15°C puis dans une pièce à 35°C et on fait la moyenne des deux.
 
Tant que vous n'aurez pas fait ces tests de manière objective, je n'accepterais aucune excuse, vous avez donné un Handicap de plus de 70% a radeon ce qui est quasi-impardonnable.

n°9364105
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-12-2014 à 22:25:53  profilanswer
1Votes positifs
 

Trop en avance ou en retard pour le 1er avril...

n°9364189
la_taupe
myope-la-boum
Posté le 21-12-2014 à 01:59:01  profilanswer
0Votes positifs
 

Y'a des gens qui vivent vraiment des vendredis d'anthologie [:fandalpinee]

n°9365068
Pierreyann​1
Posté le 22-12-2014 à 03:38:31  profilanswer
0Votes positifs
 

Et pour en revenir après test la AMD c'est pris un 9/40 au test de rapport qualité/prix, sans compter sur le fait qu'elle ne fait PAS partie du top 20 des cartes graphique les plus puissantes aujourd'hui.

n°9365283
Profil sup​primé
Posté le 22-12-2014 à 12:33:11  answer
0Votes positifs
 

Le pire c'est qu'il insiste, par contre il a oublié que c'était vendredi qu'il fallait faire ça ! :pt1cable:

n°9365385
Pierreyann​1
Posté le 22-12-2014 à 13:29:52  profilanswer
0Votes positifs
 

Le pire c'est que la TITAN Z et la 295 X2 sont, d'après le bon milliard d'utilisateurs, moins bonnes que la 980M. Oui oui, un chip pour les portables qui bat des bi-GPU. Je ne déconne pas
Édit : encore mieux, les avis ont changé http://imgur.com/4mZSBqs . Le gros nombre représente la puissance de la carte (/10000)


Message édité par Pierreyann1 le 22-12-2014 à 14:51:15
n°9365467
tridam
Profil : Equipe HardWare.fr
Posté le 22-12-2014 à 14:51:30  profilanswer
0Votes positifs
 

[:demerzel_titeuf]

n°9365514
Pierreyann​1
Posté le 22-12-2014 à 15:33:44  profilanswer
0Votes positifs
 

Autre chose : après recherches, voici les avis sur le bijoux en construction (TITANZ TF V) :
Le retour gagnant de Maxwell
 
 Le tarif envisagé par Nvidia
 
 Le Twin Frozr V
 
 Des performances de premier ordre
 
Autant dire que bientôt la 295 X2 et la TITAN Z TF V OC deviendront incomparables vu que TF V va combler les seuls bémols de température, de bruit et de clock, permettant à la TITAN Z OC de tourner à fond h24. Si j'en crois les calculs Avec le nouvel i7, DayZ standalone en ultra sera pas loin de l'idéal 120 FPS. Voilà ce qui se passe quand MSI et NVIDIA décide d'y aller plein gaz, de quoi faire peur.


Message édité par Pierreyann1 le 22-12-2014 à 15:34:26
n°9365544
Profil sup​primé
Posté le 22-12-2014 à 16:03:55  answer
0Votes positifs
 

Tu sais, y'a un forum Nvidia si tu aimes tellement la Titan Z, mais y'a vraiment rien à reprocher avec le test à Tridam qui est parfait

n°9365565
Pierreyann​1
Posté le 22-12-2014 à 16:24:56  profilanswer
0Votes positifs
 


Je vais peut-être lui pardonner a une condition : qu'il overclock la TITAN Z, si elle ne bat toujours pas la AMD, j'admettera qu'elle n'est pas encore suffisamment avancée.

n°9365580
Profil sup​primé
Posté le 22-12-2014 à 16:35:41  answer
0Votes positifs
 

En quoi il aurait besoin de ton pardon? Il fait déjà un travail parfait, je vois mal en quoi tu vas le déranger, sachant que ce n'est qu'un commentaire insignifiant teinté de troll que tu fais ;)

n°9365599
tridam
Profil : Equipe HardWare.fr
Posté le 22-12-2014 à 16:44:37  profilanswer
0Votes positifs
 

Mais où est-ce que tu as vu que la R9 295X2 était OC ? :o

n°9365600
la_taupe
myope-la-boum
Posté le 22-12-2014 à 16:45:18  profilanswer
0Votes positifs
 

Pierreyann1 a écrit :


Je vais peut-être lui pardonner a une condition : qu'il overclock la TITAN Z, si elle ne bat toujours pas la AMD, j'admettera qu'elle n'est pas encore suffisamment avancée.


Pardonner à Nvidia de ne pas avoir opté pour une solution watercoolée, tu veux dire. :/
La carte ne tient pas ses fréquences boost en charge, l'o/c ne pourrait que la faire remonter au niveau du SLI de 780 Ti. La X2 est juste meilleure - pas forcément de beaucoup, pas dans tous les cas, mais globalement c'est net.

 

Sinon, le test date de début août et HFR n'a pas dû pouvoir garder la carte pour tester tout ce qui te passe par la tête 5 mois après...
Désolé, hein. [:yoakhaz]


Message édité par la_taupe le 22-12-2014 à 16:45:42
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7

Aller à :
Ajouter une réponse
 

Sujets relatifs
Branchement carte mère - carte graphique: câble PCI-EOù sont les ports des ventilateurs sur la carte mère Gigabyte Z97N ?
Carte graphique morte ?Paiement carte CB avec paypal, frais?
Chute/freeze fps Nvidia gt740m[SLI] Need Help lag Gtx 780
Aide carte graphique svp 
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR