Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1658 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test

n°9228669
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 17:52:25  profilanswer
0Votes positifs
 

Reprise du message précédent :
Vos débats sur la vidéo 4K sont HS et n'ont rien à faire sur ce topic. En informatique les sources en 4K sont bien là (mis à part les soucis de gestion des DPI élevés sous Windows) que ce soit en applicatif pur ou dans les jeux, avec dans ce dernier cas un gros besoin de puissance GPU afin de garder un niveau de détail pertinent (c'est toujours possible de jouer en 4K et en low avec un GPU milieu de gamme mais bon, pourquoi faire :D )

 
sagittaire a écrit :

Pas de bol, ça j'ai testé aussi. Impossible de jouer en 4K dans un raid ou en jcj massif: le CPU ne suis pas.

 

Normalement l'augmentation de la résolution n’entraîne pas une hausse de la charge CPU, ce n'est pas le cas entre 640*480 et 1280*960 (par exemple). Tu es bien certain de ce que tu avances ?


Message édité par Marc le 05-08-2014 à 18:13:40
mood
Publicité
Posté le 05-08-2014 à 17:52:25  profilanswer
 

n°9228688
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 18:08:07  profilanswer
2Votes positifs
 

MasterDav a écrit :

J'ai en tête un certain dossier sur une carte hors de prix où vous vous êtes bien appliqués à faire les captain obvious sur de multiples pages ne faisant que démontrer son inutilité dans un domaine particulier et passer très brièvement sur ce qui aurait pu être vraiment intéressant.

Il aurait fallu faire une exception au format de tests de cartes graphiques parce que la carte ne s'en sort pas bien ? Encore une fois, "le domaine particulier" est son cœur de cible d'après son constructeur et ses partenaires qui l'intègrent.

 

Tu regrettes l'absence de test sur la double précision et sur les 6 Go, soit. Mais sachant que la DP débridée et les 6 Go ne sont pas exclusifs à la Titan Z dans la gamme Nvidia GeForce, je cherche encore à savoir ce que cela aurait pu apporter à nos conclusions concernant cette carte.

 

Sinon l'aspect GPGPU sera testé sur le prochain test de carte Pro, en sus de la 3D temps réel pro, qui intégrera aussi des cartes non Pro (pas de deadline encore).

Message cité 1 fois
Message édité par Marc le 05-08-2014 à 18:19:39
n°9228694
MasterDav
Posté le 05-08-2014 à 18:11:35  profilanswer
1Votes positifs
 

sagittaire a écrit :

Aller je vais me faire plaisir ... mdr


Si tu te fais plaisir à être ridicule, tant mieux pour toi :)
 

sagittaire a écrit :

Non j'ai juste en Master en Informatique et je bosse dans une boite qui m'a chargé de faire de la prospection sur le déploiement de la 4K avec le codec HEVC ... ;-)


Un master informatique :lol: Du vent quoi :sarcastic:  
Pour le reste, vu ce que t'en dis, tu devrais peut-être à te réorienter, la maçonnerie par exemple.
 

sagittaire a écrit :

- aucun des jeux testé ici ne tourne à 60 fps avec une 780Ti. Encore moins donc avec une GTX 780.


T'es neuneu ou tu le fais exprès ?
Dans la phrase "les jeux ne se résument pas à ceux des tests" c'est sur quoi que tu bloques ? J'ai pourtant fait gaffe à utiliser des mots ayant peu de syllabes pour que tu puisses percuter.
Tu sais, dans le vrai monde avec les vrais gens, il existe tous pleins de jeux qui ne sont pas utilisé dans les tests de cartes graphiques, oui oui  :whistle:  
 

sagittaire a écrit :

90% des gens ne voient aucune différence entre la même source en 2K ou 4K.[...]Je peux donc t'annoncer que lorsque tu va voir un film français


90% des gens ne savent pas ce qu'est une carte graphique et qu'il existe déjà des écrans 4K.
Ça tombe bien, la plupart des gens sur HFR ne font pas partie de ces 90%.
Quant à aller au cinéma, pour en plus voir un film français, ça risque pas de m'arriver  :lol:  
 

sagittaire a écrit :

Pas de bol, ça j'ai testé aussi. Impossible de jouer en 4K dans un raid ou en jcj massif: le CPU ne suis pas.


Champion du monde de la contradiction et de la mauvaise foi  :lol:  
Pas vraiment de rapport entre la résolution et la conso CPU, tout du moins négligeable.
Faudra dire à ceux qui peuvent pas jouer en ultra en 1080p qu'ils sont cpu limited  :lol:  
 

sagittaire a écrit :

Bon alors là c'est juste ma spécialité ... mdr
3) non le H264 n'est pas adapté à l'UHD de part son système de partitionnement de trop faible taille


J'ai surtout l'impression que ta spécialité c'est de la ramener sur ce que tu ne connais pas.
Pour les histoires techniques du x264 dont je me contrefous, faudra dire ça aux gars qui ont déjà encodé du 4K en x264, ce qui donne des mkv certes lourds mais fluides.
 

sagittaire a écrit :

La GTX 680 n'est pas suffisamment puissante pour le 4K car sa quantité de RAM est bien trop faible.


Encore une affirmation sans fondement ni preuve et surtout fausse  :sarcastic:  
 

sagittaire a écrit :

Ah t'as des liens vers du contenu 4K sur Youtube qui n'est pas une demo techno. Aller juste un liens vers un film, une série ou même une pub tiens si tu veux.


C'est parfaitement connu que youtube laisse les films et les séries sur sa plateforme  :sarcastic:  
En 30s de recherche google on trouve déjà quelques exemples de vidéos youtube en 4K.
Encore faut-il avoir la capacité de faire cette recherche.
 

sagittaire a écrit :

Oui pour les graphiste cela à son utilité mais pas pour le reste.


En fait je crois que le gros problème avec toi c'est que tu n'arrives pas à assimiler le dixième de ce que l'on te montre ou t'explique.
En conséquence discuter avec toi s'avère une perte sèche de temps et il vaut mieux te laisser te vautrer dans ta mauvaise foi et ta certitude d'avoir raison.
T'es un peu le genre de mec à qui on colle le nez dans sa merde et qui te dit "ça sent la rose".
Sois bien heureux ton ta petite utopie égocentrique.  :hello:  

Message cité 1 fois
Message édité par MasterDav le 05-08-2014 à 18:33:57
n°9228708
MasterDav
Posté le 05-08-2014 à 18:24:57  profilanswer
1Votes positifs
 

Marc a écrit :

Il aurait fallu faire une exception au format de tests de cartes graphiques parce que la carte ne s'en sort pas bien ? Encore une fois, "le domaine particulier" est son cœur de cible d'après son constructeur et ses partenaires qui l'intègrent.
 
Tu regrettes l'absence de test sur la double précision et sur les 6 Go, soit. Mais sachant que la DP débridée et les 6 Go ne sont pas exclusifs à la Titan Z dans la gamme Nvidia, je cherche encore à savoir ce que cela aurait pu apporter à nos conclusions concernant cette carte.


Ce que je veux dire c'est que dans le dossier vous avez passé trois plombes à dire que c'est une mauvaise carte pour les jeux, et 3 lignes à dire qu'elle pourrait être mieux dans d'autres domaines.
Ce que je regrette c'est que vous n'ayez pas fait le contraire: passé 3 lignes à dire que c'est un échec pour les jeux, et qu'en fait elle est faite pour faire ceci ou cela.
Le DP et les 6Go ne sont que des exemples jetés à la va vite.
Si pour cela il avait fallu sortir du format habituel des tests de CG, pourquoi pas ?
 
Pour faire une analogie à la noix, c'est pas parce que le cayenne  [:vomi2]  est une porsche qu'il faut le tester comme les autres porsche, et ce même s'il est affreux inutile vendu par porsche comme étant une voiture sportive.  
 
De passer autant de temps à descendre cette carte, ce qui aurait du être fait bien plus brièvement, ça ressemble surtout à une grosse caresse dans le sens du poil pour les fanboys amd qui sont en large majorité sur HFR.
Et ça c'est juste un constat.
 
ps: ok pour le débat 4K, je comptais pas aller plus loin de toute façon.

n°9228759
Giulietta2​6
Avanti!!!
Posté le 05-08-2014 à 19:17:16  profilanswer
2Votes positifs
 

MasterDav a écrit :


De passer autant de temps à descendre cette carte, ce qui aurait du être fait bien plus brièvement, ça ressemble surtout à une grosse caresse dans le sens du poil pour les fanboys amd qui sont en large majorité sur HFR.


 
Là tu affabules complètement, cela en devient risible.


Message édité par Giulietta26 le 05-08-2014 à 19:17:34

---------------
Demain c'est loin
n°9228765
binogure
Posté le 05-08-2014 à 19:23:48  profilanswer
1Votes positifs
 

Ca fait des gros messages, j'ai eu la flemme de tout lire mais je suis sur que tout le monde a raison et tout le monde a tord. Sinon je souhaitais mettre ma petite graine:
 
3000$, ca fait cher pour un BBQ olololol

n°9228837
bugfx32
Posté le 05-08-2014 à 20:27:41  profilanswer
1Votes positifs
 


 
Oui sauf que ceux qui ont besoin de DP, une blinde de ram, ou autre vont soit taper dans des quadro/tesla soit taper dans des titan black (mon cas) pour le prix d'une titan Z tu as 3 titan black, ou une tesla k20x voir même K40 en cherchant bien (si nécessité de suivie particulier, ce que ne propose pas la titan Z).
La titan Z n'a aucun intérêt, même le coup de prendre moins de slot pci-e est une aberration, les personnes qui en ont besoin de ce genre de carte on clairement le matos derrière (carte mère workstation, rack serveur etc).
Et en tant que joueur faut être demeuré d'acheter ça.
 

MasterDav a écrit :

De passer autant de temps à descendre cette carte, ce qui aurait du être fait bien plus brièvement, ça ressemble surtout à une grosse caresse dans le sens du poil pour les fanboys amd qui sont en large majorité sur HFR.


 
Au vue de tes commentaires c'est plutôt toi qui passe pour un gros fanboy pour le coup... :/


---------------
Ryzen 7800x / Strix 670E  / 64go Gskill / 6 To SSD /Strix 3090 + Titan X / Seasonic P1000 / Full Watercooling
n°9228875
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 21:08:29  profilanswer
3Votes positifs
 

MasterDav a écrit :


Ce que je veux dire c'est que dans le dossier vous avez passé trois plombes à dire que c'est une mauvaise carte pour les jeux, et 3 lignes à dire qu'elle pourrait être mieux dans d'autres domaines.
Ce que je regrette c'est que vous n'ayez pas fait le contraire: passé 3 lignes à dire que c'est un échec pour les jeux, et qu'en fait elle est faite pour faire ceci ou cela.
Le DP et les 6Go ne sont que des exemples jetés à la va vite.
Si pour cela il avait fallu sortir du format habituel des tests de CG, pourquoi pas ?
 
Pour faire une analogie à la noix, c'est pas parce que le cayenne  [:vomi2]  est une porsche qu'il faut le tester comme les autres porsche, et ce même s'il est affreux inutile vendu par porsche comme étant une voiture sportive.  
 
De passer autant de temps à descendre cette carte, ce qui aurait du être fait bien plus brièvement, ça ressemble surtout à une grosse caresse dans le sens du poil pour les fanboys amd qui sont en large majorité sur HFR.
Et ça c'est juste un constat.
 
ps: ok pour le débat 4K, je comptais pas aller plus loin de toute façon.


 
Pour me mettre au même niveau, je dirais que ce que tu regrettes c'est qu'on ne soit pas sorti du format traditionnel afin de faire une grosse caresse dans le sens du poils pour les fanboys Nvidia.
 
Encore une fois quelque soit la façon dont tu tournes la chose c'est au désavantage de la Titan Z, sauf cf conclusion pour faire la WS CUDA DP la plus véloce, sans tenir compte du prix et de la garantie, avec 3 GTX Titan Z watercoolees vs  4 GTX Titan Black. C'est ça que tu aurais aimé voir traité sur des pages ? :D
 
Au passage, cf le dernier sondage, tu affabules pour les fanboys AMD vs Nvidia, en sus de faire des sous entendus puant sur nous. Et ça c'est juste un constat. ;)

n°9228916
MasterDav
Posté le 05-08-2014 à 21:52:59  profilanswer
0Votes positifs
 

Marc, écoute, crois ce que tu veux je peux rien y faire de toute façon.
C'est pourtant pas faute d'avoir répété je trouvais évident que la titan z est une mauvaise carte gamer à un prix abusif.
Vous voulez pas comprendre non plus que je critique non pas le fond de l'article, mais la forme.
Encore une fois c'est pas faute de l'avoir répété.
Quant aux fanboys amd il suffit de lire les commentaires de news, on ne peut faire plus flagrant.
Enfin, si le "pseudo sous entendu puant" peut vous faire sortir des articles plus objectifs, qu'il soit pris ainsi.

n°9228920
Giulietta2​6
Avanti!!!
Posté le 05-08-2014 à 21:57:53  profilanswer
8Votes positifs
 

En toute cordialité, il est temps d'arrêter de faire ta victime.


---------------
Demain c'est loin
mood
Publicité
Posté le 05-08-2014 à 21:57:53  profilanswer
 

n°9229185
seb4771
Posté le 06-08-2014 à 09:50:46  profilanswer
1Votes positifs
 

Hello,
 
Merci pour l'article même si c'est pas nouveau, ça fait des mois que cette carte est devenu un échec au marketing :)
 
Pour le prix de 3000 euros :  
 
- une VRAIE carte de jeu existe pour 2x - cher et + performante.
- une VRAIE carte de traitement 3D est + performante pour - cher
- En ajoutant 700 euros il y a la QUADRO 6000 12 Go (2 à 4x + rapide pour les traitements).
 
les marketeux ont juste oublié qu'il y avait la concurrence (R9 295x2) et surtout l'excellente 780Ti dans leur propre marque.

n°9229215
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-08-2014 à 10:02:58  profilanswer
1Votes positifs
 

seb4771 a écrit :

- En ajoutant 700 euros il y a la QUADRO 6000 12 Go (2 à 4x + rapide pour les traitements).

 

J'imagines que tu parles de la K6000. Je ne sais pas de quels traitement tu parles mais pour du GPGPU ce n'est clairement pas le cas, sauf à être limité par la quantité de VRAM elle est au niveau d'une GTX Titan Black plutôt... et même moins en fait du fait du GK110 à 900 MHz et de la GDDR5 à 6 Gbps.
Pour la 3D temps réel dans les softs pro c'est une autre histoire par contre, du fait des pilotes Quadro.


Message édité par Marc le 06-08-2014 à 10:12:18
n°9229316
seb4771
Posté le 06-08-2014 à 12:03:45  profilanswer
0Votes positifs
 

Oups  
 
Oui, c'est bien la K6000 dont je parle.
 
C'était juste pour ajouter que je ne vois pas le "placement" de la titan Z, surtout à ce prix là, elle n'a rien pour elle et y'a mieux partout non ? (soit en tarif/perfs, soit en spécifique).
 
Car le marketing nvidia est parti dans toute les directions selon moi avec cette carte, Jeux/3d temps réel/grille pain/CUDA/4K ( y'en a ptet 1 en trop :P).

n°9229424
Neji Hyuga
Modérateur
:grut:
Posté le 06-08-2014 à 14:05:26  profilanswer
2Votes positifs
 

seb4771 a écrit :

[..]les marketeux ont juste oublié qu'il y avait la concurrence (R9 295x2)[..]


 
Je pense qu'ils ne s'y attendaient pas vraiment à celle-là.
 
Vu les "problèmes" que rencontraient les 290X avec le rad de référence, ils pensaient peut-être qu'AMD allait avoir du mal à coller deux Hawaii XT sur le même PCB et qu'ils avaient donc le champs libre pour pratiquer un tarif élitiste sur une carte bi-GPU exclusive.
 
Ce qui m'étonne un peu, c'est que même en se sachant "battu" d'avance sur le plan de la perf pure et dure en jeu et en retardant la sortie de la carte, ils n'aient pas revu le tarif du monstre à la baisse.
 
Peut-être pour ne pas trop nuire aux ventes de Quadro ? Mais dans ce cas là le mal était déjà fait avec les Titan / Titan Black, dont le positionnement tarifaire est finalement plus agressif que celui de cette Titan Z.
 
A 1900/2000€ l'engin, ils conservaient le record de la carte grand public la plus chère du monde, et ça restait déjà plus cohérent vis à vis du reste de la gamme... Et la conclusion de l'article aurait peut être été un peu moins dure.


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9229462
- gab
Posté le 06-08-2014 à 14:30:30  profilanswer
2Votes positifs
 

Baisser le prix après la sortie de la 290x2 alors qu'elle avait déjà été annoncée autour de 3000$, ça aurait été admettre leur échec. Foncer dans le mur la tête haute, c'est mieux :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9230010
T0n10
Posté le 06-08-2014 à 20:31:59  profilanswer
0Votes positifs
 

Neji Hyuga a écrit :


 
Je pense qu'ils ne s'y attendaient pas vraiment à celle-là.
 
Vu les "problèmes" que rencontraient les 290X avec le rad de référence, ils pensaient peut-être qu'AMD allait avoir du mal à coller deux Hawaii XT sur le même PCB et qu'ils avaient donc le champs libre pour pratiquer un tarif élitiste sur une carte bi-GPU exclusive.


Je suis assez d'accord avec cette analyse. Je pense de plus en plus que NV n'a pas du voir arriver cette 295X2 watercoolé.
Revoir leurs plans aurait surement pris trop de temps et laisser trop longtemps ATI occuper le marché, baisser le prix violemment aurait été un aveux d’échec ...

n°9230085
Many as On​e
Posté le 06-08-2014 à 21:37:06  profilanswer
0Votes positifs
 

Personnellement, je comprends pas pourquoi NVidia n'a tout simplement pas annulé cette carte et recyclé les GPU dans des Quadro. Parce qu'en terme d'image, elle fait plus de mal qu'autre chose. Et niveau marge, c'est pas mieux qu'un GK110 pro.

n°9230173
tridam
Profil : Equipe HardWare.fr
Posté le 06-08-2014 à 23:20:26  profilanswer
1Votes positifs
 

Many as One a écrit :

Personnellement, je comprends pas pourquoi NVidia n'a tout simplement pas annulé cette carte et recyclé les GPU dans des Quadro. Parce qu'en terme d'image, elle fait plus de mal qu'autre chose. Et niveau marge, c'est pas mieux qu'un GK110 pro.


 
Toute la production ou presque était déjà vendue aux partenaires/distributeurs quand Nvidia s'est pris la 295 X2 dans les dents. Impossible de faire marche arrière. Après, la stratégie c'était d'écouler cette production comme prévu, elle représente de toute manière un très faible volume, en évitant autant que possible de se faire trop mal en terme d'image avec des tests indépendants et une comparaison directe avec la Radeon. Et au pire si trop de GTX Titan Z ne trouvent pas preneur, Nvidia offrira une compensation sous une forme ou sous une autre à ses partenaires/distributeurs pour éviter qu'ils ne rechignent à s'engager la prochaine fois.


Message édité par tridam le 06-08-2014 à 23:21:42
n°9232066
Corleone_6​8
Posté le 08-08-2014 à 21:08:47  profilanswer
0Votes positifs
 

nVidia devient de plus en plus risible avec leur prix... Ils veulent imposer des nouveaux standard de prix trop élevé pour tout le monde. Je souhaite que cette entreprise ce prennent une fois une bonne raclée non pas pour dire "youpi AMD" mais pour qu'ils ce retrouvent au niveaux du "peuple moyen" et qu'ils remarquent que c'est dur pour tout le monde... Ce qu'il c'est passé avec "ATI/AMD" et pour notre plus grand bonheur ca ne leur empêche pas de ventre des CG qui poutre avec un tarif raisonnable...

 

Un gros ras le bol envers ces pratiques... Heureusement qu'AMD est là et tant qu'ils seront dans le rouge/orange on aura de bonne CG certes avec des défauts mais bien moins cher que chez le concurrents...

 

Pour lire les conneries sur le 4K comme quoi ce n'est pas possible. Je joue actuellement à tout les jeux "toutafon" (sauf BF4) avec un CF de 290 de référence OC à très bon prix sur une tv 4k qui pour rappelle sortent du 4k@60Hz pour les nouveaux modèles et sur les "anciens" (première) à l'aide d'un kit évolution (One connect 2) pour la connectique HDMI 2.0. Donc la 4K est là, la 4K@60Hz aussi, et le matos pour y jouer "sans trop ce ruiner" est là (CF ma config qui n'est pas trop cher pour un galère et qui est suffisante).

 

Bref c'est comme dire ca c'est pas bon, mais vous n'y avez jamais gouté..

Message cité 1 fois
Message édité par Corleone_68 le 08-08-2014 à 21:10:23

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9232113
master71
ça manque de place.
Posté le 08-08-2014 à 22:22:53  profilanswer
0Votes positifs
 

jouer tout à fond en 4K avec un CF de 290...
exemple: http://www.eteknix.com/4k-gaming-s [...] tx-780/10/
pas à fond, loin de là, 40fps pour la 290X, un CF de 290 ça doit effectivement turbiner à 60fps, mais pas à fond, loin de là, et pas tout le temps, avec un bon tearing horizontal et tous les inconvénients du CF.
 
bref, la 4K sera là QUAND on pourra jouer à au moins 60 FPS en ultra sur une carte mono core de milieu de gamme, aux jeux d'aujourd'hui, que les codec seront là, que l'on pourra encoder et décoder du h265 HEVC en standard sans devoir utiliser 2 Xeons 8 cores + HT à 4Ghz pendant des heures....
 


---------------
un jour, moi aussi, je serais grand...
n°9232121
Corleone_6​8
Posté le 08-08-2014 à 22:39:12  profilanswer
0Votes positifs
 

master71 a écrit :

jouer tout à fond en 4K avec un CF de 290...
exemple: http://www.eteknix.com/4k-gaming-s [...] tx-780/10/
pas à fond, loin de là, 40fps pour la 290X, un CF de 290 ça doit effectivement turbiner à 60fps, mais pas à fond, loin de là, et pas tout le temps, avec un bon tearing horizontal et tous les inconvénients du CF.

 

bref, la 4K sera là QUAND on pourra jouer à au moins 60 FPS en ultra sur une carte mono core de milieu de gamme, aux jeux d'aujourd'hui, que les codec seront là, que l'on pourra encoder et décoder du h265 HEVC en standard sans devoir utiliser 2 Xeons 8 cores + HT à 4Ghz pendant des heures....

 


 

:lol:

 

Tu joues à ma place sur mon ordi ??  :sarcastic:

 

Je te dis que je joue tout à fond sur un CF de 290 OC. Que ca tourne à 30 40 ou 60fps je m'enfous tant qu'à mes yeux ca ne lag pas point.

 

Ok mec, donc à ce compte là le 1080P n'est pas encore là vu qu'on ne joue pas encore à TOUT les jeux à 60FPS en ultra sur une carte milieu de gamme.

 

A ta place je retournerais sur du 640*480 c'est apparemment plus dans ton élément ;)

 

Bref ce n'est pas le sujet, je donnais juste mon point de vue, et ce que je fais réellement avec mon PC

 

Edit: l'expression toutàfon c'est pour tout les settings au taquet..


Message édité par Corleone_68 le 08-08-2014 à 22:41:31

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9232150
master71
ça manque de place.
Posté le 08-08-2014 à 23:07:29  profilanswer
0Votes positifs
 

ha ok. jouer à 15FPS sur un 4K c'est que le 4K est là.
vu comme ça pas de soucis.
 
et le 1080P est bien là, puisqu'on joue aux jeux lorsqu'il est sorti, à fond et à 60hz mini.
 
les jeux qui sortent aujourd'hui sont fait pour exploiter à fond le matos du moment, et avoir une grosse marge de progression en qualité avec le matos qui sortira ensuite.


---------------
un jour, moi aussi, je serais grand...
n°9232237
Fealith
Posté le 09-08-2014 à 01:33:14  profilanswer
0Votes positifs
 

MasterDav a écrit :


T'es neuneu ou tu le fais exprès ?
Dans la phrase "les jeux ne se résument pas à ceux des tests" c'est sur quoi que tu bloques ? J'ai pourtant fait gaffe à utiliser des mots ayant peu de syllabes pour que tu puisses percuter.
Tu sais, dans le vrai monde avec les vrais gens, il existe tous pleins de jeux qui ne sont pas utilisé dans les tests de cartes graphiques, oui oui  :whistle:

 


 

Pour ma propre connaissance (pas d'ironie ou autre), quels jeux non AAA tirent réellement profit de la 4K (vs 1080p) ?


Message édité par Fealith le 09-08-2014 à 01:34:30
n°9232271
Corleone_6​8
Posté le 09-08-2014 à 03:35:15  profilanswer
0Votes positifs
 

master71 a écrit :

ha ok. jouer à 15FPS sur un 4K c'est que le 4K est là.
vu comme ça pas de soucis.

 

et le 1080P est bien là, puisqu'on joue aux jeux lorsqu'il est sorti, à fond et à 60hz mini.

 

les jeux qui sortent aujourd'hui sont fait pour exploiter à fond le matos du moment, et avoir une grosse marge de progression en qualité avec le matos qui sortira ensuite.

 

T'es quand même de mauvaise fois toi...

 

Tu crois que c'est jouable 15 FPS ? Réfléchis 2 secondes, je te parle d'un CF OC. C'est bon tu percute maintenant ?  :sarcastic:

 

Alors je n'ai rien compris à ce que tu as dis mais ce que je peux t'en dire (d'après ce que je pense avoir compris) c'est que quand le 1080P est sorti il fallait avoir une config de fou pour faire tourner les jeux, ou alors tu as connu le 1080P qu'à partir de Windows 7... (en terme de date)

 

Encore maintenant tu ne fais pas tourner TOUT les jeux en ULTRA @ 60Hz en 1080P avec une carte MILIEU DE GAMME. (je reprends tes dire à la lettre).

 

Tu veux aussi connaître l'avantage du 4K ? C'est que je peux jouer assis à 2 mètres d'un 55 pouces sans avoir besoin de recul pour la netteté. Chacun son choix.

 

Bref j'arrête ici, je viens donner mon opinion d'utilisateur final, et on me sort de la mauvaise fois. Je stop là car je sens que ca va couper de toute façon...


Message édité par Corleone_68 le 09-08-2014 à 03:40:06

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9232360
seb4771
Posté le 09-08-2014 à 11:01:28  profilanswer
0Votes positifs
 

Je voudrais demander si il était possible de faire un test d'un SLI titan-Z un jour ?
 
Voir si "4" GPU ça carbure vraiment beaucoup mieux (ont oublies les test en 1080p sur ce coup là, aucun intérêt) et le support niveau drivers.
 
Car il y aura toujours une niche (emir du Qatar, fils à papa, jeune pdg de statup, gagnant du loto, etc... ) pour ce type de config surpuissante et on pourrait voir si le 4k (et 8k) est enfin jouable à 120 fps sur un écran 120 Hz :)

n°9232364
Giulietta2​6
Avanti!!!
Posté le 09-08-2014 à 11:09:18  profilanswer
0Votes positifs
 

seb4771 a écrit :

Je voudrais demander si il était possible de faire un test d'un SLI titan-Z un jour ?
 
Voir si "4" GPU ça carbure vraiment beaucoup mieux (ont oublies les test en 1080p sur ce coup là, aucun intérêt) et le support niveau drivers.
 
Car il y aura toujours une niche (emir du Qatar, fils à papa, jeune pdg de statup, gagnant du loto, etc... ) pour ce type de config surpuissante et on pourrait voir si le 4k (et 8k) est enfin jouable à 120 fps sur un écran 120 Hz :)


 
En terme de température la carte mère va souffrir :ouch: , sur ce point un Cross de R9 295X2 serait mieux approprié et pour moins cher qu'une seule Titan Z.


---------------
Demain c'est loin
n°9232372
Neji Hyuga
Modérateur
:grut:
Posté le 09-08-2014 à 11:20:56  profilanswer
0Votes positifs
 

Ah ça, ça risque de chauffer dur.
 
Celui qui veut en monter deux dans un boitier fermé a intérêt de ventiler comme un sauvage.
 
L'argument "gain de place" du père Huang est gentil, mais si la carte est inutilisable dans un boitier compact sans impacter fortement la température de fonctionnement des autres composants, ou qu'il est obligatoire de passer au watercooling pour en coller plusieurs dans la même tour, ça perd tout de suite un peu de son intérêt.
 
Bon, après je me doute que celui qui va claquer 5600€ de cartes graphiques a probablement aussi les moyens de passer tout ça sous flotte (quoi que, on bien eu le topic d'un smicard en formation qui comptait en acheter deux [:xenobrandt:5]).


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9232434
sagittaire
Posté le 09-08-2014 à 12:44:58  profilanswer
1Votes positifs
 

Corleone_68 a écrit :


 
Pour lire les conneries sur le 4K comme quoi ce n'est pas possible. Je joue actuellement à tout les jeux "toutafon" (sauf BF4) avec un CF de 290 de référence OC à très bon prix sur une tv 4k qui pour rappelle sortent du 4k@60Hz pour les nouveaux modèles et sur les "anciens" (première) à l'aide d'un kit évolution (One connect 2) pour la connectique HDMI 2.0. Donc la 4K est là, la 4K@60Hz aussi, et le matos pour y jouer "sans trop ce ruiner" est là (CF ma config qui n'est pas trop cher pour un galère et qui est suffisante).
 
Bref c'est comme dire ca c'est pas bon, mais vous n'y avez jamais gouté..


 
Rien que le fait de dire que tu as quelque chose "qui ne lag pas en 4K 60Hz en bi-GPU" est quelque peu bizarre car ça "lag" forcément plus ou moins en fait, enfin quand on a un minimum d'acuité visuelle. Oui mais dans ton cas c'est de la branlette intellectuelle. Genre j'ai un plus gros kiki que vous et vous pouvez pas savoir ce que c'est.
 
Et bien si je sais ce que c'est pour l'avoir testé objectivement. On peut pas dire que la 4K soit là pour le jeux actuellement, non pas parce qu'elle n'est pas là techniquement, mais parce qu'elle n'apporte pas de meilleur expérience de jeux par rapport au 1080p. Sur un même écran, avec le meilleur matériel actuel un jeu en 1080p (quality ultra, AA actif) en monoGPU t'apportera une expérience visuelle très supérieur à du 2160p (quality ultra, AA inactif) en BiGPU. Tu pourra sans doute voir une petite différence de détail sur les parties statiques (encore que sur ton écran 4K l'upscaling doit être d'excellente qualité) mais certainement pas dans les parties à fort mouvement où c'est la fluidité qui importe le plus et dans ce domaine la différence est encore abyssale entre du 1080p mono-GPU et du 2160p bi-GPU. Point à ligne.
 
Tu dois être de ceux qui pensent que le 1080p sur 4 pouces c'est forcément mieux pour les smartphones. Et bien non car à partir d'un certain seuil on ne voit plus la différence. On est typiquement dans ce cas en ce qui concerne les écrans PC et TV. On arrive à ce seuil. A mon avis la 4K apportera un gros avantage aux graphistes, pas aux autres. Tu fera sans doute parti des mecs qui vont acheter le premier écran 16K, moi je ferai parti des mecs qui se foutront bien de ta poire parce que tu es le pigeon idéal pour les constructeurs de matériel.
 
Je vais donc te donner un conseil: vire ton second GPU, régle tes jeux en 1080p ou en 1440p (pour ne pas avoir la limite du 60Hz) avec AA actif, régle ton écran 4K pour avoir le meilleur upscaling et fait la comparaison. Cela sera une bien meilleure expérience de jeux pour toi ... ;-)

Message cité 1 fois
Message édité par sagittaire le 09-08-2014 à 12:57:03
n°9232436
Giulietta2​6
Avanti!!!
Posté le 09-08-2014 à 12:47:30  profilanswer
0Votes positifs
 

Neji Hyuga a écrit :

Ah ça, ça risque de chauffer dur.
 
Celui qui veut en monter deux dans un boitier fermé a intérêt de ventiler comme un sauvage.
 
L'argument "gain de place" du père Huang est gentil, mais si la carte est inutilisable dans un boitier compact sans impacter fortement la température de fonctionnement des autres composants, ou qu'il est obligatoire de passer au watercooling pour en coller plusieurs dans la même tour, ça perd tout de suite un peu de son intérêt.
 
Bon, après je me doute que celui qui va claquer 5600€ de cartes graphiques a probablement aussi les moyens de passer tout ça sous flotte (quoi que, on bien eu le topic d'un smicard en formation qui comptait en acheter deux [:xenobrandt:5]).


 
Dans l'hypothèse d'un SLI Titan Z, quand on voit les relevés températures fourni par Tridam et notamment comment le port PCI-E prends sévère (et il n'y a pas que lui) pour une carte, en mettre deux  :ouch: c'est un coup à faire cramer la carte mère en 5 min.


---------------
Demain c'est loin
n°9232501
tridam
Profil : Equipe HardWare.fr
Posté le 09-08-2014 à 14:03:52  profilanswer
0Votes positifs
 

Je ne pense pas que ça fasse cramer la carte-mère en 5min, faut pas abuser :o Ce n'est pas idéal pour sa durée de vie c'est clair, mais ce qui est le plus embêtant dans le cadre d'un SLI de GTX Titan Z c'est que la seconde carte graphique va rayonner vers la première qui aura donc plus de mal à se refroidir, ce qui va les performances.  
 
Mais un tel système est de toute manière inadapté à un boîtier classique. Avec deux GTX Titan Z, voire avec une seule, il faut des ventilateurs placés spécifiquement pour aider à leur refroidissement.
 
Sinon concernant la 4K, elle est là, c'est un fait. Après, dans la cadre du jeux vidéo, seule une très petite minorité de joueurs sont équipés et en profiter dans de bonnes conditions dans tous les jeux n'est pas simples. Mais il y a moyen de s'en tirer avec quelques compromis. Jouer en 1080p sur un écran 4K bof. Par contre le 1440p passe plutôt bien en ce qui me concerne.  
 
Après faut-il encore que les jeux offrent une richesse des environnements qui permette de réellement profiter des très hautes résolutions pour autre chose que rendre les coins des murs encore plus nets et tranchants :o Pour moi les jeux les plus riches graphiquement à l'heure actuelle (par exemple Crysis 3) commencent à profiter du 1440p.

n°9232522
Keser
Posté le 09-08-2014 à 14:29:47  profilanswer
0Votes positifs
 

Le 2160p n'est pas utile que pour les graphistes. N'importe qui peut voir la différence entre du 1080p et du 2160p sur un écran 24", on passe d'une résolution de 92dpi à 184dpi.
Ca n'améliorera pas la quantité d'information qu'on pourra afficher mais on gagnera en confort : les polices, les images... tous sera bien plus détaillé.
 
Sinon pour certains jeux comme les fps je préfère également avoir une dalle 24" 1080p pour pouvoir pousser plus facilement les graphismes ou avoir un meilleur framerate.
 
Mais sur certains jeux du genre eve online ou autre mmo il est bénéfique d'avoir une définition plus élevé, ca permet d'afficher plus d'info à l'écran.
Même avec un 27" 1440p je n'ai pas assez d'espace pour tout afficher sur ce genre de jeux, je me verrais bien avec un 47" UHD.
 
Pour les fps on ressentira l'intérêt du 2160p quand les casque virtuel seront sortie.
On peut facilement voir sur ce simulateur de casque virtuel le gain obtenu en passant au 2160p. Pour moi ca sera même indispensable dans quelques années.


Message édité par Keser le 09-08-2014 à 14:33:26
n°9232537
Giulietta2​6
Avanti!!!
Posté le 09-08-2014 à 14:39:44  profilanswer
0Votes positifs
 

tridam a écrit :

Je ne pense pas que ça fasse cramer la carte-mère en 5min, faut pas abuser :o Ce n'est pas idéal pour sa durée de vie c'est clair, mais ce qui est le plus embêtant dans le cadre d'un SLI de GTX Titan Z c'est que la seconde carte graphique va rayonner vers la première qui aura donc plus de mal à se refroidir, ce qui va les performances.  
 
Mais un tel système est de toute manière inadapté à un boîtier classique. Avec deux GTX Titan Z, voire avec une seule, il faut des ventilateurs placés spécifiquement pour aider à leur refroidissement.
 
Sinon concernant la 4K, elle est là, c'est un fait. Après, dans la cadre du jeux vidéo, seule une très petite minorité de joueurs sont équipés et en profiter dans de bonnes conditions dans tous les jeux n'est pas simples. Mais il y a moyen de s'en tirer avec quelques compromis. Jouer en 1080p sur un écran 4K bof. Par contre le 1440p passe plutôt bien en ce qui me concerne.  
 
Après faut-il encore que les jeux offrent une richesse des environnements qui permette de réellement profiter des très hautes résolutions pour autre chose que rendre les coins des murs encore plus nets et tranchants :o Pour moi les jeux les plus riches graphiquement à l'heure actuelle (par exemple Crysis 3) commencent à profiter du 1440p.


 
Tes relevés en monocarte TitanZ sans le mode Uber :
 
http://img4.hostingpics.net/pics/939905IMG0045277.png
 
Quand je vois ce que prennent le port PCIE, les VRM CPU, avec comme tu le fais remarquer le phénomène d'écran lié à une seconde carte, perso j'aurais peur de faire grimper à quasi 90°C des éléments de CM avec le risque de détérioration assez rapide et l'impact sur le fonctionnement du couple CPU/RAM.


---------------
Demain c'est loin
n°9232551
Corleone_6​8
Posté le 09-08-2014 à 14:54:11  profilanswer
0Votes positifs
 

sagittaire a écrit :

 

Rien que le fait de dire que tu as quelque chose "qui ne lag pas en 4K 60Hz en bi-GPU" est quelque peu bizarre car ça "lag" forcément plus ou moins en fait, enfin quand on a un minimum d'acuité visuelle. Oui mais dans ton cas c'est de la branlette intellectuelle. Genre j'ai un plus gros kiki que vous et vous pouvez pas savoir ce que c'est.

 

Et bien si je sais ce que c'est pour l'avoir testé objectivement. On peut pas dire que la 4K soit là pour le jeux actuellement, non pas parce qu'elle n'est pas là techniquement, mais parce qu'elle n'apporte pas de meilleur expérience de jeux par rapport au 1080p. Sur un même écran, avec le meilleur matériel actuel un jeu en 1080p (quality ultra, AA actif) en monoGPU t'apportera une expérience visuelle très supérieur à du 2160p (quality ultra, AA inactif) en BiGPU. Tu pourra sans doute voir une petite différence de détail sur les parties statiques (encore que sur ton écran 4K l'upscaling doit être d'excellente qualité) mais certainement pas dans les parties à fort mouvement où c'est la fluidité qui importe le plus et dans ce domaine la différence est encore abyssale entre du 1080p mono-GPU et du 2160p bi-GPU. Point à ligne.

 

Tu dois être de ceux qui pensent que le 1080p sur 4 pouces c'est forcément mieux pour les smartphones. Et bien non car à partir d'un certain seuil on ne voit plus la différence. On est typiquement dans ce cas en ce qui concerne les écrans PC et TV. On arrive à ce seuil. A mon avis la 4K apportera un gros avantage aux graphistes, pas aux autres. Tu fera sans doute parti des mecs qui vont acheter le premier écran 16K, moi je ferai parti des mecs qui se foutront bien de ta poire parce que tu es le pigeon idéal pour les constructeurs de matériel.

 

Je vais donc te donner un conseil: vire ton second GPU, régle tes jeux en 1080p ou en 1440p (pour ne pas avoir la limite du 60Hz) avec AA actif, régle ton écran 4K pour avoir le meilleur upscaling et fait la comparaison. Cela sera une bien meilleure expérience de jeux pour toi ... ;-)

 
tridam a écrit :

Je ne pense pas que ça fasse cramer la carte-mère en 5min, faut pas abuser :o Ce n'est pas idéal pour sa durée de vie c'est clair, mais ce qui est le plus embêtant dans le cadre d'un SLI de GTX Titan Z c'est que la seconde carte graphique va rayonner vers la première qui aura donc plus de mal à se refroidir, ce qui va les performances.

 

Mais un tel système est de toute manière inadapté à un boîtier classique. Avec deux GTX Titan Z, voire avec une seule, il faut des ventilateurs placés spécifiquement pour aider à leur refroidissement.

 

Sinon concernant la 4K, elle est là, c'est un fait. Après, dans la cadre du jeux vidéo, seule une très petite minorité de joueurs sont équipés et en profiter dans de bonnes conditions dans tous les jeux n'est pas simples. Mais il y a moyen de s'en tirer avec quelques compromis. Jouer en 1080p sur un écran 4K bof. Par contre le 1440p passe plutôt bien en ce qui me concerne.

 

Après faut-il encore que les jeux offrent une richesse des environnements qui permette de réellement profiter des très hautes résolutions pour autre chose que rendre les coins des murs encore plus nets et tranchants :o Pour moi les jeux les plus riches graphiquement à l'heure actuelle (par exemple Crysis 3) commencent à profiter du 1440p.

 

Tu ne te rends pas compte comme je m'en branle de tes attaques personnelle [:cend]
Si je voulais avoir la plus grosse, j'aurais une config Intel, avec un quad de Titan nan tu ne crois pas ? Mais vois tu mes modestes 290 me suffisent [:cend]

 

Concernant l'achat de mon écran je n'ai pas à me justifier surtout face à un mec comme toi.

 

Nan moi j'attends le 8K sur les smartphones de 2 pouces... :O Mais qu'est ce qu'il ne faut pas entendre  :pfff: Je te parle de grandes diagonales ou l'on voit la différence, et toi tu me parle de smartphones ?
A ton avis pourquoi les constructeurs mettent en avant les 4K à partir de 55 pouces environ ? Car sur une plus petite la différence est minime (sur une télé en tout cas sur un moniteur je ne sais pas). Alors toi et ta science infuse, tu veux changer de télé, tu as prévu le budget, tu veux passer sur une grande diagonale, son utilisation principale c'est PC et HC, tu as un faible recul et tu ne change pas de télé tout les 6 mois tu achètes quoi ? Le pigeon serait le mec qui t'écoute en lui conseillant de prendre un 1080P alors que toutes les conditions ont été cernés.

 

Le pire dans tout ca c'est de me dire de virer un gpu et rester en 1080P nan mais trololo quoi, juste parce que tu persiste dans ta connerie et tu ne veux pas avouer avoir tors.

 

Une petite attaque personnelle en vaut une autres non ? Moi je vais te dire en parlant d'avoir le plus gros kiki, tu étale ton diplôme ici avec ce que tu fais, "moi je connais la 4K je bosse dessus vous en savez rien vous"

 

Je vais te dire une chose ce n'est pas parce qu'on ce dit boulanger que l'on sait faire du bon pain..

 

Sur ceux, à bon entendeur, bonne continuation.

 

PS: Tridam [:giz] pour ton dernier post ;)


Message édité par Corleone_68 le 09-08-2014 à 14:55:43

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9232561
DarkHorse
Posté le 09-08-2014 à 15:02:23  profilanswer
0Votes positifs
 

Pourquoi les gens doivent toujours se fritter ici, ce n'est qu'une carte graphique les gens. Chacun fait ce qu'il veut.


---------------
Corvette C5 Coupé owner
n°9232595
seb4771
Posté le 09-08-2014 à 15:29:23  profilanswer
0Votes positifs
 

Pour le 2x titan-Z, doit bien y avoir une cm avec des port pci-e TRES espacés...
 
Je comprend que l'on soit dans la démesure mais sur un banc, c'est déjà + jouable comme install (j'ai pas spécifié dans un boitier, j'chuis pas fou... enfin, pas à ce point :P)
 
Mais quand je vois que 2x r9 295x2 ça fonctionne sans pb (ok, les pilotes arrivent en escargots selon les jeux), on peut se demander si 2x titan-Z valent 2x r9 295x2 (oui là c'est "j'ai la + grosse" style :P).
 
Un futur article sur le jeu en 4k par exemple (idée) en mi-2014, avec un comparo rapide :
 
r9 280x / 290 /290x / 295x2 / 2x 295x2 / 2x 290
770 / 780 / 780ti / titan / titan z / 2x titan-z / 2x 780  
 
On vire les mer.. euh les autres cartes pour voir ça.
on fait l'impasse sur 2x 780ti/290x vu que l'on connait le gain entre les modèles inférieurs.

n°9232606
Giulietta2​6
Avanti!!!
Posté le 09-08-2014 à 15:38:06  profilanswer
0Votes positifs
 

tu peux déjà te faire une idée par ce genre de test http://udteam.tistory.com/585 , certes incomplet (manque les R9 295X2 et Titan) mais il y a l'essentiel entre Hawaï et GK110, tu regardes les sommaires de perfs et de scaling en bas et tu met les prix en face, tu auras encore un autre indice.
 


---------------
Demain c'est loin
n°9232607
tridam
Profil : Equipe HardWare.fr
Posté le 09-08-2014 à 15:38:31  profilanswer
0Votes positifs
 

Giulietta26 a écrit :


 
Tes relevés en monocarte TitanZ sans le mode Uber :
 
http://img4.hostingpics.net/pics/939905IMG0045277.png
 
Quand je vois ce que prennent le port PCIE, les VRM CPU, avec comme tu le fais remarquer le phénomène d'écran lié à une seconde carte, perso j'aurais peur de faire grimper à quasi 90°C des éléments de CM avec le risque de détérioration assez rapide et l'impact sur le fonctionnement du couple CPU/RAM.


 
La seconde Titan Z ne va pas spécialement augmenter la température de tous les composants. Ca risque de ne pas vraiment augmenter au niveau du PCIE1 voire de baisser un poil si le stress supplémentaire réduit la conso de la première cg. Par contre certains contrôleurs, le PCIE2 et le disque dur du bas vont souffrir. Et il y aura globalement plus de chaleur accumulée dans le boîtier ce qui fera grimper la température CPU. Mais encore une fois pour un tel système il faut rajouter de la ventilation spécifique pour les Titan Z.

n°9232609
Giulietta2​6
Avanti!!!
Posté le 09-08-2014 à 15:40:50  profilanswer
0Votes positifs
 

Sacré fournaise à prévoir, c'est peut être en effet l'intérêt de passer par des solutions WC à la manière de la 295X2, et l'HIS Artic IceQ 290X, et encore d'autres.


---------------
Demain c'est loin
n°9232615
Corleone_6​8
Posté le 09-08-2014 à 15:44:35  profilanswer
1Votes positifs
 

tridam a écrit :


 
La seconde Titan Z ne va pas spécialement augmenter la température de tous les composants. Ca risque de ne pas vraiment augmenter au niveau du PCIE1 voire de baisser un poil si le stress supplémentaire réduit la conso de la première cg. Par contre certains contrôleurs, le PCIE2 et le disque dur du bas vont souffrir. Et il y aura globalement plus de chaleur accumulée dans le boîtier ce qui fera grimper la température CPU. Mais encore une fois pour un tel système il faut rajouter de la ventilation spécifique pour les Titan Z.


 
En général ce qui prend le plus en CF/SLI c'est le chipset, enfin sur plateforme AMD en tout cas, sur Intel je ne sais pas ;)


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9232729
manusfreed​om
''Le reste est a venir''
Posté le 09-08-2014 à 17:54:27  profilanswer
0Votes positifs
 

Dans le boitier Cooler Master RC-690 II Advanced, quelle est la configuration des ventilateurs utilisée lors des tests?

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7

Aller à :
Ajouter une réponse
 

Sujets relatifs
Branchement carte mère - carte graphique: câble PCI-EOù sont les ports des ventilateurs sur la carte mère Gigabyte Z97N ?
Carte graphique morte ?Paiement carte CB avec paypal, frais?
Chute/freeze fps Nvidia gt740m[SLI] Need Help lag Gtx 780
Aide carte graphique svp 
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR