Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1490 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7
Auteur Sujet :

[HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test

n°9228422
Bobsteal
Barrez vous cons de mimes !
Posté le 05-08-2014 à 14:29:20  profilanswer
1Votes positifs
 

Reprise du message précédent :
C'est une carte gamer ? :O
Aucun gamer raisonnable n'achèterait une tellle carte vu son prix, à moins d'être extrêmement riche ou de ne pas savoir quoi faire de son argent.

mood
Publicité
Posté le 05-08-2014 à 14:29:20  profilanswer
 

n°9228425
DarkHorse
Posté le 05-08-2014 à 14:32:34  profilanswer
0Votes positifs
 

hyksos_sowo a écrit :


 
Perso, au travail je suis sur un setup 3 écrans full hd et j'aimerais bien remplacer 2 de mes écrans par un 4K ;)


 
Je pense que cela reviendrait moins cher d'acheter un 4e écran FHD qu'un écran 4K... enfin à vue de nez comme ça...


---------------
Corvette C5 Coupé owner
n°9228426
hyksos_sow​o
Posté le 05-08-2014 à 14:32:34  profilanswer
0Votes positifs
 

Oui c'est une carte gamer... d'où le epic fail de NVidia...
Et oui les gamers riches vont se la payer... pour jouer sur leur setup 4k/suround... juste pcq rien sur le marcher ne permet de jouer en ultra sur un tel setup ... même pas la Z ... mais il vont l'acheter quand même ... car se ne sont pas des connaisseurs.... ils vont pour la plus grosse carte les yeux fermer.

n°9228428
hyksos_sow​o
Posté le 05-08-2014 à 14:34:33  profilanswer
0Votes positifs
 

DarkHorse a écrit :

hyksos_sowo a écrit :


 
Perso, au travail je suis sur un setup 3 écrans full hd et j'aimerais bien remplacer 2 de mes écrans par un 4K ;)


 
Je pense que cela reviendrait moins cher d'acheter un 4e écran FHD qu'un écran 4K... enfin à vue de nez comme ça...


4 écrans prend trop de place sur le bureau, et ça devient inconfortable a devoir tourner la tête, alors que sur un écran 4k il faut juste bouger les yeux :)


Message édité par hyksos_sowo le 05-08-2014 à 14:35:04
n°9228431
Oracion
Don't feed the Troll.
Posté le 05-08-2014 à 14:36:37  profilanswer
1Votes positifs
 

Bobsteal a écrit :

C'est une carte gamer ? :O
Aucun gamer raisonnable n'achèterait une tellle carte vu son prix, à moins d'être extrêmement riche ou de ne pas savoir quoi faire de son argent.


C'est bien le marché que vise Nvidia. Les ventes d'Asus pour sa prétendue RoG montrent bien que c'est un marché porteur. Il y a beaucoup de gens qui ne se posent pas de questions, et achètent ce qu'il y a de plus cher pour être assurés (à tort) d'avoir ce qui se fait de mieux. J'ai déjà vu un père dire à sa fille qui se plaignait d'avoir rempli la mémoire de son iphone 8Go: "viens, on va t'en acheter un autre". Pour un cadre qui bosse dans la banque, 600€ c'est comme 6€ pour un smicard. A ce niveau-là, on ne se renseigne pas sur Hfr quand on veut s'acheter un PC "gamer".

n°9228433
The_Untold
Posté le 05-08-2014 à 14:37:25  profilanswer
0Votes positifs
 

Giulietta26 a écrit :


 
http://img4.hostingpics.net/pics/1 [...] Titanz.png
 
En première page de l'article, c'est issu de la comm Nvidia


 
J'ai lu l'article, pourquoi me faire relire ce passage?
 

sagittaire a écrit :


 
Rien que son design prouve indubitablement que ce n'est pas le cas. Certainement qu'aucun pro ne l'achètera. Même son système de refroidissement n'est pas adapté à un usage pro. Les pro, ils achètent le matériel mais aussi et surtout le support qui va avec.
 
Aller pour rire la présentation de NVidia pour la titan Z
http://www.nvidia.fr/object/geforc [...] -z-fr.html
 
et pour comparer la présentation de matériel pro de chez NVidia
http://www.nvidia.fr/object/tesla-server-gpus-fr.html
 
Faudra donc que tu dise a NVidia que leur stratégie commerciale n'est pas la bonne car pour eux c'est avant tout une CG de gamer ... ;-)


 
Nvidia vend des Gforce aux pros depuis des années, j'ai croisé UNE quadro en 10 ans de métier.

n°9228437
The_Untold
Posté le 05-08-2014 à 14:40:36  profilanswer
0Votes positifs
 

J'ai eu à peine le temps de répondre à deux coms, qu'une pluie de mauvaise foi était tombée entre deux.
Pour les softs 3D on utilise à 95% des Geforce.
Depuis quelques années, c'est la domination de Nvidia/Cuda pour les rendus 3D, pareil 95% de Geforce.
 
Vous niez les faits?

n°9228440
Profil sup​primé
Posté le 05-08-2014 à 14:41:25  answer
2Votes positifs
 

The_Untold a écrit :

J'ai eu à peine le temps de répondre à deux coms, qu'une pluie de mauvaise foi était tombée entre deux.
Pour les softs 3D on utilise à 95% des Geforce.
Depuis quelques années, c'est la domination de Nvidia/Cuda pour les rendus 3D, pareil 95% de Geforce.
 
Vous niez les faits?


 
GeForce = gamme gaming
 
Mais bon

n°9228441
The_Untold
Posté le 05-08-2014 à 14:42:10  profilanswer
0Votes positifs
 

Et j'ajoute que les quantités astronomiques de Ram qu'on a sur les CG aujourd'hui, ne sont pas là pour les joueurs... toujours pour CUDA
Sur celle-ci, il faut dire 2x6Go, pas 12 ;)

n°9228457
Neji Hyuga
Modérateur
:grut:
Posté le 05-08-2014 à 14:47:26  profilanswer
1Votes positifs
 

hyksos_sowo a écrit :

Oui c'est une carte gamer... d'où le epic fail de NVidia...
Et oui les gamers riches vont se la payer... pour jouer sur leur setup 4k/suround... juste pcq rien sur le marcher ne permet de jouer en ultra sur un tel setup ... même pas la Z ... mais il vont l'acheter quand même ... car se ne sont pas des connaisseurs.... ils vont pour la plus grosse carte les yeux fermer.


 
Même pour un gamer qui a du fric à dépenser, je ne vois aucun intérêt à acheter une Titan Z quand pour le prix de cette carte bi-GPU tu peux choper trois Titan Black :/
 
Cette carte a le cul entre deux chaises, et l'epic fail c'est surtout son positionnement tarifaire complètement improbable, et je ne parle pas seulement du montant de la facture, mais du principe "deux pour le prix de trois".  
 
La volonté c'était clairement d'en faire un produit ultra élitiste, une vitrine technologique à prix prohibitif, mais malheureusement pour eux AMD leur a coupé l'herbe sous le pied et maintenant ils se rattrapent aux branches comme il le peuvent...


Message édité par Neji Hyuga le 05-08-2014 à 15:09:04

---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
mood
Publicité
Posté le 05-08-2014 à 14:47:26  profilanswer
 

n°9228458
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 14:47:35  profilanswer
3Votes positifs
 

The_Untold a écrit :

Du coup ce serait HYPER intéressant de faire un benchmark Cuda, par exemple la scène BMW de Blender?

 

Cf la première page à ce sujet. Forcément c'est la carte la plus rapide pour du DP en CUDA ... et alors ?

 

Sous Blender (dans lequel un GK110 non bridé en DP est environ 2x plus rapide qu'un GK110 bridé) elle n'en restera pas moins performante que deux Titan Black pour 1/3 de tarif plus, il faut *vraiment* avoir besoin de la densité supplémentaire (on en revient à la conclusion).

Message cité 1 fois
Message édité par Marc le 05-08-2014 à 14:48:51
n°9228461
sagittaire
Posté le 05-08-2014 à 14:49:27  profilanswer
4Votes positifs
 

The_Untold a écrit :

J'ai eu à peine le temps de répondre à deux coms, qu'une pluie de mauvaise foi était tombée entre deux.
Pour les softs 3D on utilise à 95% des Geforce.
Depuis quelques années, c'est la domination de Nvidia/Cuda pour les rendus 3D, pareil 95% de Geforce.
 
Vous niez les faits?


 
1) ben on te parle pas de rendu3D, on te parle de calcul CUDA en GPUCPU
2) encore une fois discute en avec NVidia, leur cible commerciale c'est le jeux et cette CG a été crée pour ça  
3) De plus jamais un pro raisonnablement sérieux ne mettra ça dans un rack ... elle chauffe beaucoup trop avec une extraction de l'air qui n'est pas externe.

Message cité 1 fois
Message édité par sagittaire le 05-08-2014 à 14:52:37
n°9228462
The_Untold
Posté le 05-08-2014 à 14:50:01  profilanswer
1Votes positifs
 

Marc a écrit :


 
Cf la première page à ce sujet. Forcément c'est la carte la plus rapide pour du DP en CUDA ... et alors ?
 
Sous Blender (dans lequel un GK110 non bridé en DP est environ 2x plus rapide qu'un GK110 bridé) elle n'en restera pas moins performante que deux Titan Black pour 1/3 de tarif plus, il faut *vraiment* avoir besoin de la densité supplémentaire (on en revient à la conclusion).


 
Je dois être miro, je ne vois que les tests de jeu?

n°9228468
The_Untold
Posté le 05-08-2014 à 14:51:40  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
1) ben on te parle pas de rendu3D, on te parle de calcul CUDA en GPUCPU
2) encore une fois discute en avec NVidia, leur cible commerciale n'est le jeux et cette CG a été crée pour ça  
3) De plus jamais un pro raisonnablement sérieux ne mettra ça dans un rack ... elle chauffe beaucoup trop avec une extraction de l'air qui n'est pas externe.


 
1) tu te contredis toi-même...
2) Phrase incomplète
3) à voir
 

n°9228470
Giulietta2​6
Avanti!!!
Posté le 05-08-2014 à 14:53:34  profilanswer
1Votes positifs
 

Non mais regarde la page avec les relevés en Thermo IR, et les relevés de Temp fournis il y a 1 page sur le sujet forum par Tridam, il faudrait être fou de mettre ça sur une carte mère.


Message édité par Giulietta26 le 05-08-2014 à 14:54:44

---------------
Demain c'est loin
n°9228480
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 14:59:00  profilanswer
1Votes positifs
 

The_Untold a écrit :

 

Je dois être miro, je ne vois que les tests de jeu?


Tu n'as pas compris mon message.

 

Pas besoin de test sous Blender pour comprendre que les 2 GK110 d'une Titan Z, à 3000 €, auront des perfs moins bonnes que 2 autres GK110 de Titan Black, à 2000 €. Et avec les contraintes thermiques en sus.

 

Dès lors, quels sont tes arguments en faveur de cette carte ?


Message édité par Marc le 05-08-2014 à 15:01:54
n°9228481
The_Untold
Posté le 05-08-2014 à 15:00:25  profilanswer
0Votes positifs
 

Non, aucun bench Cuda dans cet article, aucun moins sur la page des relevés IR...

 

Edit : je répondais à un com effacé depuis, je ne suis pas surpris vu la réponse HS

Message cité 1 fois
Message édité par The_Untold le 05-08-2014 à 15:01:29
n°9228482
sagittaire
Posté le 05-08-2014 à 15:02:46  profilanswer
4Votes positifs
 

The_Untold a écrit :


 
1) tu te contredis toi-même...
2) Phrase incomplète
3) à voir
 


 
1) ben non le CUDA c'est du calcul massivement parallèle et pas du rendu3D. Point barre.
2) encore une fois discute en avec NVidia, leur cible commerciale c'est le jeux et cette CG a été crée pour ça
3) y'a rien a voir du tout. Tu dégages 350 watt dans des boitiers qui sont prévu uniquement pour fonctionner en extraction externe.  
Toute les carte pro sérieuses ont une extraction externe pour ne pas altérer l'intégrité du système.
 
Y'a 10 mecs ici qui te disent que même pour les applications pro, cette CG n'a strictement aucun intérêt et toi tu insistes. Tu aura plus de puissance avec 2 Titan blacks pour 2/3 du prix et moins de problème de (sur)chauffe. Cette CG n'a strictement rien pour elle. CQFD.

n°9228483
Giulietta2​6
Avanti!!!
Posté le 05-08-2014 à 15:03:04  profilanswer
1Votes positifs
 

The_Untold a écrit :

Non, aucun bench Cuda dans cet article, aucun moins sur la page des relevés IR...  
 
Edit : je répondais à un com effacé depuis, je ne suis pas surpris vu la réponse HS


 
http://img4.hostingpics.net/pics/853613413992foucestfou.gif


---------------
Demain c'est loin
n°9228484
The_Untold
Posté le 05-08-2014 à 15:03:29  profilanswer
0Votes positifs
 

Marc, j'aime ce site réputé sérieux, mais là franchement où est l'objectivité dans vos réponses?
 
"pas besoin de test sous CUDA...", dans ce cas ton article est inutile, vu que cette carte n'est pas faite pour les joueurs, comme tout averti le sait.

n°9228487
Giulietta2​6
Avanti!!!
Posté le 05-08-2014 à 15:04:31  profilanswer
1Votes positifs
 

Giulietta26 a écrit :


 
http://img4.hostingpics.net/pics/1 [...] Titanz.png
 
En première page de l'article, c'est issu de la comm Nvidia



---------------
Demain c'est loin
n°9228495
The_Untold
Posté le 05-08-2014 à 15:08:18  profilanswer
0Votes positifs
 

sagittaire a écrit :


 
1) ben non le CUDA c'est du calcul massivement parallèle et pas du rendu3D. Point barre.
2) encore une fois discute en avec NVidia, leur cible commerciale c'est le jeux et cette CG a été crée pour ça
3) y'a rien a voir du tout. Tu dégages 350 watt dans des boitiers qui sont prévu uniquement pour fonctionner en extraction externe.  
Toute les carte pro sérieuses ont une extraction externe pour ne pas altérer l'intégrité du système.
 
Y'a 10 mecs ici qui te disent que même pour les applications pro, cette CG n'a strictement aucun intérêt et toi tu insistes. Tu aura plus de puissance avec 2 Titan blacks pour 2/3 du prix et moins de problème de (sur)chauffe. Cette CG n'a strictement rien pour elle. CQFD.


 
1) ON FAIT DU RENDU 3D SOUS CUDA DEPUIS QUELQUES ANNEES, QUE TU SOIS AU COURANT OU PAS
2) Encore une fois, tu te gourres, mais je m'en fous.
3) à voir, soit dit en passant tu insistes sur ce point alors que ce n'était pas ma question, même si tu as raison.

n°9228497
The_Untold
Posté le 05-08-2014 à 15:09:33  profilanswer
0Votes positifs
 


 
Le mec se fout de moi... avec un Gif animé...

n°9228499
The_Untold
Posté le 05-08-2014 à 15:10:04  profilanswer
1Votes positifs
 

Salut à tous, bonne journée

n°9228501
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 15:11:46  profilanswer
2Votes positifs
 

The_Untold a écrit :

Marc, j'aime ce site réputé sérieux, mais là franchement où est l'objectivité dans vos réponses?

 

"pas besoin de test sous CUDA...", dans ce cas ton article est inutile, vu que cette carte n'est pas faite pour les joueurs, comme tout averti le sait.

Et toi pourquoi tu ne réponds pas à une question simple ? ;)

 

Qu'elle ne soit pas utile pour les joueurs, c'est une chose, il n'en reste pas moins que c'est une carte dans une gamme joueur marketé pour les joueurs fortunés par Nvidia et tous ses partenaires.

 

Et désolé mais oui, pas besoin de test spécifique CUDA pour voir l’évidence, à savoir que 2 GK110 contraints point de vue puissance et thermique (cf. autres tests + specs) à 800 MHz à 3000 € vont moins vite que 2 GK110 à 900 MHz à 2000 €, et que dans tous les cas 3000 € c'est nettement plus que 2000 €. Mais encore une fois j'attends ton argument en faveur de la Titan Z pour CUDA en double précision ?


Message édité par Marc le 05-08-2014 à 15:12:57
n°9228503
The_Untold
Posté le 05-08-2014 à 15:12:28  profilanswer
1Votes positifs
 

Marc, peux-tu supprimer mon compte Stp, je me contenterai de lire à l'avenir.  
Merci

n°9228506
The_Untold
Posté le 05-08-2014 à 15:14:15  profilanswer
1Votes positifs
 

Mais chiotte, j'ai pas d'argument... juste une question simple à la base... maintenant ok j'ai au moins saisi qu'un Sli de 780 ferait mieux.
Efface mon compte, s'il-te-plaît, merci

n°9228512
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 15:17:12  profilanswer
2Votes positifs
 

Il me semble t'avoir répondu pour l'intérêt de cette carte sous Blender :??:

 

Et encore Blender est un cas à part car il semble utiliser le DP ce qui n'est pas le cas de tout les render CUDA d'ou le x2 sur GK110 non bridé vs bridé. Sous d'autres c'est équivalent donc ça ne fait appel qu'à la simple précision.

 

Et sinon à la base tu n'est pas venu avec une question mais avec ça

 
The_Untold a écrit :

Cette carte sert à faire des calculs sous Cuda, c'est bien une carte à destination des pros. Point barre.

 

;)


Message édité par Marc le 05-08-2014 à 15:18:05
n°9228514
The_Untold
Posté le 05-08-2014 à 15:20:22  profilanswer
0Votes positifs
 

Ce qui est tout bonnement la seule vérité à propos de cette machine à gaz de carte grzaphique.
C'est quoi le DP? Parce que lorsque je cite Blender, je pense à tous les moteurs de rendu sous Cuda, Blender étant le plus accessible puisque gratuit.

n°9228517
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 15:23:12  profilanswer
1Votes positifs
 

calcul en double précision


Message édité par Marc le 05-08-2014 à 15:23:26
n°9228523
The_Untold
Posté le 05-08-2014 à 15:25:31  profilanswer
0Votes positifs
 

Il me semble qu'ils utilisent tous le DP, oui.

n°9228525
MasterDav
Posté le 05-08-2014 à 15:29:16  profilanswer
0Votes positifs
 

sagittaire a écrit :

Non pas d'accord, pour l'instant ce n'est que du bricolage inaccessible au consommateur moyen. Donc la 4K n'est pas là.


Et t'es bien sûr un expert diplômé en rétro ingénierie électronique pour énoncer de telles "vérités"  :lol:  
Non, t'es juste quelqu'un qui n'y connait rien, qui ne s'est pas renseigné mais qui de toute façon n'aurait pas compris ce qu'il aurait lu, et qui prétend avoir la science infuse sur le sujet.
 
Moi je vois ça de façon bête et méchante: une GTX780 permet de faire tourner de façon stable un écran 4K à 60fps et ce même dans les jeux peu gourmands: la 4K est bien là.
La majorité des cartes AMD font la même chose mais pour le 1080p, tout en étant incapable de tenir 60fps dans les jeux les plus gourmands, on n'avance pas pour autant que la FHD n'est pas là  :ange:  
 

sagittaire a écrit :

A part quelques cinéma avec du matos récent, tu va avoir du mal à voir des films en 4K. Même tous les masters ne sont pas encore fait en 4K.


Aucun rapport avec la choucroute, on te parle de standard là.
Que les cinémas continuent d'arnaquer les pigeons avec des qualités d'image et son bien dégueulasses, tout comme leurs salles de projection, c'est un autre sujet.
 

sagittaire a écrit :

Oui ils peuvent même tourner en 3X 4K tes jeux mais en pratique très peu d'utilisateur ont le matos pour les faire tourner de façon fluide. A mon avis à l'heure actuelle l'expérience de jeux est très supérieure en 2K à forte fréquence si on compare à du 4K à faible fréquence. Même avec un matériel au top, tu va encore avoir de grosses saccades sur les jeux récents en 4K.


Et alors ? tu crois que quel pourcentage de la population a le matos pour faire tourner de façon fluide ton callof sur PC ?
Encore une fois il n'y a pas de rapport, toute technologie met du temps à se démocratiser, il n'empêche que lorsqu'elle est disponible sur le marché grand public, elle est bel et bien là, point barre.
D'autre part les jeux ne se résument pas à ceux qu'on voit dans les tests, rien que (presque) tous les mmo sont déjà suffisamment légers pour tourner en 4K mono carte.
 

sagittaire a écrit :

Oui avec une techno qui si je ne m'abuse est un pur bricolage.


Tu devrais arrêter de t'abuser, ça rend sourd.  :lol:  
 

sagittaire a écrit :

Oui mais ces codec ne sont adapté au contenu 4K. Le codec HEVC qui lui sera dédié n'est pas encore prèt. Pour connaitre très bien le sujet, je peux te dire qu'aucun PC actuel ne peut encoder ou même decoder rapidement du 4K en HEVC.


x264 est parfaitement adapté, c'est juste qu'il prend de la place en 4K. Et se décode très bien en cpu ou gpu.
x265 est encore en développement, on ne peut pas vraiment déduire quoi que ce soit le concernant.
 

sagittaire a écrit :

C'est cela oui ... une CG avec 2 Go de GDDR5 en 256 bits ... mdr.


Quand tu grandiras et que tu sortiras la tête de ton call of duty, tu réalisera peut-être qu'il y a d'autres utilisations à un PC.  :sarcastic:  
 

sagittaire a écrit :

- On ne peut toujours pas jouer aujourd'hui de manière satisfaisante en 4K même avec du matériel de pointe qui coûte de toute façon un bras


Démontré le contraire.
 

sagittaire a écrit :

- Aucun contenu 4K n'est dispo (encore moins sur youtube) à part des démo techno et c'est pas demain la veille qu'on pourra regarder un film en 4K sur son écran


Démontré aussi le contraire.
 

sagittaire a écrit :

Pour pouvoir le faire correctement il faudra:
- liste de noël


Non, ça c'est pour faire de la 4K de façon fluide pour les jeux gourmands, mais ça j'ai bien peur que ça te dépasse.
Aujourd'hui on peut déjà utiliser la 4K de façon confortable pour la bureautique, la retouche d'image, le coding, les films ou encore les jeux peu gourmands. (liste non exhaustive).
Que ça te plaise ou non.
 

sagittaire a écrit :

Pour finir dans la pratique l'oeil de l'utilisateur moyen ne sera pas aussi sensible blablabla


Si t'a pas suffisamment de puissance de calcul pour te rendre compte du confort d'un écran façon "retina", on y peut rien  :sleep:  
 

NorthMan59 a écrit :

J'ai acheter il y a peu une Tv 55' Chez la FNAC. [...] Après avoir entendu ça d'un expert ça calme.


 :lol:  :lol:  :lol: U made my day  :lol:  :lol:  :lol:  
 

The_Untold a écrit :

J'ai eu à peine le temps de répondre à deux coms, qu'une pluie de mauvaise foi était tombée entre deux.


Bienvenue dans l'antre des fanboys AMD, ici tu ne verras que ça, de la mauvaise foi.
Même le staff s'y met  :sarcastic:

n°9228527
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 15:32:06  profilanswer
1Votes positifs
 

The_Untold a écrit :

Il me semble qu'ils utilisent tous le DP, oui.


Non, il me semble notamment que iRay et Octane sont en simple precision (donc aucun avantage Titan vs 780)


Message édité par Marc le 05-08-2014 à 15:35:40
n°9228529
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 15:32:53  profilanswer
1Votes positifs
 

MasterDav a écrit :


Même le staff s'y met  :sarcastic:

Merci de citer quels messages.

n°9228535
The_Untold
Posté le 05-08-2014 à 15:35:14  profilanswer
0Votes positifs
 

Marc, tu soulèves un point que je connaissais pas, je vais creuser merci!
MasterDav, merci aussi, je me sens moins seul...

n°9228537
Neji Hyuga
Modérateur
:grut:
Posté le 05-08-2014 à 15:35:47  profilanswer
4Votes positifs
 

Se questionner sur l'utilité d'une carte à 3000€ quand au sein de la même gamme, chez le même constructeur, il existe déjà une solution équivalente, voir plus performante pour 1000€ moins cher, c'est du fanboyisme AMD :??:


---------------
Le Topic Unique des collections de cartes graphiques - GPUCHAN.ORG
n°9228540
Giulietta2​6
Avanti!!!
Posté le 05-08-2014 à 15:37:38  profilanswer
2Votes positifs
 

MasterDav a écrit :


 
Moi je vois ça de façon bête et méchante: une GTX780 permet de faire tourner de façon stable un écran 4K à 60fps et ce même dans les jeux peu gourmands: la 4K est bien là.
La majorité des cartes AMD font la même chose mais pour le 1080p, tout en étant incapable de tenir 60fps dans les jeux les plus gourmands, on n'avance pas pour autant que la FHD n'est pas là  :ange:  
 


 
Je me suis arrêté là, tu es au courant que globalement en terme de fps que ce soit en monocarte, multicarte et carte bi-gpu les solutions R9 290(X) s'en sortent mieux sur des hautes résolutions type 3840x2160 que les GTX780(TI).
 
Faut arrêter de tenter de faire passer un message faux.


Message édité par Giulietta26 le 05-08-2014 à 15:40:18

---------------
Demain c'est loin
n°9228649
manusfreed​om
''Le reste est a venir''
Posté le 05-08-2014 à 17:28:21  profilanswer
0Votes positifs
 

Juste des précisions:
- Pro != rack/serveur. Un graphiste/codeur peut avoir une station avec une puissance de calcul locale minimale
- Un carte de jeu ne sert pas forcément à jouer, mais aussi développer dessus pour préparer l'"avenir" et notamment les futurs générations de jeux/hardware (notamment par exemple pour la RAM graphique), surtout quand un développement se passe sur plusieurs années
 
Ex: tech demo montrée sur x SLI/Crossfire 2-3 ans avant la sortie réelle


Message édité par manusfreedom le 05-08-2014 à 17:29:42
n°9228653
sagittaire
Posté le 05-08-2014 à 17:33:56  profilanswer
5Votes positifs
 

Aller je vais me faire plaisir ... mdr
 

Citation :

Et t'es bien sûr un expert diplômé en rétro ingénierie électronique pour énoncer de telles "vérités"  :lol:  
Non, t'es juste quelqu'un qui n'y connait rien, qui ne s'est pas renseigné mais qui de toute façon n'aurait pas compris ce qu'il aurait lu, et qui prétend avoir la science infuse sur le sujet.


 
Non j'ai juste en Master en Informatique et je bosse dans une boite qui m'a chargé de faire de la prospection sur le déploiement de la 4K avec le codec HEVC ... ;-)
 
 

Citation :

Moi je vois ça de façon bête et méchante: une GTX780 permet de faire tourner de façon stable un écran 4K à 60fps et ce même dans les jeux peu gourmands: la 4K est bien là.
La majorité des cartes AMD font la même chose mais pour le 1080p, tout en étant incapable de tenir 60fps dans les jeux les plus gourmands, on n'avance pas pour autant que la FHD n'est pas là


 
Bon là ça va être simple:
- aucun des jeux testé ici ne tourne à 60 fps avec une 780Ti. Encore moins donc avec une GTX 780.
- l'architecture d'AMD est au contraire de plus en plus à l'aise quand on monte en résolution (cf les nombreux test de HFR sur le sujet)
 
 

Citation :

Aucun rapport avec la choucroute, on te parle de standard là.
Que les cinémas continuent d'arnaquer les pigeons avec des qualités d'image et son bien dégueulasses, tout comme leurs salles de projection, c'est un autre sujet.


 
De nombreux blind test ont été réalisé et démontrent que 90% des gens ne voient aucune différence entre la même source en 2K ou 4K. Beaucoup de salles équipées 4K passent même en fait des sources 2K. Enfin bon j'aurai appris que les salles numériques équipés en 2K arnaquait des pigeons. Je peux donc t'annoncer que lorsque tu va voir un film français dans une salle 4K, tu peux probablement te considérer comme un pigeon car cela sera à 95% une source 2K. Force est de constater que toi même tu n'arrives, semble-t-il, même pas à faire la différence.[/quote]
 
 

Citation :

D'autre part les jeux ne se résument pas à ceux qu'on voit dans les tests, rien que (presque) tous les mmo sont déjà suffisamment légers pour tourner en 4K mono carte.


 
Pas de bol, ça j'ai testé aussi. Impossible de jouer en 4K dans un raid ou en jcj massif: le CPU ne suis pas.
 

Citation :


Tu devrais arrêter de t'abuser, ça rend sourd.  :lol:


 
non ça me fait juste plaisir de te ridiculiser ...
 
 

Citation :

x264 est parfaitement adapté, c'est juste qu'il prend de la place en 4K. Et se décode très bien en cpu ou gpu.
x265 est encore en développement, on ne peut pas vraiment déduire quoi que ce soit le concernant.


 
Bon alors là c'est juste ma spécialité ... mdr
1) j'ai testé le x264 pendant tout son developpement de 2006 jusqu'à aujourd'hui, je l'ai testé et évalué de A à Z
2) je teste en ce moment même le x265 sur tout type de contenu
3) non le H264 n'est pas adapté à l'UHD de part son système de partitionnement de trop faible taille
4) Le H265 est un codec qui a été spécialement pensé pour l'encodage en UHD
 
 

Citation :

Quand tu grandiras et que tu sortiras la tête de ton call of duty, tu réalisera peut-être qu'il y a d'autres utilisations à un PC.  :sarcastic:


 
je ne joue pas à call of duty, je l'ai juste testé en 4K. La GTX 680 n'est pas suffisamment puissante pour le 4K car sa quantité de RAM est bien trop faible.
 
 

MasterDav a écrit :


Aucun contenu 4K n'est dispo (encore moins sur youtube) à part des démo techno et c'est pas demain la veille qu'on pourra regarder un film en 4K sur son écran


 
Ah t'as des liens vers du contenu 4K sur Youtube qui n'est pas une demo techno. Aller juste un liens vers un film, une série ou même une pub tiens si tu veux.
J'attends ... mdr
 
 

Citation :

Non, ça c'est pour faire de la 4K de façon fluide pour les jeux gourmands, mais ça j'ai bien peur que ça te dépasse.
Aujourd'hui on peut déjà utiliser la 4K de façon confortable pour la bureautique, la retouche d'image, le coding, les films ou encore les jeux peu gourmands. (liste non exhaustive).
Que ça te plaise ou non.


 
Oui pour les graphiste cela à son utilité mais pas pour le reste. De plus essaye d'encoder une source 4K sur ton PC et on en reparle. Perso au boulot avec un bi-hexa core xeon X5670 avec HT je suis à 2 fps en encodage HEVC (et je suis pas au max de qualité). Et je parle même pas de la puissance de décodage nécessaire à un flux HEVC 4K à 20 Mbps car aucun CPU ne peux actuellement le décoder en temps réel ... :-/
 
 

Citation :

Si t'a pas suffisamment de puissance de calcul pour te rendre compte du confort d'un écran façon "retina", on y peut rien  :sleep:

 
 
Ouai c'est bien pour afficher les photo le retina mais à part ça tout les contenus (vidéo et jeux) sont fortement upscalé. T'es vraiment pas près de jouer en 4K ou même regarder une video 4K sur un écran Retina mon pote. C'est vraiment le pire exemple que tu pouvais trouver ... mdr
 
 

Citation :

AMD, ici tu ne verras que ça, de la mauvaise foi.
Même le staff s'y met  :sarcastic:


 
Tu viens de faire la démo que tu n'y connaissais strictement rien mon petit gars.
Va jouer aux billes et laisse les grandes personnes discuter entre elles ...    :hello:

Message cité 2 fois
Message édité par sagittaire le 05-08-2014 à 17:48:34
n°9228668
MasterDav
Posté le 05-08-2014 à 17:50:41  profilanswer
1Votes positifs
 

Marc a écrit :

MasterDav a écrit :


Même le staff s'y met  :sarcastic:

Merci de citer quels messages.


J'ai en tête un certain dossier sur une carte hors de prix où vous vous êtes bien appliqués à faire les captain obvious sur de multiples pages ne faisant que démontrer son inutilité dans un domaine particulier et passer très brièvement sur ce qui aurait pu être vraiment intéressant.

n°9228669
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 05-08-2014 à 17:52:25  profilanswer
0Votes positifs
 

Vos débats sur la vidéo 4K sont HS et n'ont rien à faire sur ce topic. En informatique les sources en 4K sont bien là (mis à part les soucis de gestion des DPI élevés sous Windows) que ce soit en applicatif pur ou dans les jeux, avec dans ce dernier cas un gros besoin de puissance GPU afin de garder un niveau de détail pertinent (c'est toujours possible de jouer en 4K et en low avec un GPU milieu de gamme mais bon, pourquoi faire :D )

 
sagittaire a écrit :

Pas de bol, ça j'ai testé aussi. Impossible de jouer en 4K dans un raid ou en jcj massif: le CPU ne suis pas.

 

Normalement l'augmentation de la résolution n’entraîne pas une hausse de la charge CPU, ce n'est pas le cas entre 640*480 et 1280*960 (par exemple). Tu es bien certain de ce que tu avances ?


Message édité par Marc le 05-08-2014 à 18:13:40
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7

Aller à :
Ajouter une réponse
 

Sujets relatifs
Branchement carte mère - carte graphique: câble PCI-EOù sont les ports des ventilateurs sur la carte mère Gigabyte Z97N ?
Carte graphique morte ?Paiement carte CB avec paypal, frais?
Chute/freeze fps Nvidia gt740m[SLI] Need Help lag Gtx 780
Aide carte graphique svp 
Plus de sujets relatifs à : [HFR] Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR