Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3448 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3
Auteur Sujet :

Jouer en Full Graphique 4K

n°9240250
kilidan
Posté le 16-08-2014 à 16:37:38  profilanswer
 

Reprise du message précédent :
Arrêtez de lui répondre laissez le dans son délire, rien de ce que vous lui écrirez ne lui fera voir autre chose que ce qu'il pense !!!

mood
Publicité
Posté le 16-08-2014 à 16:37:38  profilanswer
 

n°9240282
proximacen​tauri
Posté le 16-08-2014 à 17:20:35  profilanswer
 


 
Entre Windows8 et 8.1, il y a déjà eu des innovations en vue d'apporter une solution a ce problème, comme l'indique ce lien :
http://blogs.windows.com/bloggingw [...] ancements/
 
Après, cela peut très bien se peaufiner avec quelques réglages utilisateur.

n°9240285
Corleone_6​8
Posté le 16-08-2014 à 17:22:37  profilanswer
 

Ybendal a écrit :

Corleone_68 relis ton test et tu remarquera qu'ils prefere ne pas utiliser les filtres style le msaa sur bf4 , le AA sur Crysis 3 ou les nvidia font mieux pas tres impartial de leurs part...
et je ne crois pas qu'ils utiline le physX
 
compare les deux test et tu verras  
 
apres perso nvidia ou ati sa me passe par dessu...


 
 :??: S'ils activent les filtres c'est pareil pour les 2 constructeurs ca chute des 2 côtés donc je ne vois pas ou est le problème ca revient exactement au même...
 
A ce compte là ils auraient pu utiliser Mantle sous BF4 pour les cartes AMD, mais ils ne l'ont pas fait...
 
Et ce qu'il faut savoir c'est que l'avantage du uhd c'est que tu peux te passer des filtres ou voir très léger dû à la résolution. Ca ne sert à rien de mettre du 16X ca ne change plus rien.
 
J'ai beau relire pour chaque jeux je ne vois pas ou les cartes nV s'envole  :??:  
 

Citation :

Même si le résultat n'est pas parfait, l'avantage est globalement à la Radeon R9 295X2, qui profite entre autre d'un niveau de performances plus élevé.  
 
La Radeon R9 295X2 ou les systèmes multi-cartes à base de R9 290X, ne souffrent d'aucun problème particulier de régularité de la cadence d'affichage. Nous sommes donc loin des résultats désastreux de la Radeon HD 7990 à son lancement.
 
Nous avons cependant l'impression que les mécanismes d'optimisation de la régularité du cadencement, en général particulièrement efficaces chez Nvidia, éprouvent plus de difficulté en très hautes résolutions, ce qui pourrait être lié au fait que le transfert entre GPU d'une image 4K prend plus de temps
.


 
Donc faudrait peu être arrêter la désinformation et les légendes urbaine sur les drivers AMD. Ca merde des 2 coté mais de là à dire que c'est merdique du coté des rouges fait arrêter, la preuve du contraire au dessus...
 
Car on parle bien de CF/SLI ? Il faut ca pour tourner en uhd.
 
R9 290 tri-X OC arrondis (au dessus) à 350, un CF à 700 euros.
780 Ti il y a différents prix mais on va prendre une moyenne de 600 euros, un SLI à 1200 euros..
 
Le CF reste au dessus en performance et prix...
 
Je répète il n'y a toujours pas photos...  :heink:


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9240298
proximacen​tauri
Posté le 16-08-2014 à 17:39:29  profilanswer
 

kilidan a écrit :

Arrêtez de lui répondre laissez le dans son délire, rien de ce que vous lui écrirez ne lui fera voir autre chose que ce qu'il pense !!!


 
Qu'en sais tu ?  :sarcastic:  
Le fait de prêter a des gens que l'on ne connait pas ses propres dispositions d'esprit ne peut reposer que sur une projection.

n°9240324
bugfx32
Posté le 16-08-2014 à 18:26:41  profilanswer
 


 
Merci pour la rigolade, je suis graphiste pour info, et des eizo j'en ai eu...  
C'est pas un critère en jeux c'est vrai, comme des couleurs bien calibrées, le seul vrai critère en jeux c'est la rémanence et le ghosting... mais si on habituai les gens à des images de qualité des le début ça changerai peut être.
Mais vu que l’écran type du joueur c'est du tn de merde faut pas s’étonner...
 
Sinon effectivement les eizo, (la serie des CG) comme les flexscan de nec, font partie des meilleurs écrans, mais ça n’empêche que leur contraste sont pourri. Ce qui est normal parce que la techno ips peut difficilement faire mieux. (pas pour rien que dans la milieu médical on utilise des dalles VA pour de meilleur contraste)
Et donc? Espérer voir débarquer des écrans sans les problèmes de rémanence, de contraste et avec des couleurs eu poile c'est mal? Oui vaux mieux avoir du 4k sur des bonnes dalle de merde..  
Ça me rappel l’époque des APN et la course au megapixel...  
 
Ha oui et prendre les gens de haut ça a jamais été le bon plan.


---------------
Ryzen 7800x / Strix 670E  / 64go Gskill / 6 To SSD /Suprim 4080 super / Msi MEG 1300 / Full Watercooling
n°9240335
Ybendal
Posté le 16-08-2014 à 18:53:01  profilanswer
 

ok donc comparons peut plus précisément

 

Test de hardware.fr pour Crysis 3 réglage en HIGH sans AA :
.http://www.hardware.fr/getgraphimg.php?id=24&n=4

 

Le test de clubic Tout en EXTREME et FXAA Activé pour crysis 3 :

 

http://img.clubic.com/07287308-photo-radeon-r9-295x2-crysis-3.jpg

 

BF4 chez hardware.fr Ultra pas de MSAA:

 

http://www.hardware.fr/getgraphimg.php?id=24&n=3

 

Bf4 chez clubic en ULTRA MSAAx4 :

 

http://img.clubic.com/07287310-photo-radeon-r9-295x2-battlefield-4.jpg

 

Farcry 3 chez hardware
http://www.hardware.fr/getgraphimg.php?id=24&n=5

 

Tout au max chez clubic :
http://img.clubic.com/07287320-photo-radeon-r9-295x2-far-cry-3.jpg

 

et clubic a pas testé tout les jeux qu'il y a chez hardware mais je crois qu on aurai pu continuer...

 

Bref oui le crossfire de 290x Fonctionne tres bien je ne l ai jamais nier et oui c est moins cher je l ai pas nier et je l ai même déjà dit
Mais quand on leurs tire vraiment dessus les nvidia tienne mieux

 

Corleone_68 tu nous dit donc :

 

Donc faudrait peu être arrêter la désinformation et les légendes urbaine sur les drivers AMD. Ca merde des 2 coté mais de là à dire que c'est merdique du coté des rouges fait arrêter, la preuve du contraire au dessus...

 


Venant de clubic pour les pilotes amd :

 


Il y a quelques mois nous explorions déjà la problématique des écrans 4K au travers du test du moniteur Asus PQ321 (voir Asus PQ321 : test du 1er moniteur 4K grand public). Pour véhiculer un signal 4K, il faut passer par une connectique DisplayPort (en attendant le HDMI 2.0) avec la nécessité d'utiliser une connectique DisplayPort 1.2 pour profiter du 60 Hz. Faute de quoi on retombe en 30 Hz. Si chez NVIDIA l'affiche 4K en 60 Hz se fait de façon transparente, chez AMD cela pose quelques soucis.

 

En fait s'il n'est plus nécessaire de créer un groupe d'écran EyeFinity comme avec de précédents pilotes, les jeux ont du mal à s'exécuter convenablement. Hitman Absolution tourne en 1920x2160 n'occupant donc que la moitié de l'écran bien qu'il soit réglé en 3 840x2 160 alors que Crysis 3 est réglé pour s'exécuter dans cette résolution, mais tourne en réalité en 800x600 sans possibilité d'effectuer des réglages dans les écrans d'options : le clic souris ne fonctionnant plus pas plus que la touche entrée du clavier. Bref… Chez AMD le 4K en 60 Hz c'est un peu la galère, alors que cela marche sans broncher chez NVIDIA.

 

Edit :

 
Citation :

Et ce qu'il faut savoir c'est que l'avantage du uhd c'est que tu peux te passer des filtres ou voir très léger dû à la résolution. Ca ne sert à rien de mettre du 16X ca ne change plus rien.

 

La 4k est pas la pour se passer des filtres c est juste pour pouvoir utiliser des écrans plus grand tout en gardant le même éloignement qu'un écran plus petit

 


les bench confirme se que je dit aussi pour le G-sync car on vois bien qu'il est dur d ateindre les 60hz avec les graphisme au max c'est donc un plus pour Nvidia car dans le test de Hardware ils en parle même pas dans leurs "résultat de confort" alors que sa permet de jouer fluide même en dessous de 60HZ

 

Et le prix de Nvidia se justifie par se genre de technologie comme le physX ils doivent donc figurer dans les bench car elles apportes bcp

 

Du coup bofbof pour le test de Hardware.fr surtout qu'ils on essayer de faire une estimation de la fluidité l oubli de G-sync est grave selon moi !

Message cité 2 fois
Message édité par Ybendal le 16-08-2014 à 20:12:30
n°9240390
Profil sup​primé
Posté le 16-08-2014 à 19:54:08  answer
 

bugfx32 a écrit :


 
Merci pour la rigolade, je suis graphiste pour info, et des eizo j'en ai eu...  
C'est pas un critère en jeux c'est vrai, comme des couleurs bien calibrées, le seul vrai critère en jeux c'est la rémanence et le ghosting... mais si on habituai les gens à des images de qualité des le début ça changerai peut être.
Mais vu que l’écran type du joueur c'est du tn de merde faut pas s’étonner...
 
Sinon effectivement les eizo, (la serie des CG) comme les flexscan de nec, font partie des meilleurs écrans, mais ça n’empêche que leur contraste sont pourri. Ce qui est normal parce que la techno ips peut difficilement faire mieux. (pas pour rien que dans la milieu médical on utilise des dalles VA pour de meilleur contraste)
Et donc? Espérer voir débarquer des écrans sans les problèmes de rémanence, de contraste et avec des couleurs eu poile c'est mal? Oui vaux mieux avoir du 4k sur des bonnes dalle de merde..  
Ça me rappel l’époque des APN et la course au megapixel...


 
un peu contradictoire non?  tu commences par dire qu'il font partis des meilleurs écrans pour ensuite dire que leur contraste est pourri..... donc j'en reviens à ce que je disais : le contraste est loin d'être un critère important en informatique pour la majortié des utilisations, sinon tu ne dirais pas que les eizo CG font parti des meilleurs écrans.  
 
 

bugfx32 a écrit :

Ha oui et prendre les gens de haut ça a jamais été le bon plan.


 
je n'ai pris personne de haut.  
et de la part d'un graphiste, il est étonnant que tu critiques le contraste. Mon eizo CG envoit du très lourd en utilisation photo / internet / bureautique / jeux


Message édité par Profil supprimé le 16-08-2014 à 19:59:42
n°9240479
bugfx32
Posté le 16-08-2014 à 21:26:26  profilanswer
 

Çà fait partie des meilleurs mais ça n’empêche pas d'avoir une caractéristique qui est foireuse, faute de faire mieux.
Ça veux pas dire qu'en s'en fou, juste qu'à un certain tarif on peut/veux pas faire mieux.
 
Je le critique parce qu'on pourrai avoir bien mieux si les industriels ce bougeaient le c** au lieu de faire une course au pixel qui est pas des plus utiles.


---------------
Ryzen 7800x / Strix 670E  / 64go Gskill / 6 To SSD /Suprim 4080 super / Msi MEG 1300 / Full Watercooling
n°9240482
Profil sup​primé
Posté le 16-08-2014 à 21:29:53  answer
 

bugfx32 a écrit :

Çà fait partie des meilleurs mais ça n’empêche pas d'avoir une caractéristique qui est foireuse, faute de faire mieux.
Ça veux pas dire qu'en s'en fou, juste qu'à un certain tarif on peut/veux pas faire mieux.
 
Je le critique parce qu'on pourrai avoir bien mieux si les industriels ce bougeaient le c** au lieu de faire une course au pixel qui est pas des plus utiles.


 
la course aux pixels sur les moniteurs, elle est temps qu'elle arrive au contraire!!
ca fait 10-12 ans qu'on se tape du 90 - 100 DPI, ce qui est juste assez minable, surtout en comparaison aux smartphones / tablettes qui montent sans problème vers 250 - 300 DPI.
j'en ai marre de voir des escaliers sur les caractères, avec des dalles 4k en 24 pouces on sera proche de 200 DPI, ca serait trèèès bien et enfin propre!


Message édité par Profil supprimé le 16-08-2014 à 21:31:13
n°9240488
Corleone_6​8
Posté le 16-08-2014 à 21:39:09  profilanswer
 

Ybendal a écrit :

ok donc comparons peut plus précisément  
 
Test de hardware.fr pour Crysis 3 réglage en HIGH sans AA :
.http://www.hardware.fr/getgraphimg.php?id=24&n=4
 
Le test de clubic Tout en EXTREME et FXAA Activé pour crysis 3 :
 
http://img.clubic.com/07287308-pho [...] ysis-3.jpg
 
BF4 chez hardware.fr Ultra pas de MSAA:
 
http://www.hardware.fr/getgraphimg.php?id=24&n=3
 
Bf4 chez clubic en ULTRA MSAAx4 :
 
http://img.clubic.com/07287310-pho [...] ield-4.jpg
 
Farcry 3 chez hardware
http://www.hardware.fr/getgraphimg.php?id=24&n=5
 
Tout au max chez clubic :
http://img.clubic.com/07287320-pho [...] -cry-3.jpg
 
et clubic a pas testé tout les jeux qu'il y a chez hardware mais je crois qu on aurai pu continuer...
 
Bref oui le crossfire de 290x Fonctionne tres bien je ne l ai jamais nier et oui c est moins cher je l ai pas nier et je l ai même déjà dit  
Mais quand on leurs tire vraiment dessus les nvidia tienne mieux
 
Corleone_68 tu nous dit donc :
 
Donc faudrait peu être arrêter la désinformation et les légendes urbaine sur les drivers AMD. Ca merde des 2 coté mais de là à dire que c'est merdique du coté des rouges fait arrêter, la preuve du contraire au dessus...  
 
 
Venant de clubic pour les pilotes amd :
 
 
Il y a quelques mois nous explorions déjà la problématique des écrans 4K au travers du test du moniteur Asus PQ321 (voir Asus PQ321 : test du 1er moniteur 4K grand public). Pour véhiculer un signal 4K, il faut passer par une connectique DisplayPort (en attendant le HDMI 2.0) avec la nécessité d'utiliser une connectique DisplayPort 1.2 pour profiter du 60 Hz. Faute de quoi on retombe en 30 Hz. Si chez NVIDIA l'affiche 4K en 60 Hz se fait de façon transparente, chez AMD cela pose quelques soucis.
 
En fait s'il n'est plus nécessaire de créer un groupe d'écran EyeFinity comme avec de précédents pilotes, les jeux ont du mal à s'exécuter convenablement. Hitman Absolution tourne en 1920x2160 n'occupant donc que la moitié de l'écran bien qu'il soit réglé en 3 840x2 160 alors que Crysis 3 est réglé pour s'exécuter dans cette résolution, mais tourne en réalité en 800x600 sans possibilité d'effectuer des réglages dans les écrans d'options : le clic souris ne fonctionnant plus pas plus que la touche entrée du clavier. Bref… Chez AMD le 4K en 60 Hz c'est un peu la galère, alors que cela marche sans broncher chez NVIDIA.
 
Edit :
 

Citation :

Et ce qu'il faut savoir c'est que l'avantage du uhd c'est que tu peux te passer des filtres ou voir très léger dû à la résolution. Ca ne sert à rien de mettre du 16X ca ne change plus rien.


 
La 4k est pas la pour se passer des filtres c est juste pour pouvoir utiliser des écrans plus grand tout en gardant le même éloignement qu'un écran plus petit
 
 
les bench confirme se que je dit aussi pour le G-sync car on vois bien qu'il est dur d ateindre les 60hz avec les graphisme au max c'est donc un plus pour Nvidia car dans le test de Hardware ils en parle même pas dans leurs "résultat de confort" alors que sa permet de jouer fluide même en dessous de 60HZ
 
Et le prix de Nvidia se justifie par se genre de technologie comme le physX ils doivent donc figurer dans les bench car elles apportes bcp
 
Du coup bofbof pour le test de Hardware.fr surtout qu'ils on essayer de faire une estimation de la fluidité l oubli de G-sync est grave selon moi !


 
Déjà le gros problème de l'histoire, ce que tu te base sur des tests de clubic... Si tu suivais les différents topic CG tu verrais que plus personne ne leur donne de valeurs tellement les tests sont foiré ou résultats incohérent... Va dire à HFR qu'ils font mal leur tests on va bien rire  :lol:  
De plus ton test date de Avril.
 
C'est ballot d'avoir un moniteur hors de prix avec une connectique hdmi 1.4... Sur une tv uhd HDMI 2.0 ca fonctionne...
De plus pour ceux qui ont d'éventuelle problèmes avec le DP1.2 c'est réglé avec de nouveaux drivers plus récent... Comme quoi il faut être à jour...
 
Encore heureux qu'ils n'utilisent pas physX vu qu'il n'y a que les CG nV qui peuvent l'utiliser... A ce compte là il faut utiliser aussi Mantle, et la les R9 prennent de l'avance...
 
Et apparemment non ce n'est pas fluide comme tu le crois...
 
Concernant le 4K c'est pas un peu ce que je dis nan ?
 
Une résolution uhd te permet d'avoir une grande diagonale sans grand recul.. Faut savoir qu'avec une telle résolution tu ne pourra plus avoir un recul aussi important qu'avec un 1080P pour une utilisation optimal... Pour un 55 pouces on parle d'un recul maxi de 2 mètres.
Donc oui vu la résolution et le pitch tu peux te passer de filtres ou alors 2x suffisent vu que l'image est plus net grâce à la résolution..


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
mood
Publicité
Posté le 16-08-2014 à 21:39:09  profilanswer
 

n°9240503
Profil sup​primé
Posté le 16-08-2014 à 22:04:41  answer
 

Corleone_68 a écrit :


 
Déjà le gros problème de l'histoire, ce que tu te base sur des tests de clubic... Si tu suivais les différents topic CG tu verrais que plus personne ne leur donne de valeurs tellement les tests sont foiré ou résultats incohérent... Va dire à HFR qu'ils font mal leur tests on va bien rire  :lol:  
De plus ton test date de Avril.
 
C'est ballot d'avoir un moniteur hors de prix avec une connectique hdmi 1.4... Sur une tv uhd HDMI 2.0 ca fonctionne...
De plus pour ceux qui ont d'éventuelle problèmes avec le DP1.2 c'est réglé avec de nouveaux drivers plus récent... Comme quoi il faut être à jour...
 
Encore heureux qu'ils n'utilisent pas physX vu qu'il n'y a que les CG nV qui peuvent l'utiliser... A ce compte là il faut utiliser aussi Mantle, et la les R9 prennent de l'avance...
 
Et apparemment non ce n'est pas fluide comme tu le crois...
 
Concernant le 4K c'est pas un peu ce que je dis nan ?
 
Une résolution uhd te permet d'avoir une grande diagonale sans grand recul.. Faut savoir qu'avec une telle résolution tu ne pourra plus avoir un recul aussi important qu'avec un 1080P pour une utilisation optimal... Pour un 55 pouces on parle d'un recul maxi de 2 mètres.
Donc oui vu la résolution et le pitch tu peux te passer de filtres ou alors 2x suffisent vu que l'image est plus net grâce à la résolution..


 
C'est faux....
 
si on parle informatique, aucun rapport entre le recul et la résolution. le recul peut parfaitement être le même en 4K qu'en 1080P et dans les 2 cas ce recul sera optimal. Exemple très concret : les téléphone portables. Sur un bon vieux nokia 3310 d'il y a 10 ans ton recul était grosso modo le même qu'aujourd'hui avec un smartphone. la différence étant que sur un smartphone le rendu est ultra propre grace à un DPI plus élevé.

n°9240536
Corleone_6​8
Posté le 16-08-2014 à 22:38:37  profilanswer
 

 

Ok t'as raison !   :sarcastic:

 

Je vais te donner un exemple concret et tu peux même le faire gratuitement en magasin si tu n'as pas le matos à la maison.

 

Mets à moins de 2 mètres d'un 55 pouces 1080P et d'un 55 pouces UHD et on en reparle...

 

Je vois la différence, je suis assis a moins de 2 mètres quand je joue ou bureautique

 
Citation :

Le gain ne sera donc perçu qu'à très courte distance de visionnage. C'est toujours intéressant pour ceux qui sont du genre à regarder l'image avec 2 mètres de recul

 

http://www.lesnumeriques.com/tv-te [...] a1832.html

 

C'est un article pris au pif permis tant d'autres qui en parle, ce n'est pas comme si je l'avais inventé..

 

Enfin bref c'est pas le sujet non plus ca part de travers.

Message cité 1 fois
Message édité par Corleone_68 le 16-08-2014 à 22:39:09

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9240542
Profil sup​primé
Posté le 16-08-2014 à 22:44:48  answer
 

Corleone_68 a écrit :


 
Ok t'as raison !   :sarcastic:  
 
Je vais te donner un exemple concret et tu peux même le faire gratuitement en magasin si tu n'as pas le matos à la maison.
 
Mets à moins de 2 mètres d'un 55 pouces 1080P et d'un 55 pouces UHD et on en reparle...
 
Je vois la différence, je suis assis a moins de 2 mètres quand je joue ou bureautique
 

Citation :

Le gain ne sera donc perçu qu'à très courte distance de visionnage. C'est toujours intéressant pour ceux qui sont du genre à regarder l'image avec 2 mètres de recul


 
http://www.lesnumeriques.com/tv-te [...] a1832.html
 
C'est un article pris au pif permis tant d'autres qui en parle, ce n'est pas comme si je l'avais inventé..
 
Enfin bref c'est pas le sujet non plus ca part de travers.


 
je te parle pas d'usage TV, je parle d'utilisation moniteur informatique, ce qui n'a rien à voir...
 
et c'est quoi au final ta conclusion? qu'avec un écran 4K il faudra être super proche de l'écran avec un 24 / 27 pouces? c'est ca?  
 
au passage, merci d'éviter les smileys sarccastic à 2 balles..... j'ai été correct, sois de même.

Message cité 1 fois
Message édité par Profil supprimé le 16-08-2014 à 23:44:41
n°9240544
Profil sup​primé
Posté le 16-08-2014 à 22:45:57  answer
 

Citation :

Mets à moins de 2 mètres d'un 55 pouces 1080P et d'un 55 pouces UHD et on en reparle...
 
Je vois la différence, je suis assis a moins de 2 mètres quand je joue ou bureautique


 
 
en 55 pouces en jeux à 2m, c'est impossible de faire la différence entre HD et UHD, en film pareil.
grosso modo il faut être à 1m pour faire la différence, pas bcp plus.
 

Message cité 1 fois
Message édité par Profil supprimé le 16-08-2014 à 22:55:49
n°9240570
Corleone_6​8
Posté le 16-08-2014 à 23:04:39  profilanswer
 


 
 
 
Partant du principe que la uhd est intéressante que sur les grandes diagonales, perso je ne vois pas le but d'un moniteur uhd sachant que sur ces derniers ce sont en général des petites diagonale.
 
Plus la diagonale est grande moins est le DPI. C'est pour cela que la uhd devient intéressante à partir de 50 55 pouces, c'était d'ailleurs la taille minimal des premières TV uhd, alors qu'en générale c'est l'inverse.
 
Pour rappelle le DPI ce calcul par apport à la résolution native et la taille de la diagonale.
 
Plus la diagonale est grande plus le DPI baisse donc entre un 55 FullHD et UHD je t'assure que tu vois la différence... Bref je n'ai pas a te convaincre je t'explique mon utilisation de tout les jours et comment je perçois les choses..


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9240583
Profil sup​primé
Posté le 16-08-2014 à 23:24:30  answer
 

Corleone_68 a écrit :


 
Partant du principe que la uhd est intéressante que sur les grandes diagonales, perso je ne vois pas le but d'un moniteur uhd sachant que sur ces derniers ce sont en général des petites diagonale.

Plus la diagonale est grande moins est le DPI. C'est pour cela que la uhd devient intéressante à partir de 50 55 pouces, c'était d'ailleurs la taille minimal des premières TV uhd, alors qu'en générale c'est l'inverse.
 
Pour rappelle le DPI ce calcul par apport à la résolution native et la taille de la diagonale.
 
Plus la diagonale est grande plus le DPI baisse donc entre un 55 FullHD et UHD je t'assure que tu vois la différence... Bref je n'ai pas a te convaincre je t'explique mon utilisation de tout les jours et comment je perçois les choses..


 
tu ne vois pas le but d'un moniteur UHD???? pourtant l'intérêt est juste ENORME! Pour toi les moniteurs actuels 24 pouces sont donc au top question définition en 1920x1080???  
les 24 pouces sont à 90 DPI, ce qui est juste minable si on tient compte du recul (environ 40-60cm) et des capacités de l'oeil à ce recul (dans les 150 DPI de mémoire, donc il y a de la marge.... )
 
mon 24 pouces en 1920x1200 est donc en 90 DPI.  
j'ai un portable en 13 pouces en 1920x1080, donc en 160 DPI. et la différence est juste ENORME. je rêve du même nombre de DPI sur mon 24 pouces, et je ne suis pas le seul...
perso des grandes tailles pour un usage informatique, je m'en fou, 24 pouces ca me convient très bien, au plus grand 27, mais pas plus. et un 24 pouces en UHD, c'est 180 DPI..... le rêve pour beaucoup de monde.  
 

Citation :

Plus la diagonale est grande plus le DPI baisse donc entre un 55 FullHD et UHD je t'assure que tu vois la différence... Bref je n'ai pas a te convaincre je t'explique mon utilisation de tout les jours et comment je perçois les choses..


 
un 55 pouces HD, c'est 40 DPI.
en UHD, ton 55 pouces est en 80 DPI.
 
Hors 80 DPI, ca correspond à 1m maximal pour l'oeil. au dela de ce recul, tu ne fais plus la différence.  
il se trouve que j'ai eu l'occasion de voir au Japon plusieurs comparaisons HD / UHD en 50 - 55 pouces. et ca confirme exactement cette théorie : a plus de 1m environ, je ne faisais aucune différence sur un film, mais aucune.  
 
l'intérêt de l'UHD est donc soit pour les moniteurs, soit pour les très grandes tailles de TV (65 pouces et plus, et encore en ayant un petit recul...)


Message édité par Profil supprimé le 16-08-2014 à 23:32:57
n°9240590
master71
ça manque de place.
Posté le 16-08-2014 à 23:29:15  profilanswer
 

déjà qu'au ciné tu ne vois pas la différences entre une source 2K et une source 4K...


---------------
un jour, moi aussi, je serais grand...
n°9240592
Profil sup​primé
Posté le 16-08-2014 à 23:30:53  answer
 

master71 a écrit :

déjà qu'au ciné tu ne vois pas la différences entre une source 2K et une source 4K...


 
grosso modo ca dépend si tu as assis au premier rang ou au fond et ca dépend de la taille de l'écran et du recul des premiers et des derniers sièges
 
 
:D


Message édité par Profil supprimé le 16-08-2014 à 23:34:34
n°9240610
master71
ça manque de place.
Posté le 16-08-2014 à 23:56:22  profilanswer
 

la plus grande salle de Rouen et au fond comme toujours :)
je veux voir tout l'écran, et pas devoir tourner la tête et manquer des trucs...


Message édité par master71 le 17-08-2014 à 00:09:20

---------------
un jour, moi aussi, je serais grand...
n°9240945
Fly2thesky
Posté le 17-08-2014 à 13:16:57  profilanswer
 

oui donc en gros , même avec un CF de 290 ou sli de 780 : jouer en 4k aux derniers jeux , c'est possible autour de 30-40-50fps

 


Mais sans activer l' AA

  


:pt1cable: :pt1cable: :pt1cable: :lol: :lol: :lol: :lol: :lol:

 


Ceux qui veulent jouer en 4K sans y mettre le bon budget adéquat pour l'instant n'ont rien compris à la vie :o

 


PS. : jouer en 30 fps.... " LOL "

 

50-60 minimum pour un gamer qui se respecte


Message édité par Fly2thesky le 17-08-2014 à 13:20:23
n°9241000
master71
ça manque de place.
Posté le 17-08-2014 à 14:12:28  profilanswer
 

perso je joue à 8 à 60fps (limité par la V-Synch), avec un bon 24fps de moyenne, suivant la zone et la population, pas de soucis…


---------------
un jour, moi aussi, je serais grand...
n°9241004
Profil sup​primé
Posté le 17-08-2014 à 14:17:59  answer
 

master71 a écrit :

perso je joue à 8 à 60fps (limité par la V-Synch), avec un bon 24fps de moyenne, suivant la zone et la population, pas de soucis…


 
pas terrible 24 de moyenne......  :sweat:

n°9241073
master71
ça manque de place.
Posté le 17-08-2014 à 16:08:11  profilanswer
 

oui mais c'est un MMORPG qui va atteindre ses 10 ans, à l'époque tout reposait sur le processeur, en mono-core, avec des CGs rudimentaires...
le jeu a appris à utiliser une seconde thread, mais c'est tout...
mon processeur est exploité à 20% quand je ne fais que jouer, et ma CG à peine à 15%...
 
les FPS sont celles calculées par le processeur, l'affichage lui étant toujours à 60ips.
 
c'est parfaitement jouable
mais quand y a 24 joueurs, plus les pets et la tripotée de mobs RAID sur l'écran, c'est flashy :)


---------------
un jour, moi aussi, je serais grand...
n°9241158
mrdoug
Posté le 17-08-2014 à 17:51:25  profilanswer
 

master71 a écrit :

oui mais c'est un MMORPG qui va atteindre ses 10 ans, à l'époque tout reposait sur le processeur, en mono-core, avec des CGs rudimentaires...
le jeu a appris à utiliser une seconde thread, mais c'est tout...
mon processeur est exploité à 20% quand je ne fais que jouer, et ma CG à peine à 15%...

 

les FPS sont celles calculées par le processeur, l'affichage lui étant toujours à 60ips.

 

c'est parfaitement jouable
mais quand y a 24 joueurs, plus les pets et la tripotée de mobs RAID sur l'écran, c'est flashy :)

 

Wow est un jeu particulièrement mal optimisé je trouve. (Idem pour D3 qui rame sur certaines cartes sans aucune raison...)
Cependant, il semblerait qu'il y a une bonne amélioration avec WOD. Certains retours de la beta disent qu'il y a quelques IPS en plus pour une grosse avancée graphiquement.


Message édité par mrdoug le 17-08-2014 à 17:51:59
n°9241322
master71
ça manque de place.
Posté le 17-08-2014 à 21:17:39  profilanswer
 

euh...non c'est pas WoW...
Il y a d'autres MMoRPG que WoW hein...
et celui auquel je joue est bien plus beau que pas mal de bouses qui sortent de nos jour...
 
PS: EQ2...


---------------
un jour, moi aussi, je serais grand...
n°9241325
mrdoug
Posté le 17-08-2014 à 21:19:02  profilanswer
 

master71 a écrit :

euh...non c'est pas WoW...
Il y a d'autres MMoRPG que WoW hein...
et celui auquel je joue est bien plus beau que pas mal de bouses qui sortent de nos jour...
 
PS: EQ2...


 
Temps mieux :jap:

n°9241942
cyberfred
Posté le 18-08-2014 à 13:21:13  profilanswer
 

proximacentauri a écrit :

L'écran G-sync conseillé par Yendal peut être une solution pour limiter le besoin en puissance GPU tout en conservant un résultat relativement fluide. Ceci dit, il est plus cher de 150 euros que le modèle UHD 28" de Samsung.  
Quoi qu'il en soit, l'aventure UHD vaut le coup et il serait dommage de s'en priver. Lorsque le(s) GPU(s) encaissent mal par rapport aux gros jeux, il y a des solutions (écran G-sync, reste a voir les retours concernant l'efficacité de cette techno), suppression des filtres peu utiles dans les options graphiques des jeux. Dans le pire des cas, même la solution d'attente qui consiste a jouer en 1080p et profiter de tout le reste en UHD (bureau, video, photos), est appréciable. Les GTX880 ne devraient pas tarder a débarquer, pour un tarif a priori inférieur a celui de la 780 a sa sortie, et, parait il, environ 20% de perfs en + par rapport a la 780ti. :)


 :??:
 c'est pas du tout ce que laisse entendre les dernières rumeurs pourtant :spamafote:
ca serait même plutôt le contraire , à savoir une 880 un peu plus perf que la 780 "tout court" mais par contre en ayant une conso extremement mieux maitrisée en regard des perfs ;)

Message cité 1 fois
Message édité par cyberfred le 18-08-2014 à 13:22:21
n°9242150
Kev338
Posté le 18-08-2014 à 16:02:07  profilanswer
 

Ybendal a écrit :

ok donc comparons peut plus précisément  
 
Test de hardware.fr pour Crysis 3 réglage en HIGH sans AA :
.http://www.hardware.fr/getgraphimg.php?id=24&n=4
 
Le test de clubic Tout en EXTREME et FXAA Activé pour crysis 3 :
 
http://img.clubic.com/07287308-pho [...] ysis-3.jpg
 
BF4 chez hardware.fr Ultra pas de MSAA:
 
http://www.hardware.fr/getgraphimg.php?id=24&n=3
 
Bf4 chez clubic en ULTRA MSAAx4 :
 
http://img.clubic.com/07287310-pho [...] ield-4.jpg
 
Farcry 3 chez hardware
http://www.hardware.fr/getgraphimg.php?id=24&n=5
 
Tout au max chez clubic :
http://img.clubic.com/07287320-pho [...] -cry-3.jpg
 
et clubic a pas testé tout les jeux qu'il y a chez hardware mais je crois qu on aurai pu continuer...
 
Bref oui le crossfire de 290x Fonctionne tres bien je ne l ai jamais nier et oui c est moins cher je l ai pas nier et je l ai même déjà dit  
Mais quand on leurs tire vraiment dessus les nvidia tienne mieux
 
Corleone_68 tu nous dit donc :
 
Donc faudrait peu être arrêter la désinformation et les légendes urbaine sur les drivers AMD. Ca merde des 2 coté mais de là à dire que c'est merdique du coté des rouges fait arrêter, la preuve du contraire au dessus...  
 
 
Venant de clubic pour les pilotes amd :
 
 
Il y a quelques mois nous explorions déjà la problématique des écrans 4K au travers du test du moniteur Asus PQ321 (voir Asus PQ321 : test du 1er moniteur 4K grand public). Pour véhiculer un signal 4K, il faut passer par une connectique DisplayPort (en attendant le HDMI 2.0) avec la nécessité d'utiliser une connectique DisplayPort 1.2 pour profiter du 60 Hz. Faute de quoi on retombe en 30 Hz. Si chez NVIDIA l'affiche 4K en 60 Hz se fait de façon transparente, chez AMD cela pose quelques soucis.
 
En fait s'il n'est plus nécessaire de créer un groupe d'écran EyeFinity comme avec de précédents pilotes, les jeux ont du mal à s'exécuter convenablement. Hitman Absolution tourne en 1920x2160 n'occupant donc que la moitié de l'écran bien qu'il soit réglé en 3 840x2 160 alors que Crysis 3 est réglé pour s'exécuter dans cette résolution, mais tourne en réalité en 800x600 sans possibilité d'effectuer des réglages dans les écrans d'options : le clic souris ne fonctionnant plus pas plus que la touche entrée du clavier. Bref… Chez AMD le 4K en 60 Hz c'est un peu la galère, alors que cela marche sans broncher chez NVIDIA.
 
Edit :
 

Citation :

Et ce qu'il faut savoir c'est que l'avantage du uhd c'est que tu peux te passer des filtres ou voir très léger dû à la résolution. Ca ne sert à rien de mettre du 16X ca ne change plus rien.


 
La 4k est pas la pour se passer des filtres c est juste pour pouvoir utiliser des écrans plus grand tout en gardant le même éloignement qu'un écran plus petit
 
 
les bench confirme se que je dit aussi pour le G-sync car on vois bien qu'il est dur d ateindre les 60hz avec les graphisme au max c'est donc un plus pour Nvidia car dans le test de Hardware ils en parle même pas dans leurs "résultat de confort" alors que sa permet de jouer fluide même en dessous de 60HZ
 
Et le prix de Nvidia se justifie par se genre de technologie comme le physX ils doivent donc figurer dans les bench car elles apportes bcp
 
Du coup bofbof pour le test de Hardware.fr surtout qu'ils on essayer de faire une estimation de la fluidité l oubli de G-sync est grave selon moi !


 
Hahaha test GPU sur clubic j'ai ri  :lol:  Et je suis modérateur sur Cluclu et je leur en ai parlé plusieurs fois  :jap:  
Le crossfire et surtout sur les séries 290 est devant ce que fait Nvidia aujourd'hui que ca soit en terme de performance ou de ressenti.
De meme que les 290 sont plus véloce sur du 4K.
 
Ha ces jeunes ils veulent aprendre au anciens fous de hardware comment ca marche  [:azitwaz]  
Et je confirme petit écran (26/27/30" ) + 4K = beaucoup moins besoins de filtres car beaucoup plus de pixel pour une meme diagonale donc beaucoup moins d'escalier (en tout cas un escalier qui ressemble plus à une diagonale).
HFR fait (selon moi) les meilleurs tests Hardware de toute la presse spécialisée Francaise et meme sans doute mondiale (meme si je lis aussi les autres tests) donc je riiiiiiiiiiiiii encore  :D

Message cité 1 fois
Message édité par Kev338 le 18-08-2014 à 16:04:32
n°9242338
Corleone_6​8
Posté le 18-08-2014 à 18:43:57  profilanswer
 

Kev338 a écrit :


 
Hahaha test GPU sur clubic j'ai ri  :lol:  Et je suis modérateur sur Cluclu et je leur en ai parlé plusieurs fois  :jap:  
Le crossfire et surtout sur les séries 290 est devant ce que fait Nvidia aujourd'hui que ca soit en terme de performance ou de ressenti.
De meme que les 290 sont plus véloce sur du 4K.
 
Ha ces jeunes ils veulent aprendre au anciens fous de hardware comment ca marche  [:azitwaz]  
Et je confirme petit écran (26/27/30" ) + 4K = beaucoup moins besoins de filtres car beaucoup plus de pixel pour une meme diagonale donc beaucoup moins d'escalier (en tout cas un escalier qui ressemble plus à une diagonale).
HFR fait (selon moi) les meilleurs tests Hardware de toute la presse spécialisée Francaise et meme sans doute mondiale (meme si je lis aussi les autres tests) donc je riiiiiiiiiiiiii encore  :D


 
Merci tu résume bien j'en avais marre d'expliquer les choses 36000 fois :jap:


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9242395
proximacen​tauri
Posté le 18-08-2014 à 19:17:42  profilanswer
 

cyberfred a écrit :


 :??:
 c'est pas du tout ce que laisse entendre les dernières rumeurs pourtant :spamafote:
ca serait même plutôt le contraire , à savoir une 880 un peu plus perf que la 780 "tout court" mais par contre en ayant une conso extremement mieux maitrisée en regard des perfs ;)


 
20% de + que la TI me semblait aussi une estimation TRES optimiste, même si certaines rumeurs envisagent mieux encore, comme par exemple : http://tech4gamers.com/gtx-880-per [...] in-august/
Ceci dit, en principe, plus on s'approche de la commercialisation, et plus on a de chances de voir venir des leaks de tests "sérieux". Enfin, espérons.
Pour ce qui est de la conso, cela semble acquis : 150W au lieu de 250, avec de ce fait probablement des températures bien révisées a la baisse pour cette nouvelle génération.  

n°9242516
master71
ça manque de place.
Posté le 18-08-2014 à 21:06:27  profilanswer
 

ceux qui rêvent de la 880ti.... y a pas de changement de gravure prévu avant 1 an, voire 2...
ce sera très dur de faire mieux que ce qu'on fait actuellement avec du 28nm, vu qu'on peut pas franchement augmenter de plus de 5% la taille des GPU, ou améliorer de plus de 5% à 10% la fréquence max (qui restera bien inférieure de toute façon au fréquence en O/C)...


---------------
un jour, moi aussi, je serais grand...
n°9242592
flipette_d​entaire
Lurkeur HFR depuis 1876. (c)
Posté le 18-08-2014 à 22:02:39  profilanswer
 

master71 a écrit :

ceux qui rêvent de la 880ti.... y a pas de changement de gravure prévu avant 1 an, voire 2...


Faut pas exagérer, le 20nm de TSMC est déjà en prod, certes pas pour des gros GPU, mais j'espère bien que d'ici 6 mois / 1 an on aura nos GPU 20 nm !

n°9242630
master71
ça manque de place.
Posté le 18-08-2014 à 23:07:25  profilanswer
 

c'est pas TSMC qui a signalé qu'elle ne pouvait plus prendre de clients pour cause de saturation de ses lignes de production?
alors caser la production en 20nm de GPU, pas pour le moment...
et construire plusieurs lignes de production de plus prendra bien 1 an ou 2...
 
et je doute que Samsung prennent le marché des GPU...
 
du coup, reste global foundry qui est un peu en retard et qui ne devrait prendre qu'AMD comme client GPU...
 
donc les NVidia en 20nm, 1 an ou 2 c'est pas absurde, loin de là...


Message édité par master71 le 18-08-2014 à 23:09:27

---------------
un jour, moi aussi, je serais grand...
n°9242887
flipette_d​entaire
Lurkeur HFR depuis 1876. (c)
Posté le 19-08-2014 à 10:15:17  profilanswer
 

Oui un an n'est pas du tout absurde, mais 2 ans ça me parait énorme quand même. Je ne pense pas que TSMC attendra 2 ans avant de pouvoir répondre à la demande de tout les autres. Le manque à gagner pour nVidia et AMD serait énorme. ;)  
A moins qu'Apple continue de vraiment monopoliser les lignes pendant longtemps... :cry:

n°9243033
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 19-08-2014 à 12:26:39  profilanswer
 

flipette_dentaire a écrit :

Oui un an n'est pas du tout absurde, mais 2 ans ça me parait énorme quand même. Je ne pense pas que TSMC attendra 2 ans avant de pouvoir répondre à la demande de tout les autres. Le manque à gagner pour nVidia et AMD serait énorme. ;)  
A moins qu'Apple continue de vraiment monopoliser les lignes pendant longtemps... :cry:


ba 1 an sans client, plus 6 - 8 mois pour la production + 2 mois pour la commercialisation en petit volume (nouveau procédé, beaucoup de déchets)


---------------
#mais-chut    ᓚᘏᗢ
n°9243043
mazingerz
Posté le 19-08-2014 à 12:36:19  profilanswer
 

mini-mousaille a écrit :


 
 
Euh, le jeu PC c'est quoi ? League Of Legends, Warcraft, DOTA 2, etc.  
 
Va demander à Kevin le nombre d'images par seconde que son PC portable peut afficher sur LOL, il s'en fout royal.  
 
Par exemple, le marché des cartes graphiques supérieures à 300 euro, c'est 10 à 15% du marché des cartes graphiques. Marché qui lui même est déjà une niche dans le marché du jeu vidéo global.  
 
Soyons sérieux deux secondes.  Personne ou presque ne fait la différence entre 30 et 60 images par secondes. C'est un truc de nerdz, certes, plusieurs millions de nerdz mais au final, ça ne fait que quelques points de pourcentage de la masse des joueurs.
 
Après, je ne nie pas l'existence de ce marché de joueurs très technophiles passionnés qui fait le bonheur de certaines firmes (comme Nvidia) mais il est minoritaire, de loin.  


 
ces jeux cité tourne même sur des machines vieille de 10 ans

n°9243045
mazingerz
Posté le 19-08-2014 à 12:36:55  profilanswer
 

Z_cool a écrit :

Pour moi, le plus gros défaut actuellement du 4K et la pauvre disponibilité de dalle non-TN.
 
Pour cela que je me suis tourné il y peut vers du 1440p IPS 27p. c'est juste  :love:  
et ca, ca pose pas de soucis a ma "pauvre" AMD 7950


 
quel moniteur?

n°9243728
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 19-08-2014 à 21:19:01  profilanswer
 

Dell U2713HM - 27" IPS 1440p


---------------
#mais-chut    ᓚᘏᗢ
n°9243943
Z_cool
HFR profile rating:⭐⭐⭐⭐
Posté le 20-08-2014 à 08:55:30  profilanswer
 

d'ailleur, en 1440p, je trouve parfois la tailles des icone un peut petites sur le bureau, le texte est pas très grand non plus.
 
alors j'ose même pas imaginer ce que ca donne avec un 4K


---------------
#mais-chut    ᓚᘏᗢ
n°9243999
Profil sup​primé
Posté le 20-08-2014 à 10:03:21  answer
 

Z_cool a écrit :

d'ailleur, en 1440p, je trouve parfois la tailles des icone un peut petites sur le bureau, le texte est pas très grand non plus.
 
alors j'ose même pas imaginer ce que ca donne avec un 4K


 
ca s'agrandit!

n°9244192
guig2000
Posté le 20-08-2014 à 13:04:49  profilanswer
 

Oui mais sous windows, les grandes polices c'est toujours pas tip-top.
De nombreux logiciels ne sont pas vraiment compatibles et on se retrouve avec icônes toutes floues ou du texte qui ne rentre pas dans le cadre dans lequel il est censé s'afficher. Dans ce cas le texte ne vas pas déborder, il va être coupé.
Encore récemment certains logiciels de Microsoft eux-mêmes ne fonctionnaient pas bien en mode grande polices.
Ou alors il faut utiliser windows 8 et uniquement des "apps" qui utilisent l'interface style smartphone de ce dernier.
 
Je suis pas très fan de Apple mais au moins sur mac, ils ont forcé les éditeurs à fournir des logiciels propres à ce niveau là.


---------------
Guig Esprit du Sage
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3

Aller à :
Ajouter une réponse
 

Sujets relatifs
Choix carte graphique avant achatAvis carte graphique R9 280X
Carte Graphique non reconnu Sapphire R9 290 Tri x j'ai pb avec carte graphique msi r5450
I5 750 encore assez puissant pour jouer ?tester l'état d'une carte graphique?
carte graphique - probleme ventiloavis Carte graphique XFX Radeon(TM) HD 5870 1Go
Vaut-il mieux brancher son écran sur sa carte mère ou graphique?conseil sur une crate graphique et processeur
Plus de sujets relatifs à : Jouer en Full Graphique 4K


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)