Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3041 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  196  197  198  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9526443
drey19
Posté le 18-06-2015 à 20:25:33  profilanswer
 

Reprise du message précédent :
Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 18-06-2015 à 20:30:46
mood
Publicité
Posté le 18-06-2015 à 20:25:33  profilanswer
 

n°9526448
enuma
Posté le 18-06-2015 à 20:26:50  profilanswer
 

Le contenu de ce message a été effacé par son auteur

Message cité 2 fois
Message édité par enuma le 18-06-2015 à 20:41:10
n°9526454
Corleone_6​8
Posté le 18-06-2015 à 20:28:06  profilanswer
 

Boarf on n'est plus à une couille près maintenant tu sais.. Dans quelques semaines on apprendra même que le comptage des transistor est mauvais :O


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9526458
overclockp​ro
Posté le 18-06-2015 à 20:30:31  profilanswer
 

drey19 a écrit :

Comme toutes les puces GCN "1.1 et 1.2", Fiji support le niveau de fonctionnalité matérielle 12_0 de Direct3D, mais fait l'impasse sur le niveau 12_1 supporté par les GPU Nvidia Maxwell de seconde génération
 
http://www.hardware.fr/news/14263/ [...] tails.html
 
Ben alors ?  :lol:
 
Ça aussi c'est intéressant :  
 
 "4 Shader Engines.ce qui signifie que les débits bruts de Fiji en termes de triangles par seconde, avec ou sans tessellation, n'augmentent pas. AMD parle d'un rendement supérieur mais n'a pu répondre à aucune question plus spécifique."


 
J'ai aussi remarqué la même chose : il serait temps qu'AMD dope la puissance géométrique, de plus en plus de jeux utilisent la tesselation.

n°9526459
Gein
Posté le 18-06-2015 à 20:31:12  profilanswer
 

Another update  :jap:

n°9526460
wnorton
Je suis néerlandophone
Posté le 18-06-2015 à 20:31:36  profilanswer
 

Citation :

La carte de référence fait appel à un système de watercooling AIO pour son refroidissement. Un passage obligé pour AMD compte tenu du niveau de consommation élevé de Fiji XTSans cela températures et nuisances sonores auraient été encore plus problématiques que pour les Radeon R9 290X et 290 de référence


 
 http://stkr.es/s/zpk

Message cité 1 fois
Message édité par wnorton le 18-06-2015 à 20:33:49

---------------
Je suis néerlandophone une fois
n°9526465
- gab
Posté le 18-06-2015 à 20:32:56  profilanswer
 

drey19 a écrit :

Comme toutes les puces GCN "1.1 et 1.2", Fiji support le niveau de fonctionnalité matérielle 12_0 de Direct3D, mais fait l'impasse sur le niveau 12_1 supporté par les GPU Nvidia Maxwell de seconde génération
 
http://www.hardware.fr/news/14263/ [...] tails.html
 
Ben alors ?  :lol:


T'as oublié la suite :
 

Citation :

Par contre, au niveau de l'autre niveau de spécification important de Direct3D12, les "Binding Resources" (le nombre de ressources à dispositions des développeurs), Fiji est au niveau maximum, Tier 3, là où les GPU Nvidia sont limités au niveau Tier 2. Autant AMD que Nvidia ont ainsi l'opportunité de proposer aux développeurs des effets graphiques qui seraient incompatibles avec le matériel de l'autre.


C'est plus intéressant qu'un smiley qui rigole :o


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526468
- gab
Posté le 18-06-2015 à 20:34:07  profilanswer
 

enuma a écrit :

Ah oui alors, NETTE amélioration c'est clair, 4 3 fps de plus pour 200€ de plus, putain cette révolution, vite j'achète :love:


Non mais tu rages toutes les deux pages, arrête de t'infliger ce topic et prends-toi une 980 ti, ça règlera tes griefs :D


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526471
drey19
Posté le 18-06-2015 à 20:36:48  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 18-06-2015 à 20:42:05
n°9526475
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 18-06-2015 à 20:39:45  profilanswer
 

drey19 a écrit :


 
Le fait est que Nvidia gère tous les niveaux et peut afficher un niveau 12_1.
 
Que j'ai vu pas mal de post depuis l'annonce de Fiji qui s'enflammaient pour Dx 12 car Fiji allait tout gérer et qu'au final, c'est un fail comme pour le DP et le HDMI.


 
Tu devrais apprendre à lire.
Et rejoindre ton topic, ca serait pas plus mal.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
mood
Publicité
Posté le 18-06-2015 à 20:39:45  profilanswer
 

n°9526476
Gein
Posté le 18-06-2015 à 20:40:24  profilanswer
 

+1 :/

n°9526478
Gein
Posté le 18-06-2015 à 20:41:17  profilanswer
 

Pour rappel :
 
http://www.hardware.fr/medias/photos_news/00/46/IMG0046698.jpg
http://www.hardware.fr/medias/photos_news/00/46/IMG0046699.jpg

n°9526479
enuma
Posté le 18-06-2015 à 20:42:43  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par enuma le 18-06-2015 à 20:46:39
n°9526480
drey19
Posté le 18-06-2015 à 20:42:52  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 18-06-2015 à 20:43:56
n°9526483
kickvegeta
Vieux et jeune en même temps
Posté le 18-06-2015 à 20:44:32  profilanswer
 

Pour quantum sur un site il disait que la Nano gérerait l'hdmi 2.0 en citant une source (en anglais, donc peut être que j'ai mal lu) qui j'avais l'impression disait le contraire ...
 
Peut être qu'en fais le Nano le gérera bien ... Ce qui expliquerai pourquoi quantum serait aussi petit ;) et branchable sur écran ^^

n°9526485
kickvegeta
Vieux et jeune en même temps
Posté le 18-06-2015 à 20:46:06  profilanswer
 

drey19 a écrit :


 
Tes interventions très détaillés et intéressante me manqueraient trop  :lol:


 
 
Les tiennent nous manquerait pas rassure toi , il y'a bien des fois ou je me demandais ce que tu foutais ici :(

n°9526486
- gab
Posté le 18-06-2015 à 20:46:17  profilanswer
 

enuma a écrit :

Non.
 
Et où je rage dans mon dernier post exactement, j'ai pas bien vu :o


La remarque sarcastique sur le gain de perfs et l'exagération sur le prix, au pif :o
 
Je comprends pas pourquoi ça semble t'agacer, si tu as besoin d'HDMI 2.0 et un budget à la hauteur, je vois pas ce que tu peux attendre d'AMD que nvidia ne propose déjà :D


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526487
drey19
Posté le 18-06-2015 à 20:46:28  profilanswer
 

Le contenu de ce message a été effacé par son auteur

n°9526494
pop_pop
System.NoBeerException
Posté le 18-06-2015 à 20:54:48  profilanswer
 

drey19 a écrit :


 
Le fait est que Nvidia gère tous les niveaux et peut afficher un niveau 12_1.
 
Que j'ai vu pas mal de post depuis l'annonce de Fiji qui s'enflammaient pour Dx 12 car Fiji allait tout gérer et qu'au final, c'est un fail comme pour le DP et le HDMI 2.0.


 
est-ce que Nvidia a un réel avantage concurrentiel en supportant le level 12_1 ?
Le level 12_1 inclus :
* le conservative rasterization
* le rasterizer order views
 
Pour le conservative rasterization, c'est anecdotique.
Pour le ROVs, ça peut l'être un peu moins. d3d11 apportait déjà de quoi faire une operation similaire, mais plus lentement.
Là où je manque de recul, c'est sur l'usage ou non, à court terme du ROVs.
Il faut garder en tête que fin 2015 et en 2016, on va être sur la première génération de moteurs d3d12, et ils sont loin d'exploiter toutes les subtilités de l'API.
 
Fin 2016, début 2017, ceux qui auront acheté une Fury X auront probablement changé pour la génération suivante, donc pour moi, cette différence de level supporté n'est pas un frein.

n°9526496
Gein
Posté le 18-06-2015 à 20:55:11  profilanswer
 

drey19 a écrit :


 
Le fait est que Nvidia gère tous les niveaux et peut afficher un niveau 12_1.
 
Que j'ai vu pas mal de post depuis l'annonce de Fiji qui s'enflammaient pour Dx 12 car Fiji allait tout gérer et qu'au final, c'est un fail comme pour le DP et le HDMI 2.0.
 
Au final, ça commence a en faire des arguments... Sans parler des 6GO car la aussi, c'est silence radio pour les opti magiques permettant de faire aussi bien avec 4Go qu'avec 6 ou 12.


 
http://reho.st/i.imgur.com/CA2AIhD.jpg
 
Bien joué le troll  :love:

n°9526501
enuma
Posté le 18-06-2015 à 21:01:43  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par enuma le 18-06-2015 à 21:02:20
n°9526508
regis183
Posté le 18-06-2015 à 21:07:27  profilanswer
 

marllt2 a écrit :


Quand ils parlent de consommation maximum chez Toms, ils parlent des pics. Or c'est la moyenne qui compte.


Il faut dimensionner le matériel (VRM, bloc d'alimentation,..) en fonction de la puissance soutenue, mais également de la puissance de crête.
Tout compte.

n°9526510
McNulty
Posté le 18-06-2015 à 21:08:30  profilanswer
 

enuma a écrit :


Ca veut pas dire que je rage ça, il me semble que l'exagération elle est plutôt du coté de celui qui dit qu'il y a un gros gain par rapport à la 290X non ? :o
 
Quant à s'agacer sur ces histoires de HDMI et compagnie, c'est pas une question de budget ou de rage, c'est juste une question de bien faire les choses, carte HDG tout ça, bref tout ce qui a été dit. En tant que consommateur de cartes graphiques, mon souhait est que les constructeurs soient le plus en concurrence possible et sorte le meilleur matos possible, lorsque l'un deux fait quelque chose que je trouve être une bourde anormale voire carrément du foutage de gueule, comme le coup du HDMI sur une carte à 700 euros, il est légitimé que je m'agace ; je ne suis pas le seul à trouver ça anormal d'ailleurs, je ne vois pas le problème, on a pas le droit de critiquer AMD sur le topic AMD ? [:spamafote]
 
Et puis je me voyais bien avec ces futures cartes moi, comme beaucoup, ça fait un moment que j'attends après elles (j'ai toujours eu des ATI à une exception près), donc quand je vois une connerie monumentale qui à elle seule va clairement me dissuader d'en jouir et m'obliger à attendre la génération suivante dans un an, ben ça me fait chier, normal aussi quoi :fou:


 
En même temps si t'en as vraiment besoin, tu vas chez le concurrent, tant pis pour AMD ils n'avaient qu'à faire mieux, c'est la loi du marché.  

n°9526512
kickvegeta
Vieux et jeune en même temps
Posté le 18-06-2015 à 21:08:58  profilanswer
 

enuma a écrit :


Ca veut pas dire que je rage ça, il me semble que l'exagération elle est plutôt du coté de celui qui dit qu'il y a un gros gain par rapport à la 290X non ? :o
 
Quant à s'agacer sur ces histoires de HDMI et compagnie, c'est pas une question de budget ou de rage, c'est juste une question de bien faire les choses, carte HDG tout ça, bref tout ce qui a été dit. En tant que consommateur de cartes graphiques, mon souhait est que les constructeurs soient le plus en concurrence possible et sorte le meilleur matos possible, lorsque l'un deux fait quelque chose que je trouve être une bourde anormale voire carrément du foutage de gueule, comme le coup du HDMI sur une carte à 700 euros, il est légitimé que je m'agace ; je ne suis pas le seul à trouver ça anormal d'ailleurs, je ne vois pas le problème, on a pas le droit de critiquer AMD sur le topic AMD ? [:spamafote]
 
Et puis je me voyais bien avec ces futures cartes moi, comme beaucoup, ça fait un moment que j'attends après elles (j'ai toujours eu des ATI à une exception près), donc quand je vois une connerie monumentale qui à elle seule va clairement me dissuader d'en jouir et m'obliger à attendre la génération suivante dans un an, ben ça me fait chier, normal aussi quoi :fou:


 
 
Et le message est passé ;)
 
Juste qu'il est vrai qu'hormis le prix (bien que largement moins cher qu'une 980) la 390 x s'en tire pas si mal , toi tu dis 3-4 fps mais sur les tests de guru 3d sur Gta 5 c'est bien plus ^^. De plus elle vieillira surement mieux que la 290 x vu les petites opti apporté notamment c'est 4 go qui certes sont pas une valeur sure aujourd'hui mais dans un an peut être que ...
 
Maintenant je le concède c'est un rename de petite valeur, mais moins cher qu'une 980 à perf équivalente.
 
 

Citation :

En même temps si t'en as vraiment besoin, tu vas chez le concurrent, tant pis pour AMD ils n'avaient qu'à faire mieux, c'est la loi du marché.  


 
Tout à fais d'accord , bien que je comprenne pas, la non prise en charge du hdcp 2.2 sur la 980 Ti ... Alors que la 960 le possède ..


Message édité par kickvegeta le 18-06-2015 à 21:11:18
n°9526517
Kernel-Pan​ic
Eh?
Posté le 18-06-2015 à 21:11:56  profilanswer
 

enuma a écrit :


Ca veut pas dire que je rage ça, il me semble que l'exagération elle est plutôt du coté de celui qui dit qu'il y a un gros gain par rapport à la 290X non ? :o
 
Quant à s'agacer sur ces histoires de HDMI et compagnie, c'est pas une question de budget ou de rage, c'est juste une question de bien faire les choses, carte HDG tout ça, bref tout ce qui a été dit. En tant que consommateur de cartes graphiques, mon souhait est que les constructeurs soient le plus en concurrence possible et sorte le meilleur matos possible, lorsque l'un deux fait quelque chose que je trouve être une bourde anormale voire carrément du foutage de gueule, comme le coup du HDMI sur une carte à 700 euros, il est légitimé que je m'agace ; je ne suis pas le seul à trouver ça anormal d'ailleurs, je ne vois pas le problème, on a pas le droit de critiquer AMD sur le topic AMD ? [:spamafote]
 
Et puis je me voyais bien avec ces futures cartes moi, comme beaucoup, ça fait un moment que j'attends après elles (j'ai toujours eu des ATI à une exception près), donc quand je vois une connerie monumentale qui à elle seule va clairement me dissuader d'en jouir et m'obliger à attendre la génération suivante dans un an, ben ça me fait chier, normal aussi quoi :fou:


 
 
En même temps l'absence du HDMI 2.0, même si c'est une décision douteuse, est seulement un problème pour ceux qui veulent jouer sur leur TV en 4K@60hz.


---------------
You have no chance to survive make your time.
n°9526520
drey19
Posté le 18-06-2015 à 21:17:40  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 18-06-2015 à 21:20:23
n°9526522
McNulty
Posté le 18-06-2015 à 21:20:56  profilanswer
 

Kernel-Panic a écrit :


 
 
En même temps l'absence du HDMI 2.0, même si c'est une décision douteuse, est seulement un problème pour ceux qui veulent jouer sur leur TV en 4K@60hz.


 
Jouer et autre car le 30Hz même sur le bureau c'est pas la joie

n°9526525
kimujix
Posté le 18-06-2015 à 21:23:22  profilanswer
 
n°9526526
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-06-2015 à 21:25:18  profilanswer
 

drey19 a écrit :

Comme toutes les puces GCN "1.1 et 1.2", Fiji support le niveau de fonctionnalité matérielle 12_0 de Direct3D, mais fait l'impasse sur le niveau 12_1 supporté par les GPU Nvidia Maxwell de seconde génération
 
http://www.hardware.fr/news/14263/ [...] tails.html
 
Ben alors ?  :lol:
 
Ça aussi c'est intéressant :  
 
 "4 Shader Engines. Ce nombre est similaire pour Tonga et Hawaii, ce qui signifie que les débits bruts de Fiji en termes de triangles par seconde, avec ou sans tessellation, n'augmentent pas. AMD parle d'un rendement supérieur mais n'a pu répondre à aucune question plus spécifique."


Qu'est ce qui est drôle ? Si tu continue tes trolls c'est la porte qui t'attends, change de ton ce sera plus agréable pour tout le monde :jap:

n°9526527
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 18-06-2015 à 21:25:36  profilanswer
 

wnorton a écrit :

Citation :

La carte de référence fait appel à un système de watercooling AIO pour son refroidissement. Un passage obligé pour AMD compte tenu du niveau de consommation élevé de Fiji XTSans cela températures et nuisances sonores auraient été encore plus problématiques que pour les Radeon R9 290X et 290 de référence


 
 http://stkr.es/s/zpk


Idem.

n°9526528
Gein
Posté le 18-06-2015 à 21:28:06  profilanswer
 

drey19 a écrit :


 
En quoi c'est du troll ?
 
Ton tableau marque bien YES d'un coté et pas de l'autre...
 
Bref faut arrêter de lire ce que tu veux dés que malheureusement, ça ne te plait pas ;)


 
Le fait que tu édites juste pour en rajouter une couche et hameçonner des forumeurs. Si ça c'est pas du troll. [:implosion du tibia]  
Pour le coups je me demande lequel de nous deux est le plus objectif/aveugle  :lol:

n°9526529
- gab
Posté le 18-06-2015 à 21:30:43  profilanswer
 

enuma a écrit :

Ca veut pas dire que je rage ça, il me semble que l'exagération elle est plutôt du coté de celui qui dit qu'il y a un gros gain par rapport à la 290X non ? :o


Le post auquel tu répondais parlait aussi de la conso, et quand on met bout à bout quelques % de plus en perf, conso un peu moindre et surtout un design de qualité, c'est bien une nette amélioration par rapport à la pléthore de 290X custom mal fichues :D (et même si l'augmentation du prix fait mal, ça reste très compétitif face à la 980... qui certes est vendue trop cher :o)

 
enuma a écrit :

Quant à s'agacer sur ces histoires de HDMI et compagnie, c'est pas une question de budget ou de rage, c'est juste une question de bien faire les choses, carte HDG tout ça, bref tout ce qui a été dit. En tant que consommateur de cartes graphiques, mon souhait est que les constructeurs soient le plus en concurrence possible et sorte le meilleur matos possible, lorsque l'un deux fait quelque chose que je trouve être une bourde anormale voire carrément du foutage de gueule, comme le coup du HDMI sur une carte à 700 euros, il est légitimé que je m'agace ; je ne suis pas le seul à trouver ça anormal d'ailleurs, je ne vois pas le problème, on a pas le droit de critiquer AMD sur le topic AMD ? [:spamafote]


Non mais je suis bien d'accord, il n'est pas illégitime de déplorer l'absence de HDMI 2.0. Le truc, c'est qu'une fois que le constat est posé, bah y a pas grand-chose d'autre à dire, soit on va chez le concurrent soit on attend la gen suivante, mais c'est pas dire "haha bravo AMD, j'irai à votre enterrement !" (ou assimilé) qui fera avancer quoi que ce soit, surtout vu la gueule du topic en ce moment :D

 

Par contre je ne suis pas sûr que ce genre de features accessoires (comprendre, qui servent à une forte minorité des utilisateurs) pèsent beaucoup dans le jeu de la concurrence. Que les Fury aient du HDMI 2.0 ou non, c'est pas ça qui jouera sur le fait qu'nvidia ajustera ses prix ou non.


Message édité par - gab le 18-06-2015 à 21:32:17

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526539
McNulty
Posté le 18-06-2015 à 21:40:21  profilanswer
 

C'est accessoire sur le marché du GPU en globalité, sur le marché du THDG j'en suis moins certain. Surtout qu'AMD fait la promo de Fiji en l'associant  au 4K qui est composé pour le moment en grosse majorité de TV, c'est franchement pas très malin, c'est le moins que l'on puisse dire.

n°9526542
- gab
Posté le 18-06-2015 à 21:42:46  profilanswer
 

C'est très maladroit, on est d'accord.

 

En même temps, la gen actuelle a le même problème que la précédente (pour laquelle le 4K était aussi vanté il me semble), c'est toujours pas assez puissant pour jouer confortablement en 4K sur les jeux récents (à moins de faire pas mal de concessions), donc... :/ C'est pas comme si les GPU pouvaient tenir le 60 fps aisément sans pouvoir l'envoyer à une TV 4K, là ça aurait clairement été du gâchis :D

 

Par curiosité, faudrait voir quelle proportions de ceux qui jouent en 4K sont sur une TV ou sur un moniteur :D

Message cité 2 fois
Message édité par - gab le 18-06-2015 à 21:45:03

---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526546
tridam
Profil : Equipe HardWare.fr
Posté le 18-06-2015 à 21:44:03  profilanswer
 

pop_pop a écrit :


 
est-ce que Nvidia a un réel avantage concurrentiel en supportant le level 12_1 ?
Le level 12_1 inclus :
* le conservative rasterization
* le rasterizer order views
 
Pour le conservative rasterization, c'est anecdotique.
Pour le ROVs, ça peut l'être un peu moins. d3d11 apportait déjà de quoi faire une operation similaire, mais plus lentement.
Là où je manque de recul, c'est sur l'usage ou non, à court terme du ROVs.
Il faut garder en tête que fin 2015 et en 2016, on va être sur la première génération de moteurs d3d12, et ils sont loin d'exploiter toutes les subtilités de l'API.
 
Fin 2016, début 2017, ceux qui auront acheté une Fury X auront probablement changé pour la génération suivante, donc pour moi, cette différence de level supporté n'est pas un frein.


 
Le conservative rasterization, c'est ce qui permet par exemple d'utiliser certaines techniques de rendu des ombres via lancé de rayons. Sans conservative rasters, tu risques d'avoir des "trous" dans les ombres ou alors de devoir utiliser une précision qui va massacrer les performances. Nvidia a déjà prévu une démo pour mettre cela en avant, après ce ne sera peut-être pas utilisé dans les jeux avant un bail.

n°9526547
Kernel-Pan​ic
Eh?
Posté le 18-06-2015 à 21:46:25  profilanswer
 

McNulty a écrit :

C'est accessoire sur le marché du GPU en globalité, sur le marché du THDG j'en suis moins certain. Surtout qu'AMD fait la promo de Fiji en l'associant  au 4K qui est composé pour le moment en grosse majorité de TV, c'est franchement pas très malin, c'est le moins que l'on puisse dire.


 
Faut voir, si le THDG de NV ne supporte pas le HDCP2.2 (aucune idée  :??: ), on se retrouve avec une offre "a peu près égale" aussitôt que les adaptateur actif DP=>hdmi2 seront dispo sur le marché.


Message édité par Kernel-Panic le 18-06-2015 à 21:47:41

---------------
You have no chance to survive make your time.
n°9526549
kimujix
Posté le 18-06-2015 à 21:47:19  profilanswer
 

tridam a écrit :


 
Le conservative rasterization, c'est ce qui permet par exemple d'utiliser certaines techniques de rendu des ombres via lancé de rayons. Sans conservative rasters, tu risques d'avoir des "trous" dans les ombres ou alors de devoir utiliser une précision qui va massacrer les performances. Nvidia a déjà prévu une démo pour mettre cela en avant, après ce ne sera peut-être pas utilisé dans les jeux avant un bail.


On décochera l'option et puis basta.  :p  

n°9526551
McNulty
Posté le 18-06-2015 à 21:48:07  profilanswer
 

- gab a écrit :

C'est très maladroit, on est d'accord.  
 
En même temps, la gen actuelle a le même problème que la précédente (pour laquelle le 4K était aussi vanté il me semble), c'est toujours pas assez puissant pour jouer confortablement en 4K sur les jeux récents (à moins de faire pas mal de concessions), donc... :/ C'est pas comme si les GPU pouvaient tenir le 60 fps aisément sans pouvoir l'envoyer à une TV 4K, là ça aurait clairement été du gâchis :D
 
Par curiosité, faudrait voir quelle proportions de ceux qui jouent en 4K sont sur une TV ou sur un moniteur :D


 
comme dit plus haut il n'y a pas que le jeu, tu ne peux même pas profiter pleinement de youtube...

Message cité 1 fois
Message édité par McNulty le 18-06-2015 à 21:49:33
n°9526553
jamon
les gens sont bons !!!
Posté le 18-06-2015 à 21:50:16  profilanswer
 

le testeur  de HFR attend ces cartes !!!!http://cached.imagescaler.hbpl.co.uk/resize/scaleHeight/414/offlinehbpl.hbpl.co.uk/galleries/OVE/TheStigandEleanorRigby.jpg...il y en qui disent qu'il peut jouer aussi avec ces pieds !!!!!

n°9526564
Z Machine
Fusion is future
Posté le 18-06-2015 à 21:55:18  profilanswer
 

enuma a écrit :


Ah oui alors, NETTE amélioration c'est clair, 4 non 3 fps de plus pour 200€ de plus, putain cette révolution, vite j'achète :love:


200 € d'écart ? Pourquoi pas 300, ou 500 ??? Fais-toi plaisir !
http://www.ldlc.com/informatique/p [...] 13608.html
A ma connaissance, Amd n'est pas responsable de la parité Euro-dollar (là, je parle pour l'évolution des prix, pas d'une comparaison carte par carte).
 

Message cité 1 fois
Message édité par Z Machine le 18-06-2015 à 21:56:06

---------------
http://fr.wikipedia.org/wiki/Z_machine
n°9526568
Yopfraize
Posté le 18-06-2015 à 21:55:59  profilanswer
 

- gab a écrit :

C'est très maladroit, on est d'accord.

 

En même temps, la gen actuelle a le même problème que la précédente (pour laquelle le 4K était aussi vanté il me semble), c'est toujours pas assez puissant pour jouer confortablement en 4K sur les jeux récents (à moins de faire pas mal de concessions), donc... :/ C'est pas comme si les GPU pouvaient tenir le 60 fps aisément sans pouvoir l'envoyer à une TV 4K, là ça aurait clairement été du gâchis :D

 

Par curiosité, faudrait voir quelle proportions de ceux qui jouent en 4K sont sur une TV ou sur un moniteur :D

 

Je pense que ces GPU (Fiji,980Ti et compagnie) sont plus axés sur du 1440p que du 4K au final, effectivement. le 2160p c'est SLI ou Cross :(
Personnellement jouer en 4K avec 99% gpu usage sur 75% des gros jeux, un ventilateur qui turbine et en plus avec un framerate yoyo c'est pas trop mon trip, va falloir attendre le 14nm :o ! Y'aura peut être de bons écrans 4K à couleurs justes avec un contraste supérieur à 1000 pour moins de 400 € d'ici là


Message édité par Yopfraize le 18-06-2015 à 21:58:08
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  196  197  198  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)