Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2698 connectés 

 

 

Vous avez :




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  197  198  199  ..  399  400  401  402  403  404
Auteur Sujet :

[Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)

n°9526568
Yopfraize
Posté le 18-06-2015 à 21:55:59  profilanswer
 

Reprise du message précédent :

- gab a écrit :

C'est très maladroit, on est d'accord.

 

En même temps, la gen actuelle a le même problème que la précédente (pour laquelle le 4K était aussi vanté il me semble), c'est toujours pas assez puissant pour jouer confortablement en 4K sur les jeux récents (à moins de faire pas mal de concessions), donc... :/ C'est pas comme si les GPU pouvaient tenir le 60 fps aisément sans pouvoir l'envoyer à une TV 4K, là ça aurait clairement été du gâchis :D

 

Par curiosité, faudrait voir quelle proportions de ceux qui jouent en 4K sont sur une TV ou sur un moniteur :D

 

Je pense que ces GPU (Fiji,980Ti et compagnie) sont plus axés sur du 1440p que du 4K au final, effectivement. le 2160p c'est SLI ou Cross :(
Personnellement jouer en 4K avec 99% gpu usage sur 75% des gros jeux, un ventilateur qui turbine et en plus avec un framerate yoyo c'est pas trop mon trip, va falloir attendre le 14nm :o ! Y'aura peut être de bons écrans 4K à couleurs justes avec un contraste supérieur à 1000 pour moins de 400 € d'ici là


Message édité par Yopfraize le 18-06-2015 à 21:58:08
mood
Publicité
Posté le 18-06-2015 à 21:55:59  profilanswer
 

n°9526574
- gab
Posté le 18-06-2015 à 21:58:13  profilanswer
 

McNulty a écrit :

comme dit plus haut il n'y a pas que le jeu, tu ne peux même pas profiter pleinement de youtube...


Y a vraiment une offre en 4K 60fps sur youtube ?


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526576
dave76
A momentary lapse of reason
Posté le 18-06-2015 à 21:58:31  profilanswer
 

enuma a écrit :


Non, suis bien ici moi, à suivre les péripéties d'AMD :D Et c'est pas parceque je suis déçu par certaines specs comme le coup du HDMI 2.0 que je m'intéresse pas à la sortie de ces cartes, juste j'en achèterai pas :o
 
Et où je rage dans mon dernier post exactement :o


 
Quand tu dis péripéties (Ce topic et AMD avec ) c'est un euphémisme, on se croirait dans une série genre "Amour gloire et beauté", ça va dans tous les sens ( pour la série on aurait dit, ça ba..e dans chaque coin )!  [:antipolis]  


---------------
Celui qui donne ne doit jamais s'en souvenir, celui qui reçoit ne doit jamais l'oublier!
n°9526579
McNulty
Posté le 18-06-2015 à 22:00:30  profilanswer
 

- gab a écrit :


Y a vraiment une offre en 4K 60fps sur youtube ?


 
même en 720p60 c'est pénalisant, à moins que tu changes de résolution à tout va...

n°9526636
Corleone_6​8
Posté le 18-06-2015 à 22:49:38  profilanswer
 

enuma a écrit :


Ca veut pas dire que je rage ça, il me semble que l'exagération elle est plutôt du coté de celui qui dit qu'il y a un gros gain par rapport à la 290X non ? :o

 

Quant à s'agacer sur ces histoires de HDMI et compagnie, c'est pas une question de budget ou de rage, c'est juste une question de bien faire les choses, carte HDG tout ça, bref tout ce qui a été dit. En tant que consommateur de cartes graphiques, mon souhait est que les constructeurs soient le plus en concurrence possible et sorte le meilleur matos possible, lorsque l'un deux fait quelque chose que je trouve être une bourde anormale voire carrément du foutage de gueule, comme le coup du HDMI sur une carte à 700 euros, il est légitimé que je m'agace ; je ne suis pas le seul à trouver ça anormal d'ailleurs, je ne vois pas le problème, on a pas le droit de critiquer AMD sur le topic AMD ? [:spamafote]

 

Et puis je me voyais bien avec ces futures cartes moi, comme beaucoup, ça fait un moment que j'attends après elles (j'ai toujours eu des ATI à une exception près), donc quand je vois une connerie monumentale qui à elle seule va clairement me dissuader d'en jouir et m'obliger à attendre la génération suivante dans un an, ben ça me fait chier, normal aussi quoi :fou:

 

Pareil je vais attendre la prochaine gen si la 980 ti n'est pas compatible non plus.. 1 an avec des 290... ca va être tendu :(

 

Tan pis je claquerais mes thunes dans une nouvelle SP4 cette année :D (avec GPU Intel [:ddr555])


Message édité par Corleone_68 le 18-06-2015 à 22:49:57

---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9526664
Romz@in
Posté le 18-06-2015 à 23:26:33  profilanswer
 

Je suis actuellement avec une HD7970. Est-ce une bonne idée de me prendre une r9 390 8 gigot à la place ? ( 3 écrans :pt1cable:  )

n°9526682
genom
urinam non decolor unda
Posté le 18-06-2015 à 23:51:49  profilanswer
 

Corleone_68 a écrit :


 
Honnêtement oui c'est un fiasco, car autrement le projet Quantum il faut que l'on m'explique à quoi il sert...


 
t'es bêtes ou quoi ? ben à traverser le temps  :D
http://www.jeanmarcmorandini.com/sites/jeanmarcmorandini.com/files/styles/liste-centrale-grande/public/2a97ed3d2fe9c3507e88ae61117b30d2_29.jpg


Message édité par genom le 19-06-2015 à 00:00:41
n°9526685
genom
urinam non decolor unda
Posté le 19-06-2015 à 00:02:01  profilanswer
 

Dites vous êtes sûr que le Hdmi 2.0 compliant chez Nv est matériel et pas soft ???  :o
Parce que moi pas  :D

Message cité 1 fois
Message édité par genom le 19-06-2015 à 00:03:13
n°9526686
lapin
Posté le 19-06-2015 à 00:03:36  profilanswer
 

@Romz@in, déjà j'attendrais la sortie de la Radeon R9 NANO vers le 20 Septembre.
 
 
pour le Conservative Rasterization, d'après Nvidia ça peut être émuler par le GPU, voir si les ACE peuvent faire quelques chose.
 
 
pour les ROVs, bien que je n'ai pas compris ou ne me rappel plus à quoi cela sert, bien que ça puisse être émuler par le GPU d'après un programmeur sur Radeon en l'état actuel des choses et des Drivers c'est trop lent sur Radeon même R9, il faut plus 350 millième de seconde pour calculer les ROVs d'après les dire de se programmeurs, après faut voir les conditions.
 
se qui est amusant c'est qu'on arrête pas de parler de DX12 et DX12.1, mais on ne sais même pas quel jeux vont en avoir besoin réellement, ni ça cela à un réel intéret.
 
quand je regarde la DEMO LEO, les Radeon faisaent déjà de l'illumination globale(une forme Ray Tracing) et ça n'avait pas l'air de proser tant de soucis que cela, d'autant que la puissance en de calcul des RADEON est quand même un poile meilleur que les GTX, donc il est ou le problème.
 
mon avi même dans deux Ans trop peut de jeux vidéos auront besoin de DX12 et je ne parle même pas de DX12.1 qui rajoute deux pauvre fonction qui sont largement dispensable, lorsque DX 12 et supèrieurs seront necessaire au moins deux voir trois génération de carte graphic seront déjà produites, donc en fait c'est n'importe quoi.
 
d'autant plus que le bas niveau de programmation de DX12/Mantle/Vulkan rend la programmation très complexe et des vérifications très importante, de plus y a de fort risque de plantage à cause du niveau bas de programmation et donc d'erreur, mon avis hors démo technologique et BenchMark c'est pas demain qu'ont verrat un jeux Direct X 12 et 12.1 et Vulkan.
 
même dans 1 ans edmis on sera ultra majoritairement en jeux Direct X 11.1.
 
en suite les programmeurs vont peut être se contenter d'utiliser Direct X 11.3 qui dispose des Fonction de Direct X 12 sauf que le niveau de programmation est moins bas dans la machine et donc passe par les drivers de la carte graphic.

Message cité 1 fois
Message édité par lapin le 19-06-2015 à 00:07:17
n°9526687
lapin
Posté le 19-06-2015 à 00:05:38  profilanswer
 

pour la Guerre HDMI 2.0, je vais me répété mais vous pouvez vous contenter de HDMI 1.4 et dans le Driver avoir une qualité visuel de 4:2:2 ou quelque chose comme ça.

mood
Publicité
Posté le 19-06-2015 à 00:05:38  profilanswer
 

n°9526688
jeanjean15
buy cheap, buy twice
Posté le 19-06-2015 à 00:06:09  profilanswer
 

McNulty a écrit :


 
Jouer et autre car le 30Hz même sur le bureau c'est pas la joie


 
Le hdmi 2.0 n'est pas indispensable pour faire passer du 60 hz en 4K . Nvidia l'avait déja fait :
 
http://www.nextinpact.com/news/882 [...] mi-1-4.htm

Message cité 3 fois
Message édité par jeanjean15 le 19-06-2015 à 00:08:40

---------------
mes_feeds
n°9526693
guig2000
Posté le 19-06-2015 à 00:08:45  profilanswer
 

D'habitude, c'est AMD qui avait une version D3D XX.1 d'avance sur nvidia et ça n'a jamais servi à rien, je ne vois pas pourquoi ça changerai dans l'autre sens.

Message cité 1 fois
Message édité par guig2000 le 19-06-2015 à 00:17:20

---------------
Guig Esprit du Sage
n°9526697
genom
urinam non decolor unda
Posté le 19-06-2015 à 00:09:34  profilanswer
 

Pour une fois qu'AMD sort un design pour le moins avant-gardiste allié à une vitrine technologique espérons réussie et ils y en a encore qui râlent  :o  :D
Ils répondent même à Nv avec la nano en disant nous aussi on peut faire du mdg qui consome peu  :D

Message cité 1 fois
Message édité par genom le 19-06-2015 à 00:13:24
n°9526698
McNulty
Posté le 19-06-2015 à 00:11:33  profilanswer
 

jeanjean15 a écrit :


 
Le hdmi 2.0 n'est pas indispensable pour faire passer du 60 hz en 4K . Nvidia l'avait déja fait :
 
http://www.nextinpact.com/news/882 [...] mi-1-4.htm


 
oui mais est-ce qu'AMD le fait, et est-ce que ça fonctionne à travers un ampli HC ?

n°9526702
McNulty
Posté le 19-06-2015 à 00:14:08  profilanswer
 

genom a écrit :

Pour une fois qu'AMD sort un design pour le moins avant-gardiste et une vitrine technologique éspérons réussie et ils y en a encore qui râlent  :o  :D
Ils répondent même à Nv avec la nano en disant nous aussi on peut faire du mdg qui consome peu  :D


 
la Nano aura pratiquement 1 an de retard sur le GM204 avec des perfs et consommation équivalente, tu parles d'une vitrine technologique... il ne vous faut pas grand chose

n°9526704
drey19
Posté le 19-06-2015 à 00:17:02  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 19-06-2015 à 00:21:49
n°9526705
genom
urinam non decolor unda
Posté le 19-06-2015 à 00:17:31  profilanswer
 

McNulty a écrit :


 
la Nano aura pratiquement 1 an de retard sur le GM204 avec des perfs et consommation équivalente, tu parles d'une vitrine technologique... il ne vous faut pas grand chose


ah ok et la HBM sur interposer permettant un bout de carte de 15cm t'appel ça comment toi ? moi j'appel ça un tournant, tu avances dans le noir mon coco  :D mais non voyons t'es cablé  :lol:


Message édité par genom le 19-06-2015 à 00:19:59
n°9526706
guig2000
Posté le 19-06-2015 à 00:17:36  profilanswer
 


jeanjean15 a écrit :


 
Le hdmi 2.0 n'est pas indispensable pour faire passer du 60 hz en 4K . Nvidia l'avait déja fait :
 
http://www.nextinpact.com/news/882 [...] mi-1-4.htm


 
Oui mais on perds en qualité, le HDMI 1.4 a deux fois moins de bande passante.
Avant, il n'y avait que les cartes graphiques, qui avaient du HDMI de qualité (HDMI 1.4a @ 340MHz) et rien pour y brancher dessus (les TV full HD utilisent toutes sans exception des chip HDMI à pas cher c.a.d 165MHz, d'où les limitations en 3D), maintenant c’est le contraire, il y a des TV 4K équipées HDMI 2.0 sur le marché et pas de PC avec HDMI 2.


---------------
Guig Esprit du Sage
n°9526710
lapin
Posté le 19-06-2015 à 00:20:32  profilanswer
 

McNulty a écrit :


 
oui mais est-ce qu'AMD le fait, et est-ce que ça fonctionne à travers un ampli HC ?


 
 
tu peux le paramètre dans les driver AMD Catalyse, c'est dans la gestion des panneau LCD.

n°9526715
Rayaki
Posté le 19-06-2015 à 00:28:14  profilanswer
 

genom a écrit :

Dites vous êtes sûr que le Hdmi 2.0 compliant chez Nv est matériel et pas soft ???  :o
Parce que moi pas  :D


 
oui pour la gamme 900

n°9526716
mazingerz
Posté le 19-06-2015 à 00:29:24  profilanswer
 

surement déjà demandé 50 fois
 
est ce qu'un adaptateur DP -> HDMI peut pas résoudre le problème de HDMI 2.0 absent ?

n°9526717
- gab
Posté le 19-06-2015 à 00:30:00  profilanswer
 

A priori il faudrait un adaptateur actif, et il n'y en a pas encore sur le marché.


---------------
Chounette ♥ | Oh ouiiiiiii il l'a fait, incroyable , c'est le dieu du tennis
n°9526718
jeanjean15
buy cheap, buy twice
Posté le 19-06-2015 à 00:30:07  profilanswer
 

guig2000 a écrit :


 
Oui mais on perds en qualité, le HDMI 1.4 a deux fois moins de bande passante.
Avant, il n'y avait que les cartes graphiques, qui avaient du HDMI de qualité (HDMI 1.4a @ 340MHz) et rien pour y brancher dessus (les TV full HD utilisent toutes sans exception des chip HDMI à pas cher c.a.d 165MHz, d'où les limitations en 3D), maintenant c’est le contraire, il y a des TV 4K équipées HDMI 2.0 sur le marché et pas de PC avec HDMI 2.


 
Tu ne perds rien car même les bluray sont codés en 4:2:0 .
 
De plus j'ai une télé 4k avec du displayport et pas de carte hdmi 2.0 et je pouvais quand même jouer en 4k 60 hz avec mes anciennes radeons 290 .


---------------
mes_feeds
n°9526720
mazingerz
Posté le 19-06-2015 à 00:31:58  profilanswer
 

lapin a écrit :

@Romz@in, déjà j'attendrais la sortie de la Radeon R9 NANO vers le 20 Septembre.
 
 
pour le Conservative Rasterization, d'après Nvidia ça peut être émuler par le GPU, voir si les ACE peuvent faire quelques chose.
 
 
pour les ROVs, bien que je n'ai pas compris ou ne me rappel plus à quoi cela sert, bien que ça puisse être émuler par le GPU d'après un programmeur sur Radeon en l'état actuel des choses et des Drivers c'est trop lent sur Radeon même R9, il faut plus 350 millième de seconde pour calculer les ROVs d'après les dire de se programmeurs, après faut voir les conditions.
 
se qui est amusant c'est qu'on arrête pas de parler de DX12 et DX12.1, mais on ne sais même pas quel jeux vont en avoir besoin réellement, ni ça cela à un réel intéret.
 
quand je regarde la DEMO LEO, les Radeon faisaent déjà de l'illumination globale(une forme Ray Tracing) et ça n'avait pas l'air de proser tant de soucis que cela, d'autant que la puissance en de calcul des RADEON est quand même un poile meilleur que les GTX, donc il est ou le problème.
 
mon avi même dans deux Ans trop peut de jeux vidéos auront besoin de DX12 et je ne parle même pas de DX12.1 qui rajoute deux pauvre fonction qui sont largement dispensable, lorsque DX 12 et supèrieurs seront necessaire au moins deux voir trois génération de carte graphic seront déjà produites, donc en fait c'est n'importe quoi.
 
d'autant plus que le bas niveau de programmation de DX12/Mantle/Vulkan rend la programmation très complexe et des vérifications très importante, de plus y a de fort risque de plantage à cause du niveau bas de programmation et donc d'erreur, mon avis hors démo technologique et BenchMark c'est pas demain qu'ont verrat un jeux Direct X 12 et 12.1 et Vulkan.
 
même dans 1 ans edmis on sera ultra majoritairement en jeux Direct X 11.1.
 
en suite les programmeurs vont peut être se contenter d'utiliser Direct X 11.3 qui dispose des Fonction de Direct X 12 sauf que le niveau de programmation est moins bas dans la machine et donc passe par les drivers de la carte graphic.


 
dx12 est utile dès maintenant car il permet de meilleurs optimisation à tout les niveaux

n°9526721
lapin
Posté le 19-06-2015 à 00:32:11  profilanswer
 

@jeanjean15 quel modèle de Téléviseurs UHD avec Display Port !!!?

n°9526722
Gigathlon
Quad-neurones natif
Posté le 19-06-2015 à 00:32:38  profilanswer
 

McNulty a écrit :

la Nano aura pratiquement 1 an de retard sur le GM204 avec des perfs et consommation équivalente, tu parles d'une vitrine technologique... il ne vous faut pas grand chose


Ils sont toujours sur une archi de base GCN1 quand nVidia en est à 2 évolutions dont 1 majeure depuis Kepler... arriver à être compétitif malgré ça, c'est carrément une prouesse.

 

Ils ont 2 ans de retard dans leur planning par rapport aux tendances, c'est pas nouveau, on le sait depuis Evergreen. Ils ont perdu du temps avec Barts et Cayman mais ont quand même sorti Tahiti alors que nVidia n'a pu rafraichir Fermi que 3 mois plus tard, c'est à croire que c'est seulement là qu'ils ont compris la carte qu'ils avaient à jouer, ce qui a donné Hawaï.

 

Fiji reste un proof of concept basé sur une archi franchement vieillissante (la mise à jour de Tonga étant mineure, Hawaï étant à Pitcairn ce que le GK110 est au GK104, une variante HPC) et une RAM dont les limitations étaient connues, mais ça a l'air de quand même bien tenir la route, si ce n'est qu'ils ont été obligés d'en faire une gamme à part à cause du souci du pool de RAM restreint.


Message édité par Gigathlon le 19-06-2015 à 00:45:04
n°9526723
jeanjean15
buy cheap, buy twice
Posté le 19-06-2015 à 00:33:02  profilanswer
 

lapin a écrit :

@jeanjean15 quel modèle de Téléviseurs UHD avec Display Port !!!?


 
Panasonic série AX800 .


---------------
mes_feeds
n°9526724
lapin
Posté le 19-06-2015 à 00:37:06  profilanswer
 

mazingerz a écrit :


 
dx12 est utile dès maintenant car il permet de meilleurs optimisation à tout les niveaux


 
qu'il soit utile je n'en doute pas une seul seconde, mais d'après les dires de microsoft c'est pas à la porté de tout le monde et de graves erreurs pouvant planté la machine sont à prévoir, je ne parle même pas des bug d'affichage.
 
pour programmer Bas niveau et dialoguer directement avec le GPU via l'API Direct X 12 ou Vulkan, c'est à dire sans passer par le driver, ils faut être beaucoup plus rigoureux et faire des testes avec les bon protocoles de testes si non ils vont avoir des mauvaises surprise, et se ne sera pas à la porté de tout le monde.

n°9526726
mazingerz
Posté le 19-06-2015 à 00:42:05  profilanswer
 

le gain sur les draw call sera immédiat sans passer par le bas niveau non?  
après peut être pas
 
en tout cas mantle a mis du temps a arriver mais je n'ai pas eu de plus de bug qu'avec Dx11 sous BF4

Message cité 1 fois
Message édité par mazingerz le 19-06-2015 à 00:42:35
n°9526727
drey19
Posté le 19-06-2015 à 00:44:09  profilanswer
 

Le contenu de ce message a été effacé par son auteur


Message édité par drey19 le 19-06-2015 à 00:55:40
n°9526728
Corleone_6​8
Posté le 19-06-2015 à 00:45:38  profilanswer
 

jeanjean15 a écrit :


 
Le hdmi 2.0 n'est pas indispensable pour faire passer du 60 hz en 4K . Nvidia l'avait déja fait :
 
http://www.nextinpact.com/news/882 [...] mi-1-4.htm


 
Ca ne marche pas chez AMD. Tu as beau trafiquer les drivers comme tu veux ca reste en 30hz.


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°9526730
Gigathlon
Quad-neurones natif
Posté le 19-06-2015 à 00:48:05  profilanswer
 

mazingerz a écrit :

le gain sur les draw call sera immédiat sans passer par le bas niveau non?


Non. DX12 inclue des helpers similaires à DX11, peut-être plus efficaces, mais pas aussi efficaces qu'une gestion "maison" du threading.

n°9526731
mazingerz
Posté le 19-06-2015 à 00:49:40  profilanswer
 

drey19 a écrit :

J'ai une question, quelqu'un peut il me répondre ?
 
Dans l'article HFR, je lis : "Ces 4096 unités sont réparties dans 64 Compute Units (CU), elles-mêmes réparties dans 4 Shader Engines. Ce nombre est similaire pour Tonga et Hawaii, ce qui signifie que les débits bruts de Fiji en termes de triangles par seconde, avec ou sans tessellation, n'augmentent pas."
 
http://www.hardware.fr/news/14263/ [...] tails.html
 
Si comme le suggère l'article, la nano etait par exemple à 750Mhz. Le débit de triangles par secondes,  ne serait il dans ce cas pas plus bas que celui de la 290x ?
 
Je me demande cela car je vois que la 290X a 1Ghz est indiqué a 4.0 et avec 50Mhz de plus (en 390x) elle est indiqué a 4.2 comme la fury x.
 
http://www.hardware.fr/medias/phot [...] 047661.png
 
Merci d'avance.


 
si les jeux fond pas de la tesselation n'importe comment sponsorisé par NVIDIA ça devrais aller

n°9526732
lapin
Posté le 19-06-2015 à 00:52:47  profilanswer
 

pas comme dans Crysis 2 et 3 tu veux dire :D .

n°9526750
Gigathlon
Quad-neurones natif
Posté le 19-06-2015 à 01:32:04  profilanswer
 

mazingerz a écrit :

si les jeux fond pas de la tesselation n'importe comment sponsorisé par NVIDIA ça devrais aller


Il y a peut-être eu du changement... les 4 partitions de RBE (4 pixels + 16 Zixels chaque) pour 16 CU, c'est ptet pas anodin.


Message édité par Gigathlon le 19-06-2015 à 01:37:35
n°9526761
marllt2
Posté le 19-06-2015 à 02:55:46  profilanswer
 

SH4 Origon X a écrit :

Quand j'ai changé d'écran je l'avais branché en DP.
A chaque fois que j'éteignais le moniteur j'avais un son type déconnection USB et je retrouvais mes icônes du bureau dérangées comme si l'affichage était passé en 640x480 pendant l'extinction.
 
Du coup comme c'était chiant je suis vite repassé en DVI

julien1h a écrit :


Purée ouais ca me le fait tout le temps.  
 
C'est donc pour ça que mes icônes bougent toutes seules


 :jap:  
 

guig2000 a écrit :

D'habitude, c'est AMD qui avait une version D3D XX.1 d'avance sur nvidia et ça n'a jamais servi à rien, je ne vois pas pourquoi ça changerai dans l'autre sens.


Parce qu'ils n'ont pas le même poids. C'est nVdia qui décide (ou pas) de la tendance, AMD ne peut faire que quelques deals ciblés à certains studios.
 
En 2007, les HD 2900 était par exemple considérablement (jusqu'à 50x) plus rapide en geometry shaders qu'une 8800 GTX.  
 
Ce qui avait intéressé Microsoft pour proposer un patch DX10 à Flight Simulator X. FSX qui était d'ailleurs massivement draw-call limited à l'époque. Pourtant les geometry shaders n'ont pas été exploités, à cause de la part de marché d'ATI, et du fait que c'était à l'origine un jeu TWIMTBP.
 
Par contre quand Fermi à débarqué chez nVidia (avec la tessellation bien plus rapide que les HD 5000 / HD 6000), là par contre les jeux exploitant la tessellation à tort et à travers se sont multipliés. :o

Message cité 2 fois
Message édité par marllt2 le 19-06-2015 à 03:03:40
n°9526762
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 19-06-2015 à 03:34:01  profilanswer
 

AMD est tellement à la ramasse qu'il en est rendu à mettre des proco Intel dans ses démos afin d'obtenir de grosses performances.
 
Le petit Quantum Double-Fiji est équipé d'un Intel Core i7-4790K.
 
:pfff:

n°9526763
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 19-06-2015 à 03:45:33  profilanswer
 

overclockpro a écrit :

J'ai aussi remarqué la même chose : il serait temps qu'AMD dope la puissance géométrique, de plus en plus de jeux utilisent la tesselation.


En fait, non.
 
Le hardware qui s'occupe de la tesselation est conçu pour une scène dont la moyenne de la taille des triangles est de 6 pixels. Ce qui est une taille parfaite.
 

••
•••
 
De son côté, nVidia a choisi d'optimiser son architecture de façon à gérer des triangles ayant la taille... d'un pixel. Oui, oui, des triangles de la taille d'un tout petit point. N'est-ce pas merveilleux? Un triangle constitué de trois lignes, chacune ayant la longueur d'un pixel, et qui toutes trois se superposent, ne formant plus qu'un joli pixel rempli de joie divine.
 
•  <--- Ceci est un triangle. C'est nVidia qui le dit.
 
Maintenant, que le caméléon demande aux concepteurs de jeu de mettre le paquet sur la tesselation... ça ne m'étonne guère.

n°9526781
Ds9Defiant​1701
Posté le 19-06-2015 à 07:17:54  profilanswer
 

Je ne sais pas si c'est le bon topic mais... http://www.guru3d.com/articles_pag [...] iew,8.html
 
la R7 370 est pas si mal enfaite

n°9526810
genom
urinam non decolor unda
Posté le 19-06-2015 à 08:49:35  profilanswer
 

Wirmish a écrit :

AMD est tellement à la ramasse qu'il en est rendu à mettre des proco Intel dans ses démos afin d'obtenir de grosses performances.
 
Le petit Quantum Double-Fiji est équipé d'un Intel Core i7-4790K.
 
:pfff:


 
Ben je trouve que c'est plutôt bien de reconnaître que les cpu du concurrent sont meilleures et moins énergivore, aussi si ils veulent que ça se vends, j'aurais fait pareille à leur place, stratégiquement c'est intelligent ;)
 
http://www.yogaslate.com/wp-content/uploads/2012/04/smart-people-used-quantum-jumping-1024x549.png

n°9526818
genom
urinam non decolor unda
Posté le 19-06-2015 à 08:55:48  profilanswer
 


 

marllt2 a écrit :


Parce qu'ils n'ont pas le même poids. C'est nVdia qui décide (ou pas) de la tendance, AMD ne peut faire que quelques deals ciblés à certains studios.
 
En 2007, les HD 2900 était par exemple considérablement (jusqu'à 50x) plus rapide en geometry shaders qu'une 8800 GTX.  
 
Ce qui avait intéressé Microsoft pour proposer un patch DX10 à Flight Simulator X. FSX qui était d'ailleurs massivement draw-call limited à l'époque. Pourtant les geometry shaders n'ont pas été exploités, à cause de la part de marché d'ATI, et du fait que c'était à l'origine un jeu TWIMTBP.
 
Par contre quand Fermi à débarqué chez nVidia (avec la tessellation bien plus rapide que les HD 5000 / HD 6000), là par contre les jeux exploitant la tessellation à tort et à travers se sont multipliés. :o


 
n'importe quoi :lol: faudrait changer ta vision des choses à mon avis, les tendances ne sont pas dicté par un acteur, il y participe certes mais ce serait lui donner beaucoup trop de pouvoir :D


Message édité par genom le 19-06-2015 à 10:22:06
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  197  198  199  ..  399  400  401  402  403  404

Aller à :
Ajouter une réponse
 

Sujets relatifs
Carte Graphique 250€ (AMD/NVIDIA)Radeon R9 280X Tri-X, 3Go ou GeForce GTX 770
Portable pas cher : Intel Celeron N2830 2,16 GHz ou AMD E1-2100 1GHz ?CPU ET CM Choix pour 300 euro max
R9 280X a 15€ ^^R9 290 Tri-X Chauffe beaucoup
Carte graphique R9 290 ou GTX 770 ?R9 290 Trix OC (besoin de conseils sur refroidissement)
Upgrade Radeon 5770 -> GeForce 750 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon R9 Fury (X) & Nano (28nm)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)