Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4663 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  56  57  58  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7152904
sasuke87
Posté le 07-10-2009 à 23:14:26  profilanswer
 

Reprise du message précédent :

Vampyrstar a écrit :

ça change pas le game play. mais ça mets la claque. bien plus que Crysis, je trouve :love


 
 :lol:  
 
fin bon ça reste subjectif.

mood
Publicité
Posté le 07-10-2009 à 23:14:26  profilanswer
 

n°7152927
Profil sup​primé
Posté le 07-10-2009 à 23:30:55  answer
 

olioops a écrit :

les joueurs pauvre seulement [:already 47:1]

[:cerveau d]

n°7152948
kaiser52
Posté le 07-10-2009 à 23:47:48  profilanswer
 

Y'a un truc que je comprends pas là !
Quand c'est nVIDIA ca péte, et quand c'est ATI on ne dit rien (mise a part ca va roxxer).
 

Citation :

Prennez l'exemple R600 : tous le monde disait que ca roxxerait du poney, au final, echec du poney ouai.


Moi je dis que vue que la majorité des gens sur le topic pestent sur le GF100 ca va donner :  
 

Citation :

Prennez l'exemple GF100 : tous le monde disait que ca serait un echec du poney, au final ca roxxerait du poney ouai.


 
ATI a fail puissant avec le R600, ca a pas enpecher les gens d'en acheter alors qu'elle proposait des perfs en retrait de 20% comparé a une GTX.
 
Je ne pense pas que nVIDIA va fail en proposant des perfs en hausse de ne serais-ce "que 20%".
 
La vous parlez pour les gens "d'ici" (hfr quoi, et encore beaucoup on achete des R600), si nVIDIA est devant ne serais-ce que de 5%, ca fera quand même augmenter les ventes de GTS250, le "grand" public est incapable de voir plus loin que la marque, c'est limite si ils arrivent a discerner le modele, et c'est plus eux qui dictent le marché que nous sur hfr.  :jap:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7152952
Agent heav​y
Posté le 07-10-2009 à 23:51:07  profilanswer
 

kaiser52 a écrit :

Y'a un truc que je comprends pas là !
Quand c'est nVIDIA ca péte, et quand c'est ATI on ne dit rien (mise a part ca va roxxer).
 

Citation :

Prennez l'exemple R600 : tous le monde disait que ca roxxerait du poney, au final, echec du poney ouai.


Moi je dis que vue que la majorité des gens sur le topic pestent sur le GF100 ca va donner :  
 

Citation :

Prennez l'exemple GF100 : tous le monde disait que ca serait un echec du poney, au final ca roxxerait du poney ouai.


 
ATI a fail puissant avec le R600, ca a pas enpecher les gens d'en acheter alors qu'elle proposait des perfs en retrait de 20% comparé a une GTX.
 
Je ne pense pas que nVIDIA va fail en proposant des perfs en hausse de ne serais-ce "que 20%".
 
La vous parlez pour les gens "d'ici" (hfr quoi, et encore beaucoup on achete des R600), si nVIDIA est devant ne serais-ce que de 5%, ca fera quand même augmenter les ventes de GTS250, le "grand" public est incapable de voir plus loin que la marque, c'est limite si ils arrivent a discerner le modele, et c'est plus eux qui dictent le marché que nous sur hfr.  :jap:


 
Très très pertinent !

n°7152988
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 08-10-2009 à 00:57:22  profilanswer
 

asmomo a écrit :

PS : je poste ici car ce qui m'intéresse, outre Fermi, ce sont ses dérivés.


Selon nVidia lui-même, les dérivés ne seraient pas tout à fait basés sur le "Fermi" que l'on nous a présenté.

n°7153075
djffff
Time's like ocean in storm.
Posté le 08-10-2009 à 08:09:43  profilanswer
 

Selon nvidia le "Fermi" supporte a la fois la ddr 5 et la ddr3 de plus on peu facilement imaginer comment nvidia va decliner la gamme...
 
Tes sources wirmish?

n°7153091
Ramichou
Posté le 08-10-2009 à 08:31:13  profilanswer
 

Wirmish a écrit :


Selon nVidia lui-même, les dérivés ne seraient pas tout à fait basés sur le "Fermi" que l'on nous a présenté.


 
Si ils sortent maintenant des puces milieu de gamme (actuellement composé de G94 et de déclinaisons du G80...) en DX10.1, je doute qu'il sortent d'ici 6 mois des déclinaisons du GT300.
AMD a toujours dit qu'ils allaient renouveller toute leur gamme pour DX11, nVdidia n'a jamais parlé d'une autre puce DX11 que Fermi.

n°7153093
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 08:33:28  profilanswer
 

djffff a écrit :

Selon nvidia le "Fermi" supporte a la fois la ddr 5 et la ddr3 de plus on peu facilement imaginer comment nvidia va decliner la gamme...


nVidia ne parle pas de DDR3 dans sa brochure, uniquement de GDDR5.

n°7153095
aliss
Rhyme the Rhyme Well
Posté le 08-10-2009 à 08:34:07  profilanswer
 

kaiser52 a écrit :


 
ATI a fail puissant avec le R600, ca a pas enpecher les gens d'en acheter alors qu'elle proposait des perfs en retrait de 20% comparé a une GTX.
 


 
En terme de vente (même chez les geeks d'hfr) le R600 n'a pas été un succès (encore heureux).
 
Si il s'en est tout de même vendu c'est qu'AMD la proposait au tarif d'une GTS, ils ne pouvaient faire autrement.
 

n°7153113
Blue Apple
Posté le 08-10-2009 à 08:44:19  profilanswer
 

Citation :

La vous parlez pour les gens "d'ici" (hfr quoi, et encore beaucoup on achete des R600), si nVIDIA est devant ne serais-ce que de 5%, ca fera quand même augmenter les ventes de GTS250, le "grand" public est incapable de voir plus loin que la marque, c'est limite si ils arrivent a discerner le modele, et c'est plus eux qui dictent le marché que nous sur hfr.

Le grand public, il achète un PC Dell/HP/tout fait avec une CG dedans qu'il ne sait même pas ce que c'est.
 
La gamme GT2xx accuse une densité de transistor plus faible (les GPU nVidia sont en moyenne 1.25x plus gros à nomber de transistor égaux) et sont incapables d'utiliser la GDDR5 (ok, y a 2-3 modèle pour les plteformes mobiles qui sont supposé être sorties avec GPU 40nm, DX10.1 et DDR5 mais en pratique ils sont aux abonnés absents). Tout ça se traduit par d'importantes différences en termes de coût de fabrication qui rendent les dérivés du GT2xx non compétitives au vu de la guerre des prix lancées depuis quelques mois.
 
Et c'est là que ça pose le plus problème, la gamme nVidia coûte plus cher à produire que la gamme AMD (depuis les R7xx). Donc de plus en plus d'OEM se fournissent chez AMD.
 
Et le Fermi ne fait visiblement rien pour inverser la cadence, c'est AMHA très inquiétant.

mood
Publicité
Posté le 08-10-2009 à 08:44:19  profilanswer
 

n°7153121
asmomo
Modérateur
Posté le 08-10-2009 à 08:48:53  profilanswer
 

J'ajoute que tout le monde n'était pas persuadé des futures perfs du R600, loin de là :o


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7153133
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 09:02:05  profilanswer
 

asmomo a écrit :

J'ajoute que tout le monde n'était pas persuadé des futures perfs du R600, loin de là :o


Par contre, on était bien quelques-uns à soutenir mordicus que "ils ne peuvent pas se planter, avec 6 mois de retard si ils ne font pas mieux ils n'auraient aucune raison de commercialiser le R600"... et on a vu ce que ça a donné [:yamusha]
 
C'est plus avec le R600 qu'avec le NV30 qu'il faut faire une analogie actuellement, et je dois dire que si ATI avait réussi à nous berner à coups d'informations (les 320SP, le bus 512bits...) et déclarations dont le mythique "vous serez surpris", nVidia n'a pas vraiment fait montre d'un tel enthousiasme concernant son prochain flagship, et les specs sont au passage assez peu "impressionnantes" pour ce qui est de DirectX...
 
R600 vs G80:
 
- 320SP (128)
- 512bits (384)
- 500GFlops (346)
 
GT300 vs Cypress:
 
- 512SP (1600)
- 384bits (256)
- 1.xTFlops (2.72)
 
On peut aussi citer la sortie de la 8800Ultra, qui nous avait pas mal conforté dans notre raisonnement (pourquoi nVidia sortirait une version "Ultra", si c'est pas pour ne pas être à la traine sur le R600?), à tort.

Message cité 1 fois
Message édité par Gigathlon le 08-10-2009 à 09:06:45
n°7153140
kaiser52
Posté le 08-10-2009 à 09:07:33  profilanswer
 

Gigathlon a écrit :


Par contre, on était bien quelques-uns à soutenir mordicus que "ils ne peuvent pas se planter, avec 6 mois de retard si ils ne font pas mieux ils n'auraient aucune raison de commercialiser le R600"... et on a vu ce que ça a donné [:yamusha]
 
C'est plus avec le R600 qu'avec le NV30 qu'il faut faire une analogie actuellement, et je dois dire que si ATI avait réussi à nous berner à coups d'informations (les 320SP, le bus 512bits...) et déclarations dont le mythique "vous serez surpris", nVidia n'a pas vraiment fait montre d'un tel enthousiasme concernant son prochain flagship, et les specs sont au passage assez peu "impressionnantes" pour ce qui est de DirectX...
 
R600 vs G80:
 
- 320SP (128)
- 512bits (384)
- 500GFlops (346)
 
GT300 vs Cypress:
 
- 512SP (1600)
- 384bits (256)
- 1.xTFlops (2.72)
 
On peut aussi citer la sortie de la 8800Ultra, qui nous avait pas mal conforté dans notre raisonnement (pourquoi nVidia sortirait une version "Ultra", si c'est pas pour ne pas être à la traine sur le R600?), à tort.


 
Ouai il a fait des points Mordicus à cette époque.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7153153
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 09:18:32  profilanswer
 

Quoi qu'il en soit, au vu de ces 2 listes et de ce qu'a donné le RV670 par la suite, je crois qu'on peut vraiment craindre le pire pour le GT300...
 
1- La puissance de calcul brute a à peine été multipliée par 4 (couic le MUL) à fréquence égale, contre 5 en face.
2- L'histoire récente nous a montré que plus le GPU était complexe, plus nVidia avait du mal à monter en fréquence, malgré un process plus avancé (G80 90nm à 1350/1512MHz, GT200 65nm à 1300MHz, GT200 55nm à 1476MHz).
3- Le principal problème du R600 était lié à ses ROPs buggées, sans quoi il luttait plutôt bien.
4- nVidia avait la main mise sur les devs depuis 6 mois...
 
Il n'est pas difficile d'imaginer qu'ils puissent être coincés à ~1200MHz pour le shader core, ce qui serait clairement insuffisant pour lutter et expliquerait parfaitement les interventions publiques des représentants de la société.


Message édité par Gigathlon le 08-10-2009 à 09:22:56
n°7153179
MEI
|DarthPingoo(tm)|
Posté le 08-10-2009 à 09:39:11  profilanswer
 

Allez osons la régression linéaire :
=========================
 
G80 (90nm) : 1512MHz @ 8800 Ultra
G92 (65nm) : 1688MHz @ 9800 GTX
G92b (55nm) : 1836MHz @ GTS 250
 
GT200 (65nm) : 1296MHz @ GTX 280
GT200b (55nm) : 1476MHz @ GTX 285
 
* G80 -> G92 => 1,12x
* G92 -> G92b => 1,09x
* GT200 -> GT200b => 1,14x
Moyenne des die-shrink : 1,12x
 
* G92 -> GT200 => 1,30x
* G92b -> GT200b => 1,24x
Moyenne de saut de génération : 1,27x
 
Estimation barbare de la fréquence du GT300 : (1476 / 1,27) * 1,12 = 1300MHz
 
C'est vraiment la notion basse, car le nombre de transistor n'est pas prix en compte, ni même la qualité du process ou la tension d'utilisation.
 
Si on prends en compte aussi que 65->55nm c'est que du half-node, on pourrais arrivé à ça en moyenne des die-shrink : 1,20x, ce qui donnerait : 1400MHz.

Message cité 1 fois
Message édité par MEI le 08-10-2009 à 09:39:51

---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7153180
olioops
Si jeune et déjà mabuse.
Posté le 08-10-2009 à 09:39:22  profilanswer
 

NVidia déclare ne pas vouloir arrêter les GPU milieu et HDG ...
 
http://www.pcmag.com/article2/0,28 [...] X1K0001121


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7153211
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 10:02:53  profilanswer
 

MEI a écrit :

Si on prends en compte aussi que 65->55nm c'est que du half-node, on pourrais arrivé à ça en moyenne des die-shrink : 1,20x, ce qui donnerait : 1400MHz.


Complexité 1 (~750M transistors):
G92 65nm: 1688
G92 55nm: 1836
 
Complexité 2 (~1.5G transistors):
GT200 65nm: 1296 (0.77x)
GT200 55nm: 1476 (0.80x)
 
Complexité 4 (~3G transistors):
GT300 40nm: ???
 
90 -> 65nm: 1512 -> 1688 (1.12x)
 
Si on considère que le 40nm "scale" aussi bien par rapport au 55nm que le 65nm par rapport au 90nm (et visiblement c'est pas gagné), on peut calculer 1476*0.77*1.12=1275MHz.
 
A 1275MHz, Fermi pourrait débiter 1.31TFlops de MAD FP32, ce qui est franchement moyen, car ça correspond pour ainsi dire à un RV790/Juniper...
 
Moins de 50% d'efficacité pour l'archi tordue d'AMD, ça me semble assez optimiste pour nVidia.


Message édité par Gigathlon le 08-10-2009 à 10:04:42
n°7153289
MEI
|DarthPingoo(tm)|
Posté le 08-10-2009 à 10:07:19  profilanswer
 

Non mais faut pas oublié qu'en pratique le G92 tourne quasi aussi bien que le G92b.
 
En realité le G80 a été poussé très loin dans ces retranchement, tandis que le G92 peut (y'avais pas le GT200 à l'epoque), et le G92b plutôt pareil il a pas forcement été tiré a son max. En o/c 2GHz avec un G92 était faisable sur pas mal de 8800 GTS 512 par ex.
 
D'où exploiter le plus de donnée possible.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7153578
gliterr
Posté le 08-10-2009 à 13:19:32  profilanswer
 

Vampyrstar a écrit :

'fin pour Batman, ça change tout [:atsuko]


 
Y'a certainement un coté très "fun" à jouer comme cela, et certains joueurs, je pense, peuvent très bien tomber accro à ces effets qui rajoutent énormément de réalisme.
Le probleme, c'est qu'un nombre non négligeable de joueurs ne peuvent tenter l'expérience puisqu'ils n'ont pas la carte qui va bien.
 
 
Pour en revenir au GT300, si la version grand public est très proche de la version présenté, avec 3 miiliards de transistors contre 2 pour ATI, ne vous inquiétez pas, elle risque surtout d'être largement plus chère sauf à imaginer que Nvidia casse ses marges.
Pour les perfs, aucune idée.

n°7153759
tridam
Profil : Equipe HardWare.fr
Posté le 08-10-2009 à 15:30:26  profilanswer
 

Gigathlon a écrit :


nVidia ne parle pas de DDR3 dans sa brochure, uniquement de GDDR5.


 
Si, Nvidia en parle. Fermi supporte la GDDR5 et la DDR3 (et probablement la GDDR3 aussi, mais ça n'a aucun intérêt).

n°7153799
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 16:13:31  profilanswer
 

tridam a écrit :

Si, Nvidia en parle. Fermi supporte la GDDR5 et la DDR3 (et probablement la GDDR3 aussi, mais ça n'a aucun intérêt).


Pas dans la brochure dispo sur le mini-site "Fermi" en tout cas.

n°7153817
djffff
Time's like ocean in storm.
Posté le 08-10-2009 à 16:27:42  profilanswer
 

Non mais ca a été annoncé. Et l'interet est de decliner la gamme..

n°7153819
secalex
Stalker forever
Posté le 08-10-2009 à 16:30:18  profilanswer
 

djffff a écrit :

Non mais ca a été annoncé. Et l'interet est de decliner la gamme..


Ça devient urgent car il n'aura bientôt plus que ça à décliner. :sweat:


---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7153949
tridam
Profil : Equipe HardWare.fr
Posté le 08-10-2009 à 18:03:01  profilanswer
 

Gigathlon a écrit :


Pas dans la brochure dispo sur le mini-site "Fermi" en tout cas.


 
C'est précisé dans les documents que j'ai.

n°7153953
tridam
Profil : Equipe HardWare.fr
Posté le 08-10-2009 à 18:04:22  profilanswer
 

djffff a écrit :

Non mais ca a été annoncé. Et l'interet est de decliner la gamme..


 
Ici l'intérêt du support de la DDR3 n'est pas de décliner la gamme, mais de pouvoir plus facilement supporter l'ECC.

n°7153963
dragonlore
Posté le 08-10-2009 à 18:11:01  profilanswer
 

olioops a écrit :

NVidia déclare ne pas vouloir arrêter les GPU milieu et HDG ...
 
http://www.pcmag.com/article2/0,28 [...] X1K0001121


comme on dit, les rumeurs ça conduit à du grand n'importe quoi et nvidia est obligé de dire que non ils n'arrêtent pas lesgpus hdg alors que c'était ne serait-ce qu'une abbération que de penser le contraire

n°7153969
hifibuff
Posté le 08-10-2009 à 18:16:57  profilanswer
 

Va dire ça à tous ceux qui me prenaient quasiment de haut lorsqu'au lendemain des annonces sur le Fermi je disais que ça ne voulait pas dire grand chose sur l'avenir du GPU pour joueur, ou qu'à tout le moins, il ne fallait pas tirer de conclusions trop hâtives sur le sujet...

 

Enfin bref. Vivement que des annonces soient faites pour rassasier et apaiser les joueurs en mal de nouvelles du caméléon.


Message édité par hifibuff le 08-10-2009 à 18:18:04
n°7153984
M16
Posté le 08-10-2009 à 18:25:00  profilanswer
 

ya une date de NDA?
ou seulement des annonces.


Message édité par M16 le 08-10-2009 à 18:25:21
n°7153985
Corleone_6​8
Posté le 08-10-2009 à 18:25:14  profilanswer
 

La fin des chipsets chez nVidia


---------------
Phanteks Enthoo Primo / Seasonic P-860 / Asus Strix B550 E/ Ryzen 5600X WC / 2*16 F4 3600C16 Gskill Ripjaws @3733 / 6900XT Red Devil / Crucial C300 128 Go / Sam 850 Evo 500 Go / Velociraptor 300 Go / Caviar Red 4 To / Caviar Black 1 To
n°7153992
asmomo
Modérateur
Posté le 08-10-2009 à 18:28:24  profilanswer
 

tridam a écrit :

Ici l'intérêt du support de la DDR3 n'est pas de décliner la gamme, mais de pouvoir plus facilement supporter l'ECC.


 
Tiens puisque t'es là, peux-tu expliquer ça ? Il ne faut pas de mémoire spéciale normalement pour l'ECC :??:


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7154007
sasuke87
Posté le 08-10-2009 à 18:37:56  profilanswer
 

Interview de nvidia sur le sujet de DX11: http://www.tweaktown.com/articles/ [...] index.html
 
De ce que j'ai compris, nvidia raconte toujours la même histoire à savoir DX11 c'est cool, mais physX et 3Dvision ça aussi c'est cool et c'est dispo NOW.
 

n°7154015
M16
Posté le 08-10-2009 à 18:40:58  profilanswer
 

sasuke87 a écrit :

Interview de nvidia sur le sujet de DX11: http://www.tweaktown.com/articles/ [...] index.html
 
De ce que j'ai compris, nvidia raconte toujours la même histoire à savoir DX11 c'est cool, mais physX et 3Dvision ça aussi c'est cool et c'est dispo NOW.
 


 
 ca sent pas bon pour DX11 (a premiere vu)

n°7154045
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 19:02:32  profilanswer
 

sasuke87 a écrit :

Interview de nvidia sur le sujet de DX11: http://www.tweaktown.com/articles/ [...] index.html
 
De ce que j'ai compris, nvidia raconte toujours la même histoire à savoir DX11 c'est cool, mais physX et 3Dvision ça aussi c'est cool et c'est dispo NOW.
 


Oui, d'ailleurs on peut citer...

Citation :

What are your thoughts on Direct X 11? Is its uptake going to be greater than DX 10 or is it going to be graphics enhancements that gamers aren't really going to get use from any time soon?  
 
DX11 is a very good thing. Anything that makes the PC gaming experience better is great. This is also why we focus on adding things like PhysX and 3D Vision to PC games. Our next generation Fermi-based GeForce will support DX11, PhysX and 3D Vision so gamers don't have to compromise. With GeForce, you can have it all.


Et...

Citation :

The difference is that PhysX and CUDA are here TODAY.


C'est quand même gros, non? [:yamusha]
 

M16 a écrit :

ca sent pas bon pour DX11 (a premiere vu)


A ton avis, entre une API standard de fait et une API annexe qui ne sera jamais standard, les devs, ils vont choisir quoi?

Message cité 1 fois
Message édité par Gigathlon le 08-10-2009 à 19:05:03
n°7154120
dragonlore
Posté le 08-10-2009 à 19:56:57  profilanswer
 

Gigathlon a écrit :


Oui, d'ailleurs on peut citer...

Citation :

What are your thoughts on Direct X 11? Is its uptake going to be greater than DX 10 or is it going to be graphics enhancements that gamers aren't really going to get use from any time soon?

 

DX11 is a very good thing. Anything that makes the PC gaming experience better is great. This is also why we focus on adding things like PhysX and 3D Vision to PC games. Our next generation Fermi-based GeForce will support DX11, PhysX and 3D Vision so gamers don't have to compromise. With GeForce, you can have it all.


Et...

Citation :

The difference is that PhysX and CUDA are here TODAY.


C'est quand même gros, non? [:yamusha]

 


 

en quoi c'est gros?

 

physx et cuda sont bien là aujourd'hui et utilisés alors que dx11 bof bof pour l'instant.

 

dans 6 mois ce sera peut être différent mais aujourd'hui non.

 

en tout cas nvidia a mille fois raison quand il dit ça

Citation :

It is unfortunate for AMD GPU customers that AMD does not innovate at the same pace as NVIDIA and that they miss out on great features like PhysX and 3D Vision in blockbuster titles like Batman: Arkham Asylum.

 

si seulement amd avait fait des efforts, les joueurs sous radeon ne seraient peut être pas lésés.

Message cité 1 fois
Message édité par dragonlore le 08-10-2009 à 20:00:11
n°7154125
Gein
Posté le 08-10-2009 à 20:00:41  profilanswer
 

Le mieux n'est pas de développer un soft avec la plus grande portabilité histoire de cibler plus de client non ?
 
Il est claire que DX11 n'est pas présent actuellement.
Mais CUDA va laisser sa place a opencl et les compute shader de dx11.

n°7154140
Gigathlon
Quad-neurones natif
Posté le 08-10-2009 à 20:09:43  profilanswer
 

dragonlore a écrit :

si seulement amd avait fait des efforts, les joueurs sous radeon ne seraient peut être pas lésés.


Oui enfin ça c'est la version nVidia hein...
 
Une autre version est que PhysX n'a jamais fonctionné correctement du temps d'Ageia, et que ça ne fonctionne guère mieux avec nVidia (chutes de framerate monstrueuses pour des effets pas terribles), par contre curieusement la bibliothèque CPU a tout l'air d'être encore plus mauvaise qu'à l'époque.
 
Le genre d'efforts dont tu parles, c'est ni plus ni moins que payer (très) cher pour avoir accès à des sources pas forcément utilisables que nVidia ne voudrait d'ailleurs pas forcément leur vendre.
 
nVidia prend ses clients en otage avec PhysX (et pas CUDA dont on se fout éperdument dans les jeux), en montrant du doigt son concurrent alors que le seul responsable, c'est... nVidia.

Message cité 2 fois
Message édité par Gigathlon le 08-10-2009 à 20:13:24
n°7154161
MEI
|DarthPingoo(tm)|
Posté le 08-10-2009 à 20:20:27  profilanswer
 

Gigathlon a écrit :


Oui enfin ça c'est la version nVidia hein...
 
Une autre version est que PhysX n'a jamais fonctionné correctement du temps d'Ageia, et que ça ne fonctionne guère mieux avec nVidia (chutes de framerate monstrueuses pour des effets pas terribles), par contre curieusement la bibliothèque CPU a tout l'air d'être encore plus mauvaise qu'à l'époque.
 
Le genre d'efforts dont tu parles, c'est ni plus ni moins que payer (très) cher pour avoir accès à des sources pas forcément utilisables que nVidia ne voudrait d'ailleurs pas forcément leur vendre.
 
nVidia prend ses clients en otage avec PhysX (et pas CUDA dont on se fout éperdument dans les jeux), en montrant du doigt son concurrent alors que le seul responsable, c'est... nVidia.


Forcement que PhysX a une impact, ca augmente aussi la charge graphique vu que souvent c'est des effets en plus.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7154163
MEI
|DarthPingoo(tm)|
Posté le 08-10-2009 à 20:21:22  profilanswer
 

Gein a écrit :

Le mieux n'est pas de développer un soft avec la plus grande portabilité histoire de cibler plus de client non ?
 
Il est claire que DX11 n'est pas présent actuellement.
Mais CUDA va laisser sa place a opencl et les compute shader de dx11.


OpenCL sous Windows on le vera jamais... :whistle:
 
Plus personne developpement en OpenGL. Même l'id Tech 5 est sous DirectX... :'(


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7154218
lord_walat​orman
Posté le 08-10-2009 à 20:52:11  profilanswer
 

MEI a écrit :


OpenCL sous Windows on le vera jamais... :whistle:
 
Plus personne developpement en OpenGL. Même l'id Tech 5 est sous DirectX... :'(


 
Euuh, tu es bien sûr de ça ? Il me semble que la version PC (Windows/Mac et peut être Linux) utilisera OpenGL et directX9, mais pas direct3D (note: je fais la distinction entre directx et direct3d). La version xbox360 sera D3D, la version PS3 Open GLES.
Je viens de retrouver le lien http://ve3d.ign.com/articles/news/ [...] -id-Tech-5. Ca fait 2 ans, peut être que ca a changé entre temps.

n°7154236
Kayanwan
Pixelyoz
Posté le 08-10-2009 à 20:57:31  profilanswer
 

MEI a écrit :


OpenCL sous Windows on le vera jamais... :whistle:
 
Plus personne developpement en OpenGL. Même l'id Tech 5 est sous DirectX... :'(


 
OpenGL et OpenCL sont 2 choses différentes  :o  
 
 


---------------
www.pixelyoz.com - www.eyeofworld.pixelyoz.com - www.emotionofday.pixelyoz.com - www.footproject.pixelyoz.com
n°7154239
Kayanwan
Pixelyoz
Posté le 08-10-2009 à 20:58:33  profilanswer
 

Gein a écrit :

Le mieux n'est pas de développer un soft avec la plus grande portabilité histoire de cibler plus de client non ?
 
Il est claire que DX11 n'est pas présent actuellement.
Mais CUDA va laisser sa place a opencl et les compute shader de dx11.


 
+1 comme toute chose propriétaire et fermé .... nVidia n'a pas apprit du rachat de 3Dfx  :pfff:

Message cité 1 fois
Message édité par Kayanwan le 08-10-2009 à 21:05:56

---------------
www.pixelyoz.com - www.eyeofworld.pixelyoz.com - www.emotionofday.pixelyoz.com - www.footproject.pixelyoz.com
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  56  57  58  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)