Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2349 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  68  69  70  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7295163
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 19:47:13  profilanswer
 

Reprise du message précédent :

Ramichou a écrit :

HFR a donné l'explication : c'est LE seul bench de jeux sans physX qui a été éxécuté par Nvidia dévant les journalistes. Autant dire qu'il ne vaut pas grand chose.


T'as oublié Heaven :o
 
Bon, spa un jeu mais ça reste un bench.
 
D'ailleurs il a décidément un comportement très bizarre sur les HD5k, tout à l'heure ou demain je regarderai ce que donnent mes relevés faits à 850/600 mais la différence sur la moyenne est assez limitée.

mood
Publicité
Posté le 19-01-2010 à 19:47:13  profilanswer
 

n°7295175
AbelJemka
Posté le 19-01-2010 à 19:51:26  profilanswer
 

manut2500 a écrit :

C'est beau de faire des reproches au programme TWIMTBP mais on pourrait aussi reprocher à ATI de ne pas avoir un tel programme non ?
Il me semble qu'ils ne font pas grands choses pour aider les editeurs.


Dirt 2, Battleforge, Stalker ont bénéficiés de l'aide d'AMD.
AMD n'a pas de programme spécifique d'aide, ça ne veut pas dire qu'ils n'aident pas.


---------------
feedback
n°7295182
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 19:54:03  profilanswer
 

manut2500 a écrit :

On pourrait en dire autant de gigathlon sytématiquement négatif concernant nvidia, on se demande pourquoi d'ailleurs.


Mouais...
 
C'est pas comme si j'avais été le premier ici à faire part d'un comportement suspect de Heaven sur HD5870 (genre y'a 15 jours) alors que tout le monde dit partout "c'est supra-méga-fluide"...
 
Si je suis négatif, c'est surtout car ils n'ont toujours présenté aucune preuve tangible et ils ont même réussi à donner des "infos" qui font plus peur qu'elles ne (re)donnent confiance.
 
Comme tout le monde, je loupe parfois des détails, mais si tu regardes les derniers posts "analytiques" ici-même, ils sont certainement plus à leur place que des "Fanboys ATI, dehors!", ne parlons pas des "clairement, ça va tout déchirer"... (note : ces 2 citations approximatives ne s'appliquent pas forcément aux mêmes personnes)

Message cité 1 fois
Message édité par Gigathlon le 19-01-2010 à 20:06:29
n°7295186
Kyosh1ro
...
Posté le 19-01-2010 à 19:55:01  profilanswer
 

MEI a écrit :

D'autant plus que la GF100 est plus courte que la 5870, donc le PCB plus cher n'est même pas acquis d'avance.


J'ai déjà demandé implicitement mais soit t'a zappé soit t'a esquivé, d'où tiens tu cette info...?


---------------
o_Ø | "What some people think makes us strange or weird or fucked up, we think is what makes us beautiful."
n°7295193
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 19:57:29  profilanswer
 

Kyosh1ro a écrit :

J'ai déjà demandé implicitement mais soit t'a zappé soit t'a esquivé, d'où tiens tu cette info...?


NVidia l'a annoncée à 10.5" soit la même longueur que la 5870 "nue", donc c'est effectivement faux.
 
D'autre part, PCB plus petit ne rime pas forcément avec coût inférieur, plus de traces dans une même surface implique plus de couches et/ou de travail d'optimisation.


Message édité par Gigathlon le 19-01-2010 à 19:59:00
n°7295202
manut2500
Posté le 19-01-2010 à 20:03:01  profilanswer
 

Gigathlon a écrit :


Mouais...
 
C'est pas comme si j'avais été le premier ici à faire part d'un comportement suspect de Heaven sur HD5870 (genre y'a 15 jours) alors que tout le monde dit partout "c'est supra-méga-fluide"...
 
Si je suis négatif, c'est surtout car ils n'ont toujours présenté aucune preuve tangible et ils ont même réussi à donner des "infos" qui font plus peur qu'elles ne (re)donnent confiance.
 
Comme tout le monde, je loupe parfois des détails, mais si tu regardes les derniers posts "analytiques" ici-même, ils sont certainement plus à leur place que des "Fanboys ATI, dehors!", ne parlons pas des "clairement, ça va tout déchirer"...


 
gigathlon tu ne peux pas dire que c'est mon genre de discours je n'ai jamais dit "clairement, ça va tout déchirer" c'est pas mon genre.
Pour en revenir au fermi je suis par contre étonné egalement qu'ils aient baissé la puissance en filtrage alors que c'est justement une des qualités du GT200, vraiment bizarre surement pas assez de place pour caser tous les transistors nécessaires, Déja que c'est la galere comme ca a le faire fabriquer par tsmc.

n°7295360
lolotwingo
NCC-1701
Posté le 19-01-2010 à 21:25:04  profilanswer
 

Question "bête" mais qui necessite des connaissances techinques pour répondre donc je la pose quand même  :o  
 
=> 1.5Go de ram sera-t-il suffisant sur le long terme ?
Pas d'un point de vue de la conso standard des jeux car là chacun son avis (1go ou 2go, blabla, quoi que là la question se pose plus vu qu'on est a mi-chemin, mais c'est pas le sujet)
Mais surtout vis à vis de l'architecture : la multiplication des triangles via tessallation, le découpage en 4 GPC, et toutes ces nouveautés, dans le cas du GT100, peuvent-elles augmenter sensiblement voire fortement la VRAM utilisée par rapport à l'architecture précédente ?
Si oui, ce 1.5Go pourrait "équivaloir" (  :heink:  :D  ) à 1go de la gen précédente, et du coup ne clairement pas suffire danscertains cas (forte réso/AA, jeux moddés, jeux futur, etc).
 
Merci d'éviter une nième polémique sur le fait qu'1Go soit assez ou pas ! La question c'est si la conso VRAM risque d'augmenter ou pas, après chacun décide en fonction  :jap:


Message édité par lolotwingo le 19-01-2010 à 21:36:21

---------------
Path Of Exile addicted | LG K11 | BeQuiet! 500DX, Corsair RM850x, Gigabyte B550M DS3H, Ryzen 5 3600 @stock, 2x16Go Corsair Vengeance LPX 3200, Nvidia 3060TI Founders Edition
n°7295374
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 21:34:51  profilanswer
 

A priori le GF100 devrait mieux se comporter que le GT200 avec une même quantité de RAM et la même charge de travail.
 
Après, avec tessellation, ça reste franchement négligeable pour la simple raison que les données "réelles" qu'elle utilise ne sont pas plus lourdes que les données nécessaires pour réaliser des bidouilles simulant la géométrie (POM par exemple).

n°7295378
Sam Erousi​s
Posté le 19-01-2010 à 21:35:47  profilanswer
 

La question est intéressante  :) , mais je suis incapable d'y répondre.
Cependant je pense que 1,5Go de Vram est insuffisant sur le long terme pour une carte haut-de-gamme  [:airforceone] , en se basant sur une consommation en Vram identique à la génération précédente.


---------------
Le bien ou le mal n'existe pas, ce n'est qu'une différence de point vue.
n°7295387
Gein
Posté le 19-01-2010 à 21:38:57  profilanswer
 

En plus de ça si tu rajoute la 3D sur 3 écran, la ram risque d'être limite a long terme.

mood
Publicité
Posté le 19-01-2010 à 21:38:57  profilanswer
 

n°7295402
Gigathlon
Quad-neurones natif
Posté le 19-01-2010 à 21:42:13  profilanswer
 

Tout dépend grandement de ce qu'on nous prépare au final.
 
Les textures peuvent souvent prendre moins de place qu'elles ne le font généralement (le fameux RGB9E5 cité plus tôt permet de coder chaque pixel HDR en 32bits contre 48/64bits pour le FP16 pas excessivement plus précis) et la tessellation permet de réaliser beaucoup plus de travail au sein du GPU (moins de buffers souvent trop grands pour tenir en cache).

n°7295450
dragonlore
Posté le 19-01-2010 à 22:03:06  profilanswer
 

AbelJemka a écrit :


Dirt 2, Battleforge, Stalker ont bénéficiés de l'aide d'AMD.
AMD n'a pas de programme spécifique d'aide, ça ne veut pas dire qu'ils n'aident pas.


jeux dx11 donc c'est normal. Nvidia allait pas aider à sortir un jeu dx11 avant qu'ils aient une carte dx11. Ils ne sont pas suicidaires non plus.
 
ATI a lancé il y a 5 ans un programme concurrent à celu ide nvidia qui est plus resté lettre morte qu'autre chose.

n°7295612
seu
Posté le 19-01-2010 à 23:23:37  profilanswer
 

Vous vous basez sur du vent pour lancer des affirmations pour l'instant....
 
Moi j'attend les chiffres de Marc avant de donner mon avis, histoire de pas passer pour un Fanboy (Que le meilleur gagne , en ce qui me concerne)
 
Alors , si il vous plait , arretez de balancer des suppositions foireuses sur un GPU dont on sait trés peu de choses quand aux résultats réels (c'est pas les chiffres sans aucune données concretes qui vont me convaincre...)  C'est le topic du GF100 non? pas de l'antiNvidia , ou des Pro Ati (ou l'inverse...) si vous avez des infos , parlez en , sinon , aller sur le graphical open bar pour vous amusez avec vos suppositions :)
 
(a moins que  vous soyez tous ingé en hardware GPU , ou que vous travailliez chez ATI ou Nvidia.... la j'ecouterais volontier ce que vous avez a dire  :whistle:  )

n°7295626
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 23:30:41  profilanswer
 

Sam Erousis a écrit :

La question est intéressante  :) , mais je suis incapable d'y répondre.
Cependant je pense que 1,5Go de Vram est insuffisant sur le long terme pour une carte haut-de-gamme  [:airforceone] , en se basant sur une consommation en Vram identique à la génération précédente.


Alors là chapeau, si on commence a dire que la Fermi c'est pas cool a cause des seulement 1,5Go de RAM, on se mort la queue... et que dire des 5870 et leurs seulement 1Go de RAM ?
 
En pratique DX11 ne va demander plus de RAM que pour les normal map pour la tesselation. Comme les textures ne seront pas forcement plus fine ça ne changera pas grand chose. Du coup a voir. Tant qu'ATI propose des modèles 1Go de toutes facons NVIDIA est a l'abris car les dev' ne feront jamais un jeu qui a besoin de plus de RAM que les cartes peuvent avoir.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7295631
MEI
|DarthPingoo(tm)|
Posté le 19-01-2010 à 23:34:33  profilanswer
 

Gein a écrit :

En plus de ça si tu rajoute la 3D sur 3 écran, la ram risque d'être limite a long terme.


En VRAM, même du 3x 1920x1200x32, même en triple buffer, ça ne prends que 79Mo de RAM au lieu donc d'environ 26Mo sans "EyeFinity". Ca reste négligeable en pratique...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7295647
seu
Posté le 19-01-2010 à 23:45:03  profilanswer
 

Heu Mei , j'ai un doutes , tu serais pas un fanboy Ati par hasard?  :D  
 
(qui aime bien chatie bien? ou charrie bien...)


Message édité par seu le 19-01-2010 à 23:45:38
n°7295654
big e
Posté le 19-01-2010 à 23:47:14  profilanswer
 

Sinon, wirmish est banni ou quoi?  :D

n°7295675
Gigathlon
Quad-neurones natif
Posté le 20-01-2010 à 00:05:54  profilanswer
 

MEI a écrit :

En VRAM, même du 3x 1920x1200x32, même en triple buffer, ça ne prends que 79Mo de RAM au lieu donc d'environ 26Mo sans "EyeFinity". Ca reste négligeable en pratique...


Faut quand même considérer les indispensables flush vers la RAM, même si la tessellation peut limiter leur importance. On peut aussi voir du côté des CS pour limiter les accès RAM, un SSAO en CS ne passant pas inutilement 2x par les ROPs.
 
Même avec les "économies" aussi bien en terme de bande passante que de capacité permises par les 2 dernières révisions de DX, il y aura forcément bien plus que le seul framebuffer en RAM, notamment des textures dont certaines en HDR (jusque 128bits par pixel et plus de 1024x1024 pixels, soit 16Mo+ pièce hors mipmaps), les modèles géométriques et toujours plus de shaders de plus en plus complexes (heureusement, eux se comptent plus en ko...)
 
Reste que si il n'y a pas de forcing pour augmenter inutilement la précision, le besoin en RAM et bande passante devrait baisser à rendu comparable.

n°7295702
AbelJemka
Posté le 20-01-2010 à 00:44:29  profilanswer
 

dragonlore a écrit :


jeux dx11 donc c'est normal. Nvidia allait pas aider à sortir un jeu dx11 avant qu'ils aient une carte dx11. Ils ne sont pas suicidaires non plus.
 
ATI a lancé il y a 5 ans un programme concurrent à celu ide nvidia qui est plus resté lettre morte qu'autre chose.


Donc c'est normal que Nvidia n'appuye pas un jeu DX11 puisqu'il n'ont pas de carte DX11 mais c'est anormal que ATI n'est pas aidé les devs de Batman alors que Batman utilise le PhysX hardware que AMD ne supporte pas?
 
Le programme d'ATI a existé "Get In The Game". AMD l'a abandonné. Mais ce n'est pas parce que AMD ne crie pas sur tout les toit qu'ils aident les développeur qu'ils ne le font pas.  
 


---------------
feedback
n°7295710
Gigathlon
Quad-neurones natif
Posté le 20-01-2010 à 01:06:04  profilanswer
 

Sinon, plus ça vient et plus je vois ce GF100 comme le R600 de NVidia...
 
Certes, les perfs étaient pas au niveau, le ringbus et le bus externe 512bits étaient guère utiles, il était buggé toussa... mais vu la parenté indéniable entre lui et les GPU actuels qu'AMD propose, c'est pas forcément négatif.
 
Ca fait vraiment penser à une archi trop en avance, car sur du 28nm il aurait une taille bien plus raisonnable et on pourrait même envisager une version à la puissance doublée, RV770 vs R600 en somme.
 
Ca n'enlève pas le côté superflu du débit des rasterizers (pas moyen que ça soit utile, surtout AA actif avec 4+ échantillons par triangle... pour ça il faudrait beaucoup plus de puissance de calcul), mais ça fera probablement une très bonne base pour la prochaine génération.
 
Au final AMD devra aussi reprendre les bases, que le GF100 soit ou non compétitif car ils ont atteint (dépassé?) la limite de leur archi actuelle... la période octobre 2010 - mars 2011 risque d'être intéressante.


Message édité par Gigathlon le 20-01-2010 à 01:08:44
n°7295717
Profil sup​primé
Posté le 20-01-2010 à 01:23:36  answer
 

oui si on suit l'histoire de nVidia à chaque nouvelle architecture c'est le refresh qui a donné tout le potentiel initial.
 
TNT => TNT2
Geforce256 => Geforce 2
Geforce 3 => Geforce 4
(exception GeforceFX = owned by M$)
Geforce 6 => Geforce 7
Geforce 8/9 => GT200
Fermi => Fermi 2 ???
 
Sachant qu'ATI avec le HD5xxx c'est l'optimisation ultime de l'architecture HD4xxxx et qui a atteint les limites d'évolution de cette l'architecture, que HD6xxx sera donc une toute nouvelle architecture dont on peut supposer qu'AMD orientera aussi vers le marché pro (openCL, modèle physique, affichage 3D, ...) en plus du gamer pour concurrencer nVidia, la période refresh GF100 vs HD6xxx risque d'être mémorable.

Message cité 1 fois
Message édité par Profil supprimé le 20-01-2010 à 01:28:43
n°7295720
Gigathlon
Quad-neurones natif
Posté le 20-01-2010 à 01:29:34  profilanswer
 

Ce qu'il sera intéressant de regarder, c'est les choix qu'aura fait AMD surtout.
 
Si pour le moment, le GF100 reste assez bancal, il n'est pas dit que d'ici l'arrivée de la prochaine archi (signée "AMD Kekchoz" au lieu d'"ATI Radeon"?) ils n'aient pas déjà la réponse.
 
En fait ça collerait vachement bien avec l'histoire des cadres dirigeants qui s'étaient volontairement attribué un salaire d'un dollar symbolique : on fout tout dans la R&D pour pouvoir proposer le refresh au plus vite... d'ailleurs on a pas eu de nouvelles de cette histoire.

n°7295754
asmomo
Modérateur
Posté le 20-01-2010 à 05:38:04  profilanswer
 

 

Hum hum. Ils se sont ownés tous seuls à pas vouloir suivre les normes (et d'ailleurs ils continuent, sauf que la dernière fois ils ont réussi à faire changer M$ d'avis, couillonnant ATI au passage, et rendant DX10 tout pourri).

Message cité 1 fois
Message édité par asmomo le 20-01-2010 à 05:38:29

---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°7295782
tridam
Profil : Equipe HardWare.fr
Posté le 20-01-2010 à 08:14:24  profilanswer
 

Gigathlon a écrit :


T'as oublié Heaven :o
 
Bon, spa un jeu mais ça reste un bench.
 
D'ailleurs il a décidément un comportement très bizarre sur les HD5k, tout à l'heure ou demain je regarderai ce que donnent mes relevés faits à 850/600 mais la différence sur la moyenne est assez limitée.


 
Nvidia n'a pas fait de benchmark de Heaven devant nous (ou alors je m'étais endormi :o faut dire qu'un dimanche à 9h du matin à Las Vegas c'est un super moment pour parler d'une nouvelle archi :o). Par contre ils ont passé un slide avec les performances sur un segment du bench.

n°7295802
MEI
|DarthPingoo(tm)|
Posté le 20-01-2010 à 08:38:53  profilanswer
 

asmomo a écrit :


 
Hum hum. Ils se sont ownés tous seuls à pas vouloir suivre les normes (et d'ailleurs ils continuent, sauf que la dernière fois ils ont réussi à faire changer M$ d'avis, couillonnant ATI au passage, et rendant DX10 tout pourri).


Non ils ont justement suivit la norme DX9 le plus betement possible alors qu'ATI l'a appliquer au minimum. Car le FP32 etait bel et bien dans DX9 dès le debut. Sauf que le FP24 etait deja considéré comme du double precision.
 
Après NVIDIA comme ATI ont toujours eu des choses pas dans l'API ou un peu plus large. (cf SM2 SM2a SM2b ... :o)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7295806
seu
Posté le 20-01-2010 à 08:44:06  profilanswer
 

Tridam , est-ce que tu sais si les constructeurs de GPU ont essayé de réduire les effets de micro Shuttering dans les sytemes SLI GF100 (ou Crossfire pour ATI )ou dans les nouvelles archi? Ou c'est juste irrémédiable?

n°7295811
hifibuff
Posté le 20-01-2010 à 08:48:37  profilanswer
 

Franchement, je viens de 3*8800GTX->2*GTX280->3*5870->2*5870(chauffaient trop:D) je n'ai jamais vraiment compris ces histoires de micro-stuttering...


---------------
"Every man dies, not every man really lives"
n°7295813
secalex
Stalker forever
Posté le 20-01-2010 à 08:50:32  profilanswer
 

hifibuff a écrit :

Franchement, je viens de 3*8800GTX->2*GTX280->3*5870->2*5870(chauffaient trop:D) je n'ai jamais vraiment compris ces histoires de micro-stuttering...


+1 :??:  
 
C'est pour les yeux bioniques. [:aras qui rit]


Message édité par secalex le 20-01-2010 à 08:50:50

---------------
FEED-BACK /   I phoque PiseptO (Paidai i7 Owner)
n°7295822
seu
Posté le 20-01-2010 à 08:58:05  profilanswer
 

ça depend surtout les jeux  :D  
 
Y'en a certains ou c'est plus visibles que d'autres , c'est assez aléatoire , mais vu que j'ai un crossfire , j'ai pas envis de me payer des micro lag foireux :(

n°7295826
tridam
Profil : Equipe HardWare.fr
Posté le 20-01-2010 à 09:01:36  profilanswer
 

Ce n'est pas vraiment lié au GPU ça mais plutôt a une synchronisation qui n'est pas toujours parfaite dans les systèmes multi-GPU. Sans vsync je ne pense pas qu'il y ait moyen de faire disparaître complètement ces désagréments même s'il y a moyen d'améliorer les choses via les pilotes.

n°7295842
MEI
|DarthPingoo(tm)|
Posté le 20-01-2010 à 09:22:39  profilanswer
 

tridam a écrit :

Ce n'est pas vraiment lié au GPU ça mais plutôt a une synchronisation qui n'est pas toujours parfaite dans les systèmes multi-GPU. Sans vsync je ne pense pas qu'il y ait moyen de faire disparaître complètement ces désagréments même s'il y a moyen d'améliorer les choses via les pilotes.


Oui mais avec Vsync les jeux sont lent et pas fluide donc d'un côté si faut un CF + Vsync pour avoir le meme confort que sans CF sans Vsync... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7295861
Ramichou
Posté le 20-01-2010 à 09:41:00  profilanswer
 

Hum le CF n'est pas en SFR maintenant ? Ca change quelque chose au micro stuttering ?

n°7295884
Fouge
Posté le 20-01-2010 à 10:00:28  profilanswer
 

MEI a écrit :


Non ils ont justement suivit la norme DX9 le plus betement possible alors qu'ATI l'a appliquer au minimum. Car le FP32 etait bel et bien dans DX9 dès le debut. Sauf que le FP24 etait deja considéré comme du double precision.


"De plus, comme vous pouvez le voir la précision est loin d´être au rendez vous, puisque NVIDIA utilise une précision partielle (FX12 ou FP16) au lieu d´une précision complète (FP24 ou 32, DX9 nécessitant au minimum FP24 par défaut) en virgule flottante." (HFR)
 
"Il est à noter qu´en DirectX 9, les drivers NVIDIA semblent forcer une précision moins importante, à priori FP16 au lieu de FP32 par défaut et FP24 chez ATI." (HFR)

n°7295890
MEI
|DarthPingoo(tm)|
Posté le 20-01-2010 à 10:03:33  profilanswer
 

Fouge a écrit :


"De plus, comme vous pouvez le voir la précision est loin d´être au rendez vous, puisque NVIDIA utilise une précision partielle (FX12 ou FP16) au lieu d´une précision complète (FP24 ou 32, DX9 nécessitant au minimum FP24 par défaut) en virgule flottante." (HFR)
 
"Il est à noter qu´en DirectX 9, les drivers NVIDIA semblent forcer une précision moins importante, à priori FP16 au lieu de FP32 par défaut et FP24 chez ATI." (HFR)


On parlait de l'influence de l'API sur le hard et inversement, pas des optis pilotes baveuses (qui n'existent plus je crois).
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7295897
dragonlore
Posté le 20-01-2010 à 10:07:24  profilanswer
 

AbelJemka a écrit :


Donc c'est normal que Nvidia n'appuye pas un jeu DX11 puisqu'il n'ont pas de carte DX11 mais c'est anormal que ATI n'est pas aidé les devs de Batman alors que Batman utilise le PhysX hardware que AMD ne supporte pas?

 

Le programme d'ATI a existé "Get In The Game". AMD l'a abandonné. Mais ce n'est pas parce que AMD ne crie pas sur tout les toit qu'ils aident les développeur qu'ils ne le font pas.

 



Le programme était justement pour aider les développeurs. S'ils l'ont abandonné c'est qu'ils ne doivent pas les aider tout autant sinon ce programme n'aurait pas été abandonné. CQFD.

 

sinon un petit HS qui m'a fait bien rire avec AMD qui se plaint qu'une propriété technologique que son concurrent a payé et finance avec ses propres sous n'est pas optimisé pour ses CPUs ou aurait été désoptimisé.

Citation :

AMD affirme que NVIDIA a modifié l’API PhysX pour qu’elle ne tire pas parti des multiples cores présents dans les CPU afin de donner un avantage plus important à ses GPU.
NVIDIA handicape les CPU

 

Pour rappel, Ageia a été racheté par le Caméléon qui a ainsi pris possession du moteur de la firme dédié aux calculs physiques (cf. « NVIDIA se paie Ageia et tout ce qui va avec »). Or, au moment de cette acquisition, l’API était relativement bien optimisée pour les CPU multicores selon Richard Huddy, responsable chez AMD. Mais avec le temps, PhysX ne ferait plus appel qu’à un voire deux cores maximum, M. Huddy accuse la firme de ne pas se préoccuper de l’expérience de l’utilisateur, mais de se concentrer uniquement sur la vente de ses cartes en faisant en sorte que l’API ait l’air plus rapide sur un GPU que sur un CPU.
NVIDIA joue le même jeu qu’Intel

 

AMD n’a pas hésité à comparer ce problème à celui du compilateur Intel qui handicape les processeurs qui ne sont pas fabriqués par le fondeur de Santa Clara (cf. « Intel ne va plus handicaper VIA ou AMD »).

 

Je sais que je ne devrais pas mais c'est tellement drôle que je voulais en faire profiter chacun d'entre vous.


Message édité par dragonlore le 20-01-2010 à 10:15:47
n°7295912
manut2500
Posté le 20-01-2010 à 10:21:42  profilanswer
 

Et puis c'est beau de se plaindre pour AMD, mais si ils voulaient PhysX ils n'avaient qu'a se le payer.
C'est bien tard pour venir pleurnicher maintenant et faire son calimero.

n°7295914
manut2500
Posté le 20-01-2010 à 10:23:51  profilanswer
 

Et posez vous la question: Si ca avait été AMD qui avait racheté Aegia et Physx, vous croyez peut etre qu'ils n'auraient pas fait la même chose ?
Ceux qui croient le contraire doivent surement attendre le pere noel devant leur cheminée tous les 24 décembre au soir.

n°7295915
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-01-2010 à 10:24:31  profilanswer
 

manut2500 a écrit :

Et posez vous la question: Si ca avait été AMD qui avait racheté Aegia et Physx, vous croyez peut etre qu'ils n'auraient pas fait la même chose ?


 
Et ?

n°7295921
manut2500
Posté le 20-01-2010 à 10:27:09  profilanswer
 

c'est pas malin de se plaindre de pratiques d'un concurrent qu'on aurait appliqué soit même, c'est pas le monde des bisounours.
 
edit: correction orthographe


Message édité par manut2500 le 20-01-2010 à 10:29:20
n°7295924
MEI
|DarthPingoo(tm)|
Posté le 20-01-2010 à 10:30:02  profilanswer
 

Juste pour rappel, PhysX utilise CUDA, il suffit a AMD de faire un wrapper CUDA pour ATI Stream einh... :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°7295927
manut2500
Posté le 20-01-2010 à 10:30:55  profilanswer
 

je suis pas sur qu'ils en aient le droit je pense qu'il y aurai un probleme de licence.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  68  69  70  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)