Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1502 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  7  8  9  ..  536  537  538  539  540  541
Auteur Sujet :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11

n°7121212
Rafale06
Vive les Suisses (Neutre..)
Posté le 18-09-2009 à 14:08:55  profilanswer
 

Reprise du message précédent :

Gigathlon a écrit :


La clientèle pour les HD58x0 est assez facile à identifier...
 
1- Ceux qui changent tous les ans, donc les premiers acheteurs de HD5k et quelques acheteurs de GTX260/280 des premiers jours qui auront été bien blasés par la baisse de tarifs
2- Ceux qui ont des cartes un peu just, donc toutes les GF8/9 et HD3k, principalement du haut du panier (9600GT et supérieures)
 
Le bond de perfs promis par les HD5k est tel que même un acheteur de GTX285 pourrait sauter le pas et prendre une HD5870, et certains possesseurs de GTX295 ne se feront pas prier vu les problèmes posés par le multi-GPU et en particulier cette carte.


 
Ben dis donc tu es analyste du marché de la carte graphique pour affirmer que des mecs qui ont une GTX 285 voir une GTX 295 vont sauter le pas ???? les plus riches certainement.........ceux qui revendront un trés bon prix leurs cartes actuels aussi..........mais ça sera une minorité infime  
!!!!!
 
Sinon pour le reste je suis ok...........
 


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le 18-09-2009 à 14:08:55  profilanswer
 

n°7121218
Rafale06
Vive les Suisses (Neutre..)
Posté le 18-09-2009 à 14:11:00  profilanswer
 

Problème de chauffe sur les GTX 295 ??? ^^ ahhh......ben j'ai pas mal de potes qui ont une GTX 295 et ils ont pas trop ce genre de problème avec un vrai boitier digne d'un pc haut de gamme ....


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7121222
Gigathlon
Quad-neurones natif
Posté le 18-09-2009 à 14:14:01  profilanswer
 

kaiser52 a écrit :

Mais si il passe a une ATI, c'est qu'il se fou de PhysX, donc il garde ca GTX295, il désactive PhysX et plus de problèmes ... :pt1cable:


Ou sur un coup de tête il décide qu'il en a marre que chez nVidia on se foute de sa gueule avec des drivers en carton qui ne permettent pas d'utiliser leur plus gros argument marketing... :o

n°7121252
manut2500
Posté le 18-09-2009 à 14:24:59  profilanswer
 

Pour ce qui est des drivers en carton je trouve la remarque plutot mal venue, les drivers ATI n'ont jamais eté trés stable surtout dans les domaines hors jeux videos, alors que sur ce plan les drivers nvidia sont bien plus fiables. et puis qu'est ce que j'ai lu comme commentaires d'utilisateurs d'ati qui avaient des problemes d'ecran bleu voir impossibilité d'installer les derniers drivers, alors argument foireux contre nvidia a mon gout.

Message cité 1 fois
Message édité par manut2500 le 18-09-2009 à 14:29:31
n°7121258
dll_75
Posté le 18-09-2009 à 14:26:08  profilanswer
 

Gigathlon a écrit :


La clientèle pour les HD58x0 est assez facile à identifier...
 
1- Ceux qui changent tous les ans, donc les premiers acheteurs de HD5k et quelques acheteurs de GTX260/280 des premiers jours qui auront été bien blasés par la baisse de tarifs
2- Ceux qui ont des cartes un peu just, donc toutes les GF8/9 et HD3k, principalement du haut du panier (9600GT et supérieures)
 
Le bond de perfs promis par les HD5k est tel que même un acheteur de GTX285 pourrait sauter le pas et prendre une HD5870, et certains possesseurs de GTX295 ne se feront pas prier vu les problèmes posés par le multi-GPU et en particulier cette carte.


 
pour le point 1 ok.
Mais ce n'est pas une grosse population...
 
en+ je pense que bcp vont conditionner leur achat suivant la qualité des drivers.
Bcp de 1er acheteur de 4870x2 ont essuyé les platres avec bcp de souci dans bcp de jeux,
(gta4 sur 1 seul core pdt qq temps, etc...), plantage divers, etc
 
Avoir des drivers de qualité rapidement, c'est désormais le probleme récurent pour les nouvelles CG, aussi bien chez ATI que chez NV.
 
 
pour le point 2, ceux qu'on toujours des GF8/9 ou HD3K, vont justement peut etre profiter de la nouvelle generation, pour acheter l'ancienne (GTX ou HD4K) a moindre cout;)
 
 
Enfin, nous arrivons dans une periode ou bcp vont commencer a renouveller la base de leur PC: core I7 ou I5, CM P55, x48 ou x58, DDR 3, SSD etc
donc les budgets risquent d'etre tendu meme pour les plus aisés

n°7121265
dll_75
Posté le 18-09-2009 à 14:29:00  profilanswer
 

Gigathlon a écrit :


Ou sur un coup de tête il décide qu'il en a marre que chez nVidia on se foute de sa gueule avec des drivers en carton qui ne permettent pas d'utiliser leur plus gros argument marketing... :o


 
Troll detected, c vendredi  :o  
 
pourtant,
Physx ca marche.
Cuda, ca marche super.
3d stereo, ca marche super aussi.
 
what else?

n°7121270
Yoyo_5
Posté le 18-09-2009 à 14:30:59  profilanswer
 

Gigathlon a écrit :

Ou sur un coup de tête il décide qu'il en a marre que chez nVidia on se foute de sa gueule avec des drivers en carton qui ne permettent pas d'utiliser leur plus gros argument marketing... :o


Mega troll...!  [:chtiungdor]  
 

manut2500 a écrit :

Pour ce qui est des drivers en carton je trouve la remarque plutot mal venue, les drivers ATI n'ont jamais eté trés stable surtout dans les domaines hors jeux videos, alors que sur ce plan les drivers nvidia sont bien plus fiables. et puis qu'est ce que j'ai lu comme commentaires d'utilisateurs d'ati qui avaient des problemes d'ecran bleu voir impossibilité d'installer les derniers drivers, alors argument foireux contre nvidia a mon gout.


C'est pareil chez tout le monde, tu rencontres autant de gens avec des BSOD mais chez nVidia, donc c'est autant foireux chez l'un que l'autre... [:spamafoote]


---------------
¤ Paix et félicité ¤

n°7121276
mikestewar​t
Air Roll Spinnin'
Posté le 18-09-2009 à 14:32:41  profilanswer
 

dll_75 a écrit :

Troll detected, c vendredi  :o  
 
pourtant,
Physx ca marche.
Cuda, ca marche super.
3d stereo, ca marche super aussi.
 
what else?


 
"Thank you !" http://www.nvidia.fr/docs/IO/10131/Jen_Hsun_Huang_thumb.jpg
 
;)

n°7121314
Gigathlon
Quad-neurones natif
Posté le 18-09-2009 à 14:48:55  profilanswer
 

Yoyo_5 a écrit :

Mega troll...!  [:chtiungdor]


C'est pourtant le simple résultat d'une observation... plusieurs personnes ont confirmé que la désactivation de PhysX résolvait leurs problèmes de plantages sous les jeux l'exploitant, en particulier avec des GT200.

n°7121363
Rafale06
Vive les Suisses (Neutre..)
Posté le 18-09-2009 à 15:12:44  profilanswer
 

Aucun souçis avec le Physix.........faut voir si les jeux sont tombés du camion ou sorti d'un point de vente ;)


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le 18-09-2009 à 15:12:44  profilanswer
 

n°7121458
Dyphen
Pull the trigger
Posté le 18-09-2009 à 16:00:24  profilanswer
 

j'ai tellement hâte de voir sortir le GT300, pour changer ma 295 et revenir au mono GPU, un peu marre des double GPU meme si j'ai peu de problème avec 295 mono pcb actuel..
 
j'espere que GTX360/380 seront au moins 50% plus puissante qu'une 295.

n°7121507
mac fly
Posté le 18-09-2009 à 16:27:08  profilanswer
 

Rafale06 a écrit :

Aucun souçis avec le Physix.........faut voir si les jeux sont tombés du camion ou sorti d'un point de vente ;)


Idem, je n'ai jamais eu de pb avec le Physix... (sur ma gtx280)


Message édité par mac fly le 18-09-2009 à 16:27:44
n°7121563
Ramichou
Posté le 18-09-2009 à 16:53:19  profilanswer
 

dll_75 a écrit :


Physx ca marche.


 
Va me faire marcher physX avec une carte Nvidia en tant que PPU et une carte AMD en tant que carte graphique, bonne chance. Mais bon, ca doit être impossiblement techniquement, ne remettons pas en causes les choix de nVidia !
 
C'est plus rentable de contraindre à l'achat d'une GTX*** quand on a un G92 pour faire le PPU. Après, il n'y a bien que clubic comme pigeon pour ca.


Message édité par Ramichou le 18-09-2009 à 16:54:47
n°7121670
bncjo
Posté le 18-09-2009 à 17:29:56  profilanswer
 

C'est pas le probleme que Physx marche ou pas. Le probleme c'est que c'est reservé qu'aux cartes nvidia et qu'avec dx11 on peut faire la meme chose sur les deux cartes.
 
Le dernier mot ce sont les développeurs qui l'auront en choisissant la solution la plus universel possible et c'est normal. Physx est à peu pres condamné à disparaitre dans ~1 ans je dirais.


---------------
"Think of me like Yoda but instead of being little and green I wear suits and I'm awesome. I'm your bro - I'm Broda!"
n°7121715
Profil sup​primé
Posté le 18-09-2009 à 18:05:03  answer
 

Physx je le voit comme le Glide des effets physiques.  
Ca a permit de démocratiser les calculs physiques mais comme c'est propriétaire (fermé) c'est destiné à être remplacer par un truc ouvert et pas lié à une seule architecture.

n°7121719
Activation
21:9 kill Surround Gaming
Posté le 18-09-2009 à 18:12:11  profilanswer
 

dll_75 a écrit :


 
Troll detected, c vendredi  :o  
 
pourtant,
Physx ca marche. ça marchait même mieux quand c etait soft cpu chez ageia... pire des jeux sans physx font mieux grace à un moteur de jeu abouti qui integre la physique sans avoir recours à havok ou physx... des devs doué quoi qui ont pas besoin du boulot d un autre
 
Cuda, ca marche super. pas plus que ati stream donc aucun avantge... direct compute / opncl suffit
3d stereo, ca marche super aussi. ça marche, mais rien de standardisé et quand les fabricant d ecran ou un sony ira de sa solution incompatible, à voir si les majors du cinema ni foute pas aussi leur grain de sel
ne faut il mieux pas attendre une "standardisation" ou que microsoft sortent un direct stereoscope pour intégrer à directx afin de facilité la prise en compte de profondeur negative/ positive

 
what else?


Message édité par Activation le 18-09-2009 à 18:13:13
n°7121721
Zack38
Posté le 18-09-2009 à 18:14:03  profilanswer
 

+  [:superlobo]  
 
100% d'acc' avec toi Activation


Message édité par Zack38 le 18-09-2009 à 18:14:24
n°7121731
Activation
21:9 kill Surround Gaming
Posté le 18-09-2009 à 18:21:34  profilanswer
 

après 3D vision oui c est sympa... mais voilà c est à double tranchant.. j en ai connu des techno interessante qui sont morte car gueguerre entre fabricants
 
regardé le temps que ça à mit pour enfin que le wifi N soit finalisé
imaginé ou on en serait si toshiba avait pas laissé tombé le hd-dvd (on serait encore dans un beau merdié)
c'est à qui aura la plus grosse part du gateau.. .tant pis si c est l acheteur qui trinque car rien n est standardisé et donc solutions incompatible entre elles
 
+ à noter qu un pourcentage non negligeable de gens ne tolère pas le 3D vision... et quand bien même vous faites partie de ceux qui sont compatible ave cette techno... ça vous protège pas de l envie de gerbe au bout de 1h en général... quand des fois je me vois jouer plus de 2-3heures.... ça m emballe pas tellement pour le moment
 
ça cela vient du fait que tu bouge pas et donc ton oreille interne sent que tu bouge pas
alors qu' à l ecran si l effet stereoscopique est trop soutenu bah au bout d un moment le cerveau et l oreille interne sont en total contradiction
pour le moment ça va encore car quasi tout les jeux ne gère le 3D vision qu en negatif bref sur la profondeur (bref ça ne sort pas de l ecran comme tu va le voir dans une attraction de 10/15 minutes dans une attraction d un parc genre chéri j ai rétréci le public à disneyland)


Message édité par Activation le 18-09-2009 à 18:28:49
n°7121748
Yoyo_5
Posté le 18-09-2009 à 18:30:24  profilanswer
 

Gigathlon a écrit :

C'est pourtant le simple résultat d'une observation... plusieurs personnes ont confirmé que la désactivation de PhysX résolvait leurs problèmes de plantages sous les jeux l'exploitant, en particulier avec des GT200.


Une erreur ça arrive, ça ne veut pas dire que le pilote est fait avec les pieds en carton.


Message édité par Yoyo_5 le 18-09-2009 à 18:30:57

---------------
¤ Paix et félicité ¤

n°7122157
Rafale06
Vive les Suisses (Neutre..)
Posté le 18-09-2009 à 23:42:24  profilanswer
 

Faut voir l'install des gugus en question aussi ;)..........


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7122162
Rafale06
Vive les Suisses (Neutre..)
Posté le 18-09-2009 à 23:45:31  profilanswer
 

Perso même si j'aime bien nvidia je suis contre le monopole (genre PhysiX)......
 
Now il est clair qu'un moteur open sera largement plus utilisé dans les jeux à plus long terme.
 
Mais bon Nvidia aura le fric néçessaire pour payer les devs et pour que les meilleurs jeux soutiennent leurs technologies donc bon l'avenir nous répondra.
 
En ce qui conçerne 3Dfx de l'époque, ils payaient pas les devs de jeux pour utiliser le glide :p


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7122356
Activation
21:9 kill Surround Gaming
Posté le 19-09-2009 à 09:00:28  profilanswer
 

ici ce n est pas une question de fric
 
un editeur va pas acheter ou intégré le physx si à coté son propre moteur gère déjà la physique, ou si le moteur qu il va acheter gère déjà la physique
 
tu prend un cry engine 3 pour l exemple il est multiplateforme et gère la physique
alors vouloir y mettre du physx à coté... faudrait que les devs qui l'utilise soient limite simplet
 
autre point le physx a surtout servit dans de nombreux jeu à montrer des deplacement d air dans de la toile/tissu/drapeau
 
texture qui a tout à gagné à exploiter la tesselation pour un gain de performance
chez ati c est du cablage dédié la tesselation
donc autant dire peu d impact bref dx11
 
chez nvidia il semblerait (pas sur) que ça soit encore à la décharge des unité shader elle même  
 
comme je vois la chose [ne pas prendre pour une vérité c est de la pure spécule]
oui le GT300 va être un monstre de puissance
problème il s eloigne de la "philosophie" de directx tout comme intel  et son larabee arlésien
du coup alors que pour faire telle chose chez ati il suffit d utiliser une fonction simple cablé
chez nvidia et (plus tard) chez intel
tu va passé ton temps à émuler tout avec ta puissance brute (en CUDA bien sur chez nvidia)
 
de facto bonjour les perte de puissance dans des choses qui pourrait être faite plus simplement entendre par la ne pas bouffer 30% des shader avant même qu ils ne soit utilisé pour... la 3D
 
l'approche n'est pas forcément mauvaise en soit mais nvidia avec le GT200 et le GT300 semble vouloir bruler les étapes qui a ce que ça soit le joueur fidèle à la marque bah qui paie le contrecoup de ces délire avec des gpu pas si performant qu ils aurait pu le souhaiter  
 
entendre par la mon fond de pensé qui est le suivant:
 

Spoiler :


 
nvidia tu nous fait chié à vouloir nous faire payer les coup de developpement du gpgpu destiné aux pro qui sont moins nombreux que nous mais qui achète du quadro ou du tesla
c'est pas notre faute si ils ne veulent plus payer des milliers d euro une quadro ou une tesla
je vois pas pourquoi on doit se taper la facture car au final tu nous refourgue la même puce au grand public  
t as qu'à faire une puce à destination des pro et une puce à destination du gaming
 
nop car du gpgpu pour faire tourner folding@home et 3 pauvres soft de merde à l encodage video discutable sous cuda
on  en passe plutot bien
à un gpu on lui demande pas d etre un monstre de gpgpu, juste de supporter le gpgpu (après si c est pas un gain de puissance facteur 40x osef... on est pas submergé d appli gpgpu dans notre monde)
par contre on aimerait bien des carte 3D si ça te gène pas  [:chacha1910]  
 
et vu le peu de jeu opengl de la carte 3D dx11 et pas une carte dx10.4qui n existe pas dans la nomenclature directx emulant dx11

n°7122933
Rafale06
Vive les Suisses (Neutre..)
Posté le 19-09-2009 à 16:19:38  profilanswer
 

J'ai rien compris à tout ce que tu viens d'écrire ....


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7122997
bjone
Insert booze to continue
Posté le 19-09-2009 à 16:58:00  profilanswer
 

Bah il voudrait que nVidia fasse des trucs qui ne soient utile qu'à ses yeux :)
 
Activation > il y a un truc qu'il faut que tu comprennes.
 
Si les fabricants de hardware ne faisaient que quelque chose d'optimal que pour les pratiques courantes, il n'y aurait pas d'évolution des pratiques courantes.
 
Après c'est sûr au moment du design il faut faire le bon compromis entre "ouvrons des nouvelles approches" et "l'efficacité immédiate".
 
nVidia & AMD sont des constructeurs différents, comme tout fabricants ils font des choix différents plus ou moins heureux. (Mais ça dépends du point de vue).
 
nVidia mets pas mal de pognon dans le GPGPU, ont pondu pas mal de standards propriétaires (CG, CUDA) assez tôt par rapport aux standards que ce soit au niveau du D3D/CS ou de l'OpenGl/Cl.
 
C'est une de leur qualité: ils ouvrent la voie, et sur d'autres points ils peuvent rester conservateurs (c'est laid que la famille du gt200 ne soit pas D3D 10.1 par principe).  
 
Bref. A chaque produit son compromis d'ingénierie.
Un compromis peut être mauvais sur une génération donnée, et être bien plus intéressant sur la suivante en fonction l'évolution de l'implémentation et en fonction du budget transistor supplémentaire.
 
Maintenant n'oublie que pour ton exemple sur la tessellation, que tout choix a des contreparties, et dédier du transistor à une fonction précise retire du budget au reste (on raisonne à budget fini, sinon on aurait que des unités spécialisées (sur des GPU de la taille d'un wafer :D), ce qui sera de moins en moins le cas).
 
Bref attends de voir ce que le GT300 offrira comme compromis.


Message édité par bjone le 19-09-2009 à 17:01:51
n°7123030
Invite_Sur​prise
Racaille de Shanghaï
Posté le 19-09-2009 à 17:25:36  profilanswer
 

Nvidia CEO to visit Taiwan in October, to discuss 40nm contract prices with TSMC : Digitimes
 

Citation :

Nvidia CEO Jen-Hsun Huang will travel to Taiwan in the second half of October to meet with its motherboard and graphics card partners. Huang is also expected to hold talks with Taiwan Semiconductor Manufacturing Company (TSMC) chairman Morris Chang to discuss contract prices for 40nm production, according to sources at graphics card makers.
 
Huang is also expected to check on TSMC's 40nm process, for which TSMC has claimed yield rates have already risen from 30%, to 60% in July, and defect density will drop to only 0.2 in October. Huang will also check the progress of its upcoming GT300 GPU which is expected to launch in December.
 
Meanwhile, Chang is expected to talk to Huang about partnership on TSMC's 28nm process, which will start pilot runs in the first quarter of 2010, and will start contributing revenues in 2011.
 
Huang is also expected to visit VIA Technologies to make final confirmation on the Ion 2 platform for the end of December, added the sources.

n°7123034
Er1c
Higher is better
Posté le 19-09-2009 à 17:28:31  profilanswer
 

Décembre pour le GT 300 ? ça remet sérieusement en question mon achat de gtx295 !

n°7123037
Dyphen
Pull the trigger
Posté le 19-09-2009 à 17:31:20  profilanswer
 

ca doit bosser grave chez nvidia en ce moment pour pouvoir les sortir en décembre, il taff pas 35h les mecs mdr

n°7123042
Er1c
Higher is better
Posté le 19-09-2009 à 17:35:53  profilanswer
 

Cela dit, prévu pour décembre certes, mais quand réellement disponible ? Janvier ? Février ?

n°7123044
Gigathlon
Quad-neurones natif
Posté le 19-09-2009 à 17:37:15  profilanswer
 

Dyphen a écrit :

ca doit bosser grave chez nvidia en ce moment pour pouvoir les sortir en décembre, il taff pas 35h les mecs mdr


Sisi, mais journaliers et pas hebdo :o

n°7123058
Activation
21:9 kill Surround Gaming
Posté le 19-09-2009 à 17:44:15  profilanswer
 

du tout ...  
 
avec le G80 et G92 il y avait déjà CUDA
pendant 2ans la mayonnaise n a pas prit
donc c'était déjà là... si ça n a pas prit c est car nvidia n'y a pas mit les moyen d accompagner les devs à s en servir
 
donc il y avait déjà qqchose donc c'était pas la peine de nous en refoutre et refoutre sur GT200 et visiblement egalement sur GT300
 
donc non faire un peu plus d effort à intégrer des choses propre à dx11 plutot qu'encore nous foutre plus de transistor pour ameliorer la partie gpgpu ... je vois pas en quoi je ne pense qu'à ma gueule
 
qu est ce que c est le GT200 c est du cuda plus costaud pour autorisé plus de précision... bref c est clairement pour la gueule des calcul scientifique, rien qui se rapporte au monde grand public
 
j'achète pas une carte graphique pour trouver des noms à des maladies  
ni pour décoder tout le code génétique de l homme
 
bien sur le GT200 ça n'a pas été QUE ça... (encore heureux)
mais 2ans pour accoucher de ce "ça"
 
d'ailleurs ça se voit que du G92 vers le GT200 ça a surtout amelioré plus en terme précision qu'en terme performance
 
suffit de faire tourner physx .... c est autant dire aussi gourmand sur 9800GTX (bref 8800GTS512) que sur une GTX260
donc pour un travail similaire le gain est quasi nul
 
pareil pour un encodage video avec un soft qui supporte CUDA
gain insignifiant entre un G92 et un GT200
 
entre G92 et GT200 nvidia la joué comme un intel
 
en gros on est passé du SSE2 au SSE3
 
 
 
sauf que à peine 10% utilisait déjà SSE2 donc ça ne fait toujours que 10% qui vont utilisé SSE3
 
par contre la tesselation 80% qui achète cette carte sont censé bien avoir l intention de l utiliser
mais plutot que d avoir des cablage propre efficace à 100% on va se tapé des cablage généraliste efficace à 60% donc va en falloir 2 fois plus (donc 2 fois plus de transistor) pour faire le meme boulot
 
si un gpu est si performant par rapport à un cpu c est justement qu il est tres specialisé
 
problème nvidia est tellement en train de le "déspecialiser" le gpu bref le généraliser que plus ça vient plus le gpu nvidia ressemble à un cpu
à vouloir tout faire il ne fait plus son travail initiale de facon efficace
 
après j'empeche personne à trouver mon raisonnement délirant
 
car c est un raisonnement délirant s il en est  
 
:D

Message cité 1 fois
Message édité par Activation le 19-09-2009 à 17:47:00
n°7123110
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 19-09-2009 à 18:24:01  profilanswer
 

Une pensée pour les ingénieurs d'nvidia svp... Je suis sûr que Globalfondery aimerait avoir une tite sourie avec un micro espion dans la salle où va se passer cette négociation sur le 40nm entre nvidia et tsmc :D


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7123159
Rafale06
Vive les Suisses (Neutre..)
Posté le 19-09-2009 à 18:59:38  profilanswer
 

Activation a écrit :

du tout ...  
 
avec le G80 et G92 il y avait déjà CUDA
pendant 2ans la mayonnaise n a pas prit
donc c'était déjà là... si ça n a pas prit c est car nvidia n'y a pas mit les moyen d accompagner les devs à s en servir
 
donc il y avait déjà qqchose donc c'était pas la peine de nous en refoutre et refoutre sur GT200 et visiblement egalement sur GT300
 
donc non faire un peu plus d effort à intégrer des choses propre à dx11 plutot qu'encore nous foutre plus de transistor pour ameliorer la partie gpgpu ... je vois pas en quoi je ne pense qu'à ma gueule
 
qu est ce que c est le GT200 c est du cuda plus costaud pour autorisé plus de précision... bref c est clairement pour la gueule des calcul scientifique, rien qui se rapporte au monde grand public
 
j'achète pas une carte graphique pour trouver des noms à des maladies  
ni pour décoder tout le code génétique de l homme
 
bien sur le GT200 ça n'a pas été QUE ça... (encore heureux)
mais 2ans pour accoucher de ce "ça"
 
 
Quoi 2ans pour avoir 2x la puissance d'une 8800GTX qui était à l'époque un monstre.....ça ne te suffis pas ??????
 
-------------
 
 
d'ailleurs ça se voit que du G92 vers le GT200 ça a surtout amelioré plus en terme précision qu'en terme performance
 
suffit de faire tourner physx .... c est autant dire aussi gourmand sur 9800GTX (bref 8800GTS512) que sur une GTX260
donc pour un travail similaire le gain est quasi nul

 
 
Ouais bon c ton avis hein...............
 
 
 
 
pareil pour un encodage video avec un soft qui supporte CUDA
gain insignifiant entre un G92 et un GT200

 
 
 
Ta fumée la moquette ?????? sors nous des chiffres qu'on rigole un peu................
 
 
 
entre G92 et GT200 nvidia la joué comme un intel
 
en gros on est passé du SSE2 au SSE3
 
 
 
sauf que à peine 10% utilisait déjà SSE2 donc ça ne fait toujours que 10% qui vont utilisé SSE3
 
par contre la tesselation 80% qui achète cette carte sont censé bien avoir l intention de l utiliser
mais plutot que d avoir des cablage propre efficace à 100% on va se tapé des cablage généraliste efficace à 60% donc va en falloir 2 fois plus (donc 2 fois plus de transistor) pour faire le meme boulot
 
si un gpu est si performant par rapport à un cpu c est justement qu il est tres specialisé
 
problème nvidia est tellement en train de le "déspecialiser" le gpu bref le généraliser que plus ça vient plus le gpu nvidia ressemble à un cpu
à vouloir tout faire il ne fait plus son travail initiale de facon efficace

 
 
 
Tu as vu ça ou ????? ^^ boule de crystal sauce wirmish ???
 
 
 
après j'empeche personne à trouver mon raisonnement délirant
 
car c est un raisonnement délirant s il en est

 
:D


 
 
Non non t'inquiète ça fume pas mal le karibou sur le fofo ^^
 


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7123169
Yoyo_5
Posté le 19-09-2009 à 19:04:33  profilanswer
 

Rafale06 a écrit :

Non non t'inquiète ça fume pas mal le karibou sur le fofo ^^


Au lieu de dire : "Non, t'as tort, tu fumes du caribou...!"  :sleep:
Pour une fois, essaie d'être constructif en avançant des choses, et/ou en montrant en quoi c'est juste/faux... :spamafote:

Message cité 1 fois
Message édité par Yoyo_5 le 19-09-2009 à 19:04:59

---------------
¤ Paix et félicité ¤

n°7123184
Gigathlon
Quad-neurones natif
Posté le 19-09-2009 à 19:14:58  profilanswer
 

De toute façon ça n'est pas CUDA qui est à l'origine du semi-désastre GT200 vu qu'AMD a fait mieux dans cette optique sur le RV770.
 
Le problème est plutôt le même que sur Netburst, à savoir l'impossibilité de monter en fréquence comme ils le souhaitaient avec une archi par ailleurs encore un peu alourdie.
 
Le GT200 n'est pas un foirage stratégique, mais un foirage technique vraisemblablement dû à trop d'optimisme envers le process (fréquence limitée due à la conso) d'une part et une conception trop barbare (unités boulimiques).
 
A voir si le GT300 aura corrigé ces 2 points correctement (car on peut corriger un point en ajoutant une erreur ailleurs).

n°7123249
Rafale06
Vive les Suisses (Neutre..)
Posté le 19-09-2009 à 20:00:08  profilanswer
 

Yoyo_5 a écrit :


Au lieu de dire : "Non, t'as tort, tu fumes du caribou...!"  :sleep:  
Pour une fois, essaie d'être constructif en avançant des choses, et/ou en montrant en quoi c'est juste/faux... :spamafote:


 
 
Oh c tellement gros......quoi dire ??? qu'un G92 à la puissance de calcul d'un GT200 ?????? exemple pour l'encodage vidéo via cuda............c tellement énorme qu'il faut encore préçiser ???????


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7123257
Gigathlon
Quad-neurones natif
Posté le 19-09-2009 à 20:09:33  profilanswer
 

Rafale06 a écrit :

Oh c tellement gros......quoi dire ??? qu'un G92 à la puissance de calcul d'un GT200 ?????? exemple pour l'encodage vidéo via cuda............c tellement énorme qu'il faut encore préçiser ???????


La différence est pourtant pas forcément énorme entre un G92 dont les 128SP tournent à 1.84GHz et un GT200 dont les 240SP tournent à 1.3GHz.
 
Sachant que l'archi a été alourdie et qu'on a maintenant affaire à des blocs de 3x8 au lieu de 2x8, il est possible que le GT200 soit moins efficace.

Message cité 1 fois
Message édité par Gigathlon le 19-09-2009 à 20:09:39
n°7123260
rxjy
JeanZyves
Posté le 19-09-2009 à 20:11:15  profilanswer
 

drapo


---------------
[HFR] JeanZyves
n°7123261
Rafale06
Vive les Suisses (Neutre..)
Posté le 19-09-2009 à 20:11:17  profilanswer
 

Gigathlon a écrit :

De toute façon ça n'est pas CUDA qui est à l'origine du semi-désastre GT200 vu qu'AMD a fait mieux dans cette optique sur le RV770.

 

Le problème est plutôt le même que sur Netburst, à savoir l'impossibilité de monter en fréquence comme ils le souhaitaient avec une archi par ailleurs encore un peu alourdie.

 

Le GT200 n'est pas un foirage stratégique, mais un foirage technique vraisemblablement dû à trop d'optimisme envers le process (fréquence limitée due à la conso) d'une part et une conception trop barbare (unités boulimiques).

 

A voir si le GT300 aura corrigé ces 2 points correctement (car on peut corriger un point en ajoutant une erreur ailleurs).

 

Hummm j'adore quand tu dis semi désastre.....pour QUI TOI ????

 

Pour ma part il me semble que le GTX 280 était franchement sympa.....trop cher par contre coté performance il était + de 10% supérieur à son concurrent ATI...Coté chauffe 1partout balle au centre ^^

 

Ensuite quoi ........il y a eu les évolutions GTX 285 plus rapide et moins cher....et le GTX 275 moins rapide et prix largement acceptable (merci ATI pour la guerre des prix avec le HD4890)

 

Bref au final je dirais ok pour un rapport prix / perfs vraiment pas top et vive ATI pour ce plan la....mais parler de semi échec franchement.....

 

En ce qui conçerne le RV770 il ne joue pas dans la même cour des grands hein..........

 

Ratage technique ???????????????????????? ou ça ????????????? quand on vois l'énorme différence de puissance entre une GTX 285 et une 8800GTX avec quoi ? 2ans de différences ???? ben dis donc on doit pas avoir la même idée d'un ratage technique........

 

Par contre si tu veux ma vision sur ce plan là je dirais X1800XT vs X1950XT avec un mois de décallage de sortie entre les 2 avec le même prix 600euros à la sortie.....et je rajouterais même un ratage à tous les niveaux (marketing, commercial , technique) bref un vrai festival ^^

 

:)

Message cité 1 fois
Message édité par Rafale06 le 19-09-2009 à 20:13:24

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7123270
Gigathlon
Quad-neurones natif
Posté le 19-09-2009 à 20:18:32  profilanswer
 

Rafale06 a écrit :

Hummm j'adore quand tu dis semi désastre.....pour QUI TOI ????


Semi-désastre, pour eux.
 
Quant à ce qu'a fait AMD avec le RV770, ils ont tout simplement ajouté une unité DP par groupe de 5 unités SP (et ajouté les caches) là où nVidia en a ajouté 1 pour 8.

n°7123278
Rafale06
Vive les Suisses (Neutre..)
Posté le 19-09-2009 à 20:26:13  profilanswer
 

Gigathlon a écrit :


La différence est pourtant pas forcément énorme entre un G92 dont les 128SP tournent à 1.84GHz et un GT200 dont les 240SP tournent à 1.3GHz.
 
Sachant que l'archi a été alourdie et qu'on a maintenant affaire à des blocs de 3x8 au lieu de 2x8, il est possible que le GT200 soit moins efficace.


 
1,47 pour la GTX 285 contre 1,84 pour la 9800GTX +......270mhz de plus pour le G92 et 2fois plus d'unités de calculs pour le GT200.....;) au final je dirais que sur ce plan la y a pas photo en terme de puissance brute en calcul ;)
 
 


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7123284
Rafale06
Vive les Suisses (Neutre..)
Posté le 19-09-2009 à 20:30:07  profilanswer
 

Gigathlon a écrit :


Semi-désastre, pour eux.
 
Quant à ce qu'a fait AMD avec le RV770, ils ont tout simplement ajouté une unité DP par groupe de 5 unités SP (et ajouté les caches) là où nVidia en a ajouté 1 pour 8.


 
 
Ah bon d'un coté tu parle d'une architecure moyenne gamme basse qui à une complexité de conception largement inferieur à une architecture haut de gamme avec une complexité qui na strictement rien à voir....
 
Allez un exemple à la con, prends un V12 ferrari regarde la complexité et va voir le V6 porche et regarde sa complexité.......
 
Ca ne joue pas dans la même cour hein, ben tu fais pareil entre ton RV770 et l'architecture d'un GT200...
 
Sans compter que tu compare une finesse de gravure de 0,40nm à 0,55nm........
 
Bref du grand n'importe quoi ^^


---------------
Les kevin (j'ai 12ans lol) je les ignore......
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  7  8  9  ..  536  537  538  539  540  541

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic GT300 fermé, vous avez gagné!aide pour reglé ma nvidia gt240
Nvidia geforce 9800gt pilotes problemeGeForce 295 GTX MonoPCB
GTX 260 Grésillement[TOPIC UNIQUE] ASUSTeK EAH4890 FORMULA - **** Sondage Ventilateur ****
choix carte graphique nvidiaEt si on faisait une BDD/Topic unique sur nos benchs HD TUNE et ATTO ?
Plus de sujets relatifs à : [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG - 40nm - DX11


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR