Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4164 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  57  58  59  ..  73  74  75  76  77  78
Auteur Sujet :

[Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm

n°7079378
mikestewar​t
Air Roll Spinnin'
Posté le 19-08-2009 à 20:30:24  profilanswer
 

Reprise du message précédent :

DivX a écrit :

sinon mikestewart bien entendu, maintenant c'ets la seule donnée que nous ayons à portée de main, et j'ai trouvé que ne pas l'utiliser était pire finalement que prendre ce 60%, car les chiffres communiqués par SemiAccurate sont basés sur le fait que tous les dies seraient opérationnels, donc il fallait au moins introduire la notion de yields avec un chiffre approchant, et donc TSMC a juste indiqué "60% à l'heure actuelle sur le 40nm", sans précision de marque ni de puce :)

 

Charlie l'avait aussi cette donnée, tu remarqueras qu'il s'est passé de l'utiliser.

 
Citation :

Even if you ignore the drop in yields brought on by larger die sizes, Nvidia is at a 50% cost disadvantage.

 

L'info est était là pour dire que le GT300 partait avec un très gros handicap d'un point de vue coûts (on s'en doutait quand même). Pas pour déterminer le coût réel de la puce au dollar près. ;)


Message édité par mikestewart le 19-08-2009 à 20:31:23
mood
Publicité
Posté le 19-08-2009 à 20:30:24  profilanswer
 

n°7079387
DivX
Posté le 19-08-2009 à 20:37:42  profilanswer
 

encore heureux puisque de toute façon leurs chiffres de tailles de dies sont de la pure spéculation, tout comme pour le prix du wafer 65nm etc...

 

c'est 80% de vent, j'ai juste souhaité en profiter pour y rajouter une notion importante que 90% des lecteurs ignorent : la notion de yields, en l'introduisant au calcul comme ça les gens se familiarisent au fur et à la mesure de la lecture des news avec ce type de terme plus "technique", tu ne le mets pas, tu as 90% de tes lecteurs qui sont persuadés que tout fonctionne sur un wafer, et que les 35 et 52$ donnent au final seulement 17$ entre les cartes, 27$ à la rigueur après le NVIO. On a vu plein d'ailleurs de commentaires de ce type partout "27$ d'écart seulement, la GT300 sera pas chère" :)

 

la news n'en est pas plus vraie ni plus fausse avec ou sans ce calcul, du vent est du vent et comme tu le dis le résultat est le même : juste montrer que le handicap semble continuer chez Nvidia, stout ;)

 


PS: marllt2 aller, pcq'on est plusieurs visiblement à ne pas avoir la bonne définition des yields :D
PS2: sinon concernant la news c'estclair que j'en ai presque honte, je ne voulais pas le newser au début mais comme de toute ça passait un peu sur tous les sites, me suis dit qu'autant que les lecteurs le lisent chez nous avec des précisions dnas la news comem quoi tout cela n'était que spéculation etc..., plusieurs sites l'ont newsé eux très sérieusement :sweat:

Message cité 1 fois
Message édité par DivX le 19-08-2009 à 20:43:47
n°7079390
Profil sup​primé
Posté le 19-08-2009 à 20:39:01  answer
 

[:ddr555] tu pars d'un truc faux que tu améliores, c'malin [:julm3]  
:d!


Message édité par Profil supprimé le 19-08-2009 à 20:39:09
n°7079393
Gein
Posté le 19-08-2009 à 20:39:56  profilanswer
 

DivX a écrit :

c'est moi qui ai écrit la news en question ;)


Oups excuse, je suis désolé. :fou:

n°7079413
mikestewar​t
Air Roll Spinnin'
Posté le 19-08-2009 à 21:06:09  profilanswer
 

D'un côté DivX, vu des commentaires pris au hasard, genre :

 
Citation :

Alors j'ai beau lire : "il n'y a pas que le die sur une carte graphique", mais ça va avec. Regardez le prix du GT200 : par exemple une GTX 285 par rapport au die respectif. 35$ pour une GTX 285 vendu à minimum 300 €.

 
Citation :

Pas sur que 20 euros fasse une enorme difference sur le prix final des cartes moyens/haut de gamme à 200-300 euros.

 

:/

 

Je comprends l'idée de la bonne intention, mais là vaut mieux éviter d'en parler en effet. ;)


Message édité par mikestewart le 19-08-2009 à 21:07:44
n°7079593
White Sh4d​ow
GHz-O-Meter !
Posté le 19-08-2009 à 23:56:37  profilanswer
 

Je me posais une question : la tesselation fait-elle partie de DX11 ? si oui, cela signifie-il qu'il faut avoir une partie hardware dédié à la tesselation comme sur les radeons depuis la série 2000 (si je ne me trompes pas) ?
Comment Nvidia gère-il cela : fait-il pareil qu'amd ou va-il avoir une autre puce style nvio mais pour la tesselation ([:tinostar]), surface oblige ?

n°7079609
Activation
21:9 kill Surround Gaming
Posté le 20-08-2009 à 00:24:30  profilanswer
 

la tesselation chez amd c est un nouveau moteur hardware (l ancien ne convient pas à dx11) donc rv8x0 obligé et pour nvidia bah faut attendre le gt300


Message édité par Activation le 20-08-2009 à 00:24:51
n°7079650
marllt2
Posté le 20-08-2009 à 01:49:34  profilanswer
 

DivX a écrit :

ah bah tiens tu tombes bien alors.
 
explique moi ce qu'est un yield alors puisque visiblement je suis à côté de la plaque malgré le fait que je trouve à peu près partout la même définition que la mienne, merci :jap:


DivX a écrit :

sinon mikestewart bien entendu, maintenant c'ets la seule donnée que nous ayons à portée de main, et j'ai trouvé que ne pas l'utiliser était pire finalement que prendre ce 60%, car les chiffres communiqués par SemiAccurate sont basés sur le fait que tous les dies seraient opérationnels, donc il fallait au moins introduire la notion de yields avec un chiffre approchant, et donc TSMC a juste indiqué "60% à l'heure actuelle sur le 40nm", sans précision de marque ni de puce :)


 

DivX a écrit :

encore heureux puisque de toute façon leurs chiffres de tailles de dies sont de la pure spéculation, tout comme pour le prix du wafer 65nm etc...
 
c'est 80% de vent, j'ai juste souhaité en profiter pour y rajouter une notion importante que 90% des lecteurs ignorent : la notion de yields, en l'introduisant au calcul comme ça les gens se familiarisent au fur et à la mesure de la lecture des news avec ce type de terme plus "technique", tu ne le mets pas, tu as 90% de tes lecteurs qui sont persuadés que tout fonctionne sur un wafer, et que les 35 et 52$ donnent au final seulement 17$ entre les cartes, 27$ à la rigueur après le NVIO. On a vu plein d'ailleurs de commentaires de ce type partout "27$ d'écart seulement, la GT300 sera pas chère"


Le problème n'est pas que c'est 80% du vent. Le problème c'est que Charlie a bien dit qu'il ne comptait pas les yields.
 
Il se base sur des rumeurs de taille de die et de coût de wafers, pour dire en gros quel serait le coût de chaque GPU avec un yield de 100%.
 
Son objectif n'est pas de donner le coût de chaque GPU au $ près, mais de donner une 1ère estimation de la différence AMD/nVidia.
 
 
Pour les yields, s'il ne les compte pas c'est que personne en dehors de TSMC, Nvidia et AMD ne les connait. TSMC a annoncé qu'il avait fait passer son yield de 30% à 60%, mais rien d'autre. Ca veut juste dire qu'ils ont doublé leur yield.
 
C'est là qu'on arrive à la définition d'un yield. Le yield dépend de: la taille du chip, du type de chip, et du degré de redondance de certaines unités qui peuvent être désactivées en cas de défaut.
 
Quand TMSC annonce 60%, sur quel chip se base-t-il ? On n'en sait rien.  
 
Et plus que ça, même si on supposait que ces 60% concernent un RV740 de 137mm², pour un GT300 d'environ 530mm² ça donnerait à la louche du 15-20%.
 
Encore une fois, à process égal, plus la taille du chip augmente plus le yield diminue. Si on se base sur le prix de 52$ (@ 100%) de Charlie, ces 15-20% pour le GT300 donneraient entre 156$ et 208$.


Message édité par marllt2 le 20-08-2009 à 01:58:17
n°7079653
Gigathlon
Quad-neurones natif
Posté le 20-08-2009 à 01:58:20  profilanswer
 

DivX a écrit :

un peu tiré par les cheveux je pense le rendement surfacique, puisque ce n'est pas la définition de base du "yield" justement, donc je vois mal TSMC ne pas utiliser dans ses communiqués la définition classique du terme. :)


Pourtant la définition stricte de "yield" est "rendement", un terme qui ne veut rien dire seul.
 
Dire qu'ils ont "un rendement de 60%" sans préciser quel rendement (financier? :lol: ), c'est comme parler d'une densité de 200 pour un disque dur... densité de pannes, du matériau utilisé, de données par pouce carré, par plateau?

n°7079675
DivX
Posté le 20-08-2009 à 04:43:16  profilanswer
 

Gigathlon a écrit :


Pourtant la définition stricte de "yield" est "rendement", un terme qui ne veut rien dire seul.


 
Mais justement il n'est pas seul.
 
Nous sommes dans le monde de la fabrication des puces, et alors yield a une définition précise : le %age de puces effectivement opérationnelles sur le nb de puces total d'un wafer ;)

mood
Publicité
Posté le 20-08-2009 à 04:43:16  profilanswer
 

n°7079752
trajouf
Posté le 20-08-2009 à 10:08:30  profilanswer
 

Ca crache sur Nvidia à mort ici!
 
Mais finalement c'est juste leur politique tarifaire qui est nase car sinon leur carte sont biens. La GTX295 est une bonne carte, mieux que la HD4870x2, ce n'est qu'un exemple sur le ultra mega giga haut de gamme de ouf. Si le rapport prix/perf était égal à Ati, c'est clair Nvidia aurait de l'avance grâce à CUDA et au PhysX.
 
Qui vivra verra de toute façon, ma prochaine CG sera soit du monoGPU Nvidia, soit du CF Ati.

Message cité 3 fois
Message édité par trajouf le 20-08-2009 à 10:09:02
n°7079766
olioops
Si jeune et déjà mabuse.
Posté le 20-08-2009 à 10:20:22  profilanswer
 

trajouf a écrit :

Ca crache sur Nvidia à mort ici!
 
Mais finalement c'est juste leur politique tarifaire qui est nase car sinon leur carte sont biens. La GTX295 est une bonne carte, mieux que la HD4870x2, ce n'est qu'un exemple sur le ultra mega giga haut de gamme de ouf. Si le rapport prix/perf était égal à Ati, c'est clair Nvidia aurait de l'avance grâce à CUDA et au PhysX.
 
Qui vivra verra de toute façon, ma prochaine CG sera soit du monoGPU Nvidia, soit du CF Ati.


c'est clair  :D  
ils sont tellement vénère de pas avoir d'info d'NVidia que ça tourne au réglement de compte .
 
en même temps qu'est ce que c'est chiant ces sociétés qui communique jamais rien , ou qui raconte des conneries  :sweat: je les comprends un peu  :whistle:


---------------
Ne pas confondre gisement épuisé et mine de rien !
n°7079779
couillesho​t
Les bouboules et la boubouche
Posté le 20-08-2009 à 10:33:01  profilanswer
 

olioops a écrit :


c'est clair  :D  
ils sont tellement vénère de pas avoir d'info d'NVidia que ça tourne au réglement de compte .
 
en même temps qu'est ce que c'est chiant ces sociétés qui communique jamais rien , ou qui raconte des conneries  :sweat: je les comprends un peu  :whistle:


TROLL/ c'est surtout ça qui cloche chez NV  :D /TROLL


Message édité par couilleshot le 20-08-2009 à 10:34:27

---------------
:o :o :o
n°7079781
Gein
Posté le 20-08-2009 à 10:35:22  profilanswer
 

lol, il n'y que les pro-ati ici :lol:  
 
Ils sont où les autres ? :whistle:
 
[/troll]

Message cité 2 fois
Message édité par Gein le 20-08-2009 à 10:35:46
n°7079783
0b1
There's good in him
Posté le 20-08-2009 à 10:36:28  profilanswer
 

Vive nVIDIA
 
 [:udotjohn]

n°7079789
alex91650
Posté le 20-08-2009 à 10:40:48  profilanswer
 

0b1 a écrit :

Vive nVIDIA
 
 [:udotjohn]


 :sol:   :bounce:   :sol:

n°7079803
sharshar
Slava Ukraini
Posté le 20-08-2009 à 10:49:46  profilanswer
 

Gein a écrit :

lol, il n'y que les pro-ati ici :lol:  
 
Ils sont où les autres ? :whistle:
 
[/troll]


 
 en train de reluqué les spéculations sur rv 870 la peur au ventre?   :whistle:   [/troll]

n°7079816
Gein
Posté le 20-08-2009 à 10:57:09  profilanswer
 

sharshar a écrit :


 
 en train de reluqué les spéculations sur rv 870 la peur au ventre?   :whistle:   [/troll]


 
ah tu parle de ceci :  :sol:  

Citation :

Juniper 181mm² - 5 clusters, 800 ALUs, 20 TUs, 16 RBEs, 128-bit  
 
Cedar 220mm² - 8 clusters, 1280 ALUs, 32 TUs, 16 RBEs, 128-bit  
 
Cypress 316mm² - 12 clusters, 1920 ALUs, 48 TUs, 32 RBEs, 256-bit


 
 
Elles sont très bien ces spéculations non ? :heink:


Message édité par Gein le 20-08-2009 à 10:57:35
n°7079822
couillesho​t
Les bouboules et la boubouche
Posté le 20-08-2009 à 11:04:30  profilanswer
 

Gein a écrit :

lol, il n'y que les pro-ati ici :lol:  
 
Ils sont où les autres ? :whistle:
 
[/troll]


Quels autres? les pro nvidia?  
 
ben ils sont avec les pro-ATI  :D , le Geek n'est pas toujours un fanboy c'est aussi un opportuniste


---------------
:o :o :o
n°7079832
Gigathlon
Quad-neurones natif
Posté le 20-08-2009 à 11:12:37  profilanswer
 

trajouf a écrit :

La GTX295 est une bonne carte, mieux que la HD4870x2. Si le rapport prix/perf était égal à Ati, c'est clair Nvidia aurait de l'avance grâce à CUDA et au PhysX.


Sincèrement, tu viens de montrer que le matraquage marchait super sur certaines personnes... :o
 
La GTX295 est: plus chère (à produire comme à la vente) et pas plus performante que la 4870X2 (voire moins).
 
Après, CUDA et PhysX... CUDA est sur le point de perdre tout intérêt grâce à DX Compute et PhysX subira le même sort (sinon, tout le monde aurait déjà franchi le pas et utiliserait PhysX... or on voit encore pas mal de Havok et même de moteurs physiques propriétaires, ce qui tend à indiquer que PhysX n'a strictement rien pour se démarquer).

Message cité 2 fois
Message édité par Gigathlon le 20-08-2009 à 11:13:27
n°7079843
Gein
Posté le 20-08-2009 à 11:19:57  profilanswer
 

Et c'est peut-être pour les mêmes raisons qu'ATI n'a pas mis avant sont api pour le gpu computing.
De plus, avec open CL, nvida peux oublier CUDA.
Car les développeur vont préférer créer un soft qui fonctionnera aussi bien sur ati que nvidia.

n°7079894
White Sh4d​ow
GHz-O-Meter !
Posté le 20-08-2009 à 12:20:54  profilanswer
 

Gigathlon a écrit :


Sincèrement, tu viens de montrer que le matraquage marchait super sur certaines personnes... :o
 
La GTX295 est: plus chère (à produire comme à la vente) et pas plus performante que la 4870X2 (voire moins).
 
Après, CUDA et PhysX... CUDA est sur le point de perdre tout intérêt grâce à DX Compute et PhysX subira le même sort (sinon, tout le monde aurait déjà franchi le pas et utiliserait PhysX... or on voit encore pas mal de Havok et même de moteurs physiques propriétaires, ce qui tend à indiquer que PhysX n'a strictement rien pour se démarquer).


Et j'imagines que tant qu'il y aura une gueguerre entre CUDA et HAVOK, ils auront de la peine à proposer leur moteur physique puisque la concurrence donne la même chose. Il faut attendre jusqu'au jour ou l'un des deux sort du lot, et c'est pas vraiment gagné.
Ca me rappel l'histoire entre le BlueRay et le HD-DVD. Les gens ils voulaient bien se lancer, mais ils savaient pas vraiment quelle direction prendre. Maintenant que le BlueRay "a gagné", il doit y avoir plus de gens qui achètent ce genre de produits, parce que c'est un chemin unique qu'ils prennent, on peut pas se tromper et acheter du matériel qui sera obselète d'ici un an...  :)

n°7079904
kaiser52
Posté le 20-08-2009 à 12:27:57  profilanswer
 

Gein a écrit :

1) Et c'est peut-être pour les mêmes raisons qu'ATI n'a pas mis avant sont api pour le gpu computing.
2) De plus, avec open CL, nvida peux oublier CUDA.
3) Car les développeur vont préférer créer un soft qui fonctionnera aussi bien sur ati que nvidia.


 
1) ATI ne pouvait peut-être pas lutter a ce niveau là.
 
2) Pas vraiment, c'est une question de suivi.
CUDA est très bien suivi par nVIDIA et c'est pas grâce à OpenCL que ça changera quelque chose, on sait tous tres bien comment ça fini les choses qui commencent par Open... XD
 
3) Tous est relatif hein ^^


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7079943
Activation
21:9 kill Surround Gaming
Posté le 20-08-2009 à 12:54:01  profilanswer
 

pour moi c est le compute shading de directx qui va l emporté
 
opencl ... faudra que apple fasse un effort pour donner envie aux editeurs de s en servir sur plateforme mac
le problème c est que point de vu grand public les softs qui tire avantage du compute shading...
 
tu prend les jeux... le traitement video/encodage
et pi y a pas grand chose d autres en fait
 
donc faut déjà un effort carrement de microsoft pour par exemple que l'OS lui même en tire parti
et pourquoi pas excel quand t as des gros tableau (access aussi)
 
moi le truc sympa que je pourrais trouvé au compute shader serait que l'OS compresse/decompresse à la volé les données sur le disque dur (ou SSDs)
 
pour ceux qui on connu drivespace sur windows98 ça augmentait les performance du système car du coup il accédait plus rapidement aux données
par contre de vague souvenir ça avait un impact sur les performance cpu (genre 20%)
suis sur qu'il y a un truc à creuser de se coter là

Message cité 1 fois
Message édité par Activation le 20-08-2009 à 12:54:35
n°7079954
kaiser52
Posté le 20-08-2009 à 13:11:19  profilanswer
 

Activation a écrit :


...
tu prend les jeux... le traitement video/encodage
et pi y a pas grand chose d autres en fait  
 
donc faut déjà un effort carrement de microsoft pour par exemple que l'OS lui même en tire parti
et pourquoi pas excel quand t as des gros tableau (access aussi)  
 
moi le truc sympa que je pourrais trouvé au compute shader serait que l'OS compresse/decompresse à la volé les données sur le disque dur (ou SSDs)
...


 
Bah y'a aussi le traitement d'image (toshop sur les grosses réso, rendu d'images de synthèse, etc ... ), et peut-être bientôt le cryptage / Décryptage de données.
 
Clair pour excel, pour des tableurs avec pleins pleins de lignes / colones, et formules dans tous les sens.
 
Ca réduirait pas par plus de 2 la durée de vie d'une SSD ?
 
Moi je verrais bien :
- Compilation de programme (de tres gros projets).
- Server web.
- Décompression transparente des fichier dans la ram : Genre quand tu ouvres avec winrar, au lieu d'avoir l'explorer winrar, ça t'ouvres un dossier virtuel déjà décompressé en ram (quasi instantané), donc pas besoin d'une décompression pour l'utiliser, l'utilité se réduit autant que la taille du fichier augmente, ca peut réduire la fragmentation du disque, mais nécessite beaucoup de ram.
 
Et se qui serait sympa c'est que a force, le GPU soit comme les SPU du cell, mais faudrait peut-être aussi gonfler plus les CPU actuel pour que ça marche de concert (Quid de la distance entre les 2 unitées ?).


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7079957
vincenjw
Posté le 20-08-2009 à 13:14:26  profilanswer
 

Juste pour ajouter qu'il ne faut pas oublier que OpenCL reprend beaucoup CUDA ^^

n°7079965
Activation
21:9 kill Surround Gaming
Posté le 20-08-2009 à 13:21:53  profilanswer
 

sur un totoshop c est pas en usage globale que ça en trouverait interet.. .seuelement sur qqs filtre specifique
 
et puis bon toshop au prix ou il coute on s ecarte du grand public hein  :whistle:

n°7079967
Activation
21:9 kill Surround Gaming
Posté le 20-08-2009 à 13:25:06  profilanswer
 

vincenjw a écrit :

Juste pour ajouter qu'il ne faut pas oublier que OpenCL reprend beaucoup CUDA ^^


 
ça on sait ... vu que nvidia est un membre majeur sur l'opencl
(bah oui l'opencl depend des fabricant de GPU... donc y an a pas 36... 3 majeurs intel/amd/nvidia et 2 secondaire matrox/via dans le secteur)
 
tu balance pas une nouveauté comme l'opencl sans avoir de hard dispo derriere
tout open qu il soit en bout de chaine faut des industriel pour faire tourner la bete ... donc business business
c'est comme opengl... si derriere t avais pas ati/nvidia qui se font encore chier à le supporter (car c est pas ce que ça doit leur rapporté opengl dans leur business...c est juste pour que leur solution soit compatible mac/linux demain tu vois un truc plus global sur linux/mac tel qu'un directx qui remplace opengl/opencl/openal... il serait très vite oublié)


Message édité par Activation le 20-08-2009 à 13:27:20
n°7080004
vincenjw
Posté le 20-08-2009 à 13:58:03  profilanswer
 

C'était pour sous entendre que pour les ingé Nvidia,ça ne les déstabiliseraient pas vraiment de voire CUDA délaissé au profit de OpenCL. A mon avis sur toutes les sociétés qui y ont participé c'est Nvidia qui a/aura le moins d'effort à faire en interne niveau formation et ils ont déjà une certaine expérience.

Message cité 1 fois
Message édité par vincenjw le 20-08-2009 à 16:32:39
n°7080009
Activation
21:9 kill Surround Gaming
Posté le 20-08-2009 à 14:10:49  profilanswer
 

surtout que nvidia "sponsorise" déjà des cours sur cuda dans des écoles américaines spécialisé dans la branche info

n°7080022
cassoux
Posté le 20-08-2009 à 14:23:38  profilanswer
 

couilleshot a écrit :


AMD? c'est pas plutôt les constructeurs (genre sapphire) qui s'occupent de ça? :??:


 
Les 1eres cartes sorties, "design de référence" sont faites par AMD, sapphire & co collent juste leur autocollant dessus le temps fignoler leur cartes "perso"

Message cité 2 fois
Message édité par cassoux le 20-08-2009 à 14:24:05

---------------
\|/A/V\|/FeedBack\|/\|/Ebay\|/\|/
n°7080047
trajouf
Posté le 20-08-2009 à 14:44:15  profilanswer
 

Wha voilà comment sortir un topic du trou :D :D :D
Ca remue dans les brancards!
 
Sinon Cuda est bien adapté au HPC, surtout pour les calcul CFD qui se parallélisent très bien.

n°7080090
fifi86
Glandeur pro !
Posté le 20-08-2009 à 15:17:22  profilanswer
 

cassoux a écrit :


 
Les 1eres cartes sorties, "design de référence" sont faites par AMD, sapphire & co collent juste leur autocollant dessus le temps fignoler leur cartes "perso"


 
Non.
 
C'est pas si simple que ça, ça dépend des cartes.
Les 4850 et 4870 par exemple, AMD avait demandé (entre autres) l'aide de PC partner pour la production des cartes "de base".
Et Pc partner ... c'est Sapphire.


---------------
...
n°7080186
couillesho​t
Les bouboules et la boubouche
Posté le 20-08-2009 à 17:10:05  profilanswer
 

cassoux a écrit :


 
Les 1eres cartes sorties, "design de référence" sont faites par AMD, sapphire & co collent juste leur autocollant dessus le temps fignoler leur cartes "perso"


Quel chouette metier, je vais postuler de suite  :sarcastic:


---------------
:o :o :o
n°7080316
mikestewar​t
Air Roll Spinnin'
Posté le 20-08-2009 à 19:39:29  profilanswer
 

Hum, "l'Empire contre-attaque"...pas comme il faudrait...  :whistle:

 
Citation :

NVIDIA serait sur le point de changer de nouveau l'appellation de ses cartes graphiques

 

"Nous innovons, contrairement à notre concurrent".

 

http://www.nvidia.fr/docs/IO/10131/Jen_Hsun_Huang_thumb.jpg

 


http://www.clubic.com/actualite-29 [...] -noms.html

 

A noter le détail de qualité de la part de Clubic :

 
Citation :

D'autres cartes graphiques, basées cette fois sur des GPU GT230 et GT300 de nouvelle génération [...]

 

Le GT230 n'est pas une puce, mais une carte desktop, basée sur le GT215, pas vraiment de nouvelle génération... :D

 

Ils sont forts chez Nvidia, ils ont réussi à embobiner Clubic avec leur renommages.  :whistle:

 

Au final, le G92 risquerait de participer aussi à la gamme GeForce 1xx/2xx/3xx, ayant déjà fait parti des GeForce 8, 9 et GT...

 


Message édité par mikestewart le 20-08-2009 à 19:59:21
n°7080331
Activation
21:9 kill Surround Gaming
Posté le 20-08-2009 à 19:59:19  profilanswer
 

puré nvidia si il virait tout leur marketeux qui pondent ces conneries de renommage tout les trimestre... ça en ferait du fric pour reduire les couts sur leur carte :O

n°7080337
mikestewar​t
Air Roll Spinnin'
Posté le 20-08-2009 à 20:09:33  profilanswer
 

Du coup on va avoir une upgrade gratuite pour une GeForce 2xx (*) "de la génération du GT300" alias GeForce 3xx. Merci Nvidia. :jap:

 

(*) : ou plutôt GTX260+.  :whistle:

 

Ça devient pathétique les "infos/rumeurs" sur le GT300 et compagnie ces derniers temps. :/


Message édité par mikestewart le 20-08-2009 à 20:27:15
n°7080349
Gigathlon
Quad-neurones natif
Posté le 20-08-2009 à 20:26:14  profilanswer
 

vincenjw a écrit :

C'était pour sous entendre que pour les ingé Nvidia,ça ne les déstabiliseraient pas vraiment de voire CUDA délaissé au profit de OpenCL. A mon avis sur toutes les sociétés qui y ont participé c'est Nvidia qui a/aura le moins d'effort à faire en interne niveau formation et ils ont déjà une certaine expérience.


nVidia n'aura pas plus de facilité qu'AMD à rendre ses GPU "compatibles" avec le compute shading, c'est déjà le cas depuis bien longtemps d'un point de vue hard... (le R600 étant d'ailleurs plus avancé de ce point de vue que le G80)
 
Le plus gros du travail, c'est de présenter à l'API les bonnes interfaces, et ça c'est un jeu d'enfant pour un développeur expérimenté, quand bien même le hard ne serait pas nativement compatible (il suffit de faire des opérations "neutres" sur les étages inutilisés, pour récupérer les données).

n°7080353
Ramichou
Posté le 20-08-2009 à 20:28:01  profilanswer
 

Encore un nouveau nom pour le G92 en perspective.
 
Petit quote d'un commentaire clubic pour la postérité, dont je ne citerait pas l'auteur afin de respecter le droit à l'oubli cher à internet.

Citation :

c'est sûr qu'on peut allégrement critiquer la démarche marketing de nvidia, cependant quand on achète une carte à plus de 150 euros, on s'est renseigné un minimum avant, donc on n'est pas trompé. Et si on achète du bas de gamme...bah qu'est-ce que ça change sur la qualité du produit, ça reste du bas de gamme...
Le fait est que nvidia propose les meilleurs produits, en terme d'ensemble hardware/software. nVidia fait avancer le monde graphique, et pas seulement celui des GPU


 
Quelque chose concernant des nouvelles puces nVidia sinon ? :D

n°7080358
mikestewar​t
Air Roll Spinnin'
Posté le 20-08-2009 à 20:30:52  profilanswer
 

Gigathlon a écrit :


nVidia n'aura pas plus de facilité qu'AMD à rendre ses GPU "compatibles" avec le compute shading, c'est déjà le cas depuis bien longtemps d'un point de vue hard... (le R600 étant d'ailleurs plus avancé de ce point de vue que le G80)

 

Le plus gros du travail, c'est de présenter à l'API les bonnes interfaces, et ça c'est un jeu d'enfant pour un développeur expérimenté, quand bien même le hard ne serait pas nativement compatible (il suffit de faire des opérations "neutres" sur les étages inutilisés, pour récupérer les données).

 

Gigathlon, que penses-tu de cette slide Nvidia ?

 

http://www.techpowerup.com/img/09-08-19/111a.jpg

 

Source : http://www.techpowerup.com/101944/ [...] mpute.html


Message édité par mikestewart le 20-08-2009 à 20:32:20
n°7080370
Gigathlon
Quad-neurones natif
Posté le 20-08-2009 à 20:36:53  profilanswer
 

Rien, si ce n'est qu'ils font de la pub à M$... [:ddr555]
 
DX Compute c'est surtout l'apparition d'un pipeline logiciel alternatif au pipeline 3D, tout aussi logiciel, mais en pratique ça change assez peu de choses, on évite juste des étapes inutiles (au hasard, la création d'une surface DDraw et l'association au rendu fictif D3D) lorsqu'il s'agit de calcul pur.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  57  58  59  ..  73  74  75  76  77  78

Aller à :
 

Sujets relatifs
[Topic Unique] ATI Radeon HD 4800 Series (RV790 inside)[Topic Unique] ATI Radeon 4700 Series (RV740 inside)
question sur nouvelle configComment réduire le bruit d'une nouvelle configuration ?
Nouvelle config pour bien débuter l'année :)[ topic unique ] les alimentations be quiet!
cherche conseils pour nouvelle config[HELP!] Cherche un magasin d'info sur Annecy !
[Topic Unique] Boîtier Silverstone Raven RV01 : mobo orientée à 90° ! 
Plus de sujets relatifs à : [Topic Unique] GT300 // La nouvelle bête de combat nvidia en 40nm


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)