Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1463 connectés 

 

 

Aprés un GT200 consommant et chauffant énormément, pariez-vous sur la révision GT200B en :


 
62.3 %
 415 votes
1.  55nm (nouveau standard)
 
 
22.7 %
 151 votes
2.  45nm (Aucun GPU de produit à cette finesse - coût plus élevé (nouveauté))
 
 
15.0 %
 100 votes
3.  40nm (Aucun GPU de produit à cette finesse - coût bien plus élevé (nouveauté ultime) Dispo pour eux depuis le 2T. 2008)
 

Total : 942 votes (276 votes blancs)
Ce sondage est clos, vous ne pouvez plus voter
 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  ..  833  834  835  836  837  838
Auteur Sujet :

[Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250

n°6323199
jujuro38
Posté le 08-04-2008 à 23:57:54  profilanswer
 

Reprise du message précédent :

Gigathlon a écrit :


Sauf que ce "1GHz" ne concerne pour ainsi dire que les ROPs, les SP sont à 1688MHz sur la 9800GTX, du coup si le shrink ne monte pas à plus de 2GHz et garde strictement la même composition faut pas tabler sur plus de 20% de gain.


 
Il y a un rapport de 2,5 entre la fréquence GPU et la fréquence shaders sur G92. Et je suis pas certain qu'il soit modifiable (enfin j'ai pas essayé).
Quelques exemples (GPU/Shader) :
650/1625 pour une 8800 GTS²
675/1688 pour une 9800 GTX
720/1800 pour une 8800 GTS² O/C d'usine par Gainward
800/2000 pour une 8800 GTS² full O/C (ok c'est rare mais yen a ki y sont arrivé)
 
donc si on suppose (et aujourd'hui on peut pas faire beaucoup plus que supposer) qu'un G92b gravé en 55nm peut taper les 1Ghz, il aurait une fréquence Shaders à 2500Mhz.
Maintenant, si ces fréquences sont dissociables (que l'on peut modifier le rapport de 2,5), des fréquences à 1Ghz pour le GPU et 2Ghz pour les SP seraient faisables et seraient très correctes pour avoir des perfs compétitives avec un RV770.
Bien sur, il faut également tenir compte de la DDR...  :jap:

Message cité 1 fois
Message édité par jujuro38 le 09-04-2008 à 00:02:21
mood
Publicité
Posté le 08-04-2008 à 23:57:54  profilanswer
 

n°6323303
i_am_loki
Posté le 09-04-2008 à 04:35:51  profilanswer
 
n°6323354
god is dea​d
Demain, j'arrête de poster.
Posté le 09-04-2008 à 08:46:54  profilanswer
 

jujuro38 a écrit :


 
Il y a un rapport de 2,5 entre la fréquence GPU et la fréquence shaders sur G92. Et je suis pas certain qu'il soit modifiable (enfin j'ai pas essayé).
Quelques exemples (GPU/Shader) :
650/1625 pour une 8800 GTS²
675/1688 pour une 9800 GTX
720/1800 pour une 8800 GTS² O/C d'usine par Gainward
800/2000 pour une 8800 GTS² full O/C (ok c'est rare mais yen a ki y sont arrivé)
 
donc si on suppose (et aujourd'hui on peut pas faire beaucoup plus que supposer) qu'un G92b gravé en 55nm peut taper les 1Ghz, il aurait une fréquence Shaders à 2500Mhz.
Maintenant, si ces fréquences sont dissociables (que l'on peut modifier le rapport de 2,5), des fréquences à 1Ghz pour le GPU et 2Ghz pour les SP seraient faisables et seraient très correctes pour avoir des perfs compétitives avec un RV770.
Bien sur, il faut également tenir compte de la DDR...  :jap:


Ca parait chaud de faire aussi bien qu'un rv 770 haut de gamme.
 
HD 4870 vs HD 3870 = puissance de calcul x 2, puissance de filtrage x 2.7, filrate + 30%, bp quasi x 2, quantité ram x 2.  
Ca fait des perfs x 2 sans trop de soucis.
 
Si le g92b est uniquement un die shrink, il ne peut pas lutter contre un rv770 gonflé à bloc. Faudrait 1go de ram, ensuite une bp doublée (bus 256 bits + gddr 5) et une augmentation des Sp, en partant du principe que ce serait une archi g80, donc qu'il n'y ait aucune amélioration notable. Mais là on sort du cadre d'un die shrink.
 
Après faut voir ce qu'il en est vraiment, mais le g92b sent mauvais pour l'instant :/


Message édité par god is dead le 09-04-2008 à 08:49:33

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6323645
MacIntoc
tu lis une phrase formidable.
Posté le 09-04-2008 à 11:44:01  profilanswer
 

Sans compter que le G92b sera toujours aussi risible en GS.


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6324439
marllt2
Posté le 09-04-2008 à 18:50:28  profilanswer
 

nVidia compte peut-être faire durer l'archi G92/G92B avant la next-gen DX11. :/

n°6324452
sasuke87
Posté le 09-04-2008 à 18:54:55  profilanswer
 

finalement on aura des effet DX10 dans les jeux, quand DX11 sera dispo et que nvidia aura sorti une new archi  :pt1cable:

n°6326040
Neon67
in ctrl+s we trust
Posté le 10-04-2008 à 16:56:49  profilanswer
 

http://data.oedipe.org/media/spectacle/iwojima/drapeau.jpg

n°6326311
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 10-04-2008 à 19:52:06  profilanswer
 

I am now leaveing this forum thanks for your time.  
 
Responding to the PM the resolution is 2560x1600  
 
BTW Its a single card still in ALPHA stage and has very less driver support thus it scored so low 3d mark 06 only 16K someone tells me it can score around 19-21K when launched.  
 
**********************  
 
CPU INFO:- These are not a single Q6600 you really think we have any normal machines in the lab.  
 
The are two Q6600 (LGA 775) processers on a twin socket motherboad on a new nvidia chipset.  
 
If no one knows XFX also produces M/B and our relationship with nvidia is stronger than most companies.  
 
http://resources.vr-zone.com/newzhunter/GT200/3dmark06.jpg
source : http://www.pcgameshardware.de/aid, [...] und_RV770/
=============
 
 
PCGH-X-User Captain Future gibt seine Ansicht der Spezifikationen von R700, RV770 und der kommenden Geforce (GT200) wie folgt an:  
 
R700:  
• 2x RV770, also 800 Shader-ALUs, 32 TMUs, 512 Bit Speicherinterface  
 
RV770:  
• 850-900 MHz Chip  
• 400 Shader-ALUs  
• 16 TMUs  
• 16 ROPs (endlich repariert, 4z/clk, MSAA-Resolve in den ROPs)  
• 55nm  
• ~ 800-830M Transistoren  
• schnelles GDDR4  
• Leistung: RV670+50% und mehr  
• TDP (Karte) ~150 Watt  
 
Geforce Next (GT200):  
• 550-650 MHz Chip, ~1,5 GHz Shader  
• 240 Shader-ALUs  
• 80 TMUs  
• 32 ROPs  
• 65nm  
• >600mm² Die-Size  
• ~1,5 Mrd. Transistoren  
• GDDR3-RAM, 1,0-1,1 GHz, 512 Bit  
• Leistung: G80+100%  
• TDP (Karte): >200 Watt  
source http://forums.anandtech.com/messag [...] id=2160045
 
===============
Après les rumeurs sur la sortie d'une puce graphique G92b gravés en 55 nm, plusieurs sources évoquent la sortie de processeurs graphiques G94b et G96b également gravés en 55 nm. Ces derniers seraient destinés au marché des ordinateurs portables. Le G94b prendrait place sur les GeForce 9800M GT et 9800M GTS alors que le G96b serait baptisé GeForce 9650M GT.
 
http://www.matbe.com/images/biblio/divers/000000069566.jpg
NVIDIA migre vers le 55 nm
 
Si NVIDIA grave des processeurs graphiques pour portables en 55 nm, rien ne l'empêche de faire pareil pour les versions desktops qui pourraient monter plus haut en fréquence tout en consommant moins. Mais surtout, NVIDIA pourrait s'aligner facilement sur les tarifs d'AMD qui produit déjà son RV670 en 55 nm.
source : http://www.matbe.com/actualites/34 [...] g96b-g94b/


Message édité par super_newbie_pro le 10-04-2008 à 19:54:23

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6326388
angela-pcs
Posté le 10-04-2008 à 20:38:43  profilanswer
 

Citation :

2560x1600  


 
Ce screen suxe et date de matusalem  
 
regarde bien on vois très bien un 4 en fin pour la résolution
 
Je sais bien qu'on est en avril mais bon

n°6326908
MacIntoc
tu lis une phrase formidable.
Posté le 11-04-2008 à 09:56:01  profilanswer
 

Et la DDR-4 est pas crédible.


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
mood
Publicité
Posté le 11-04-2008 à 09:56:01  profilanswer
 

n°6327576
god is dea​d
Demain, j'arrête de poster.
Posté le 11-04-2008 à 16:46:31  profilanswer
 

http://www.matbe.com/actualites/35011/nvidia-gt-200/
 
:o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6327600
MacIntoc
tu lis une phrase formidable.
Posté le 11-04-2008 à 16:59:56  profilanswer
 

Eviron 200 SP ? Ca laisserait entendre 196 SP ?


---------------
Je pense donc tu suis. Crois moi, je suis zététicien.
n°6327721
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 11-04-2008 à 18:11:55  profilanswer
 

Citation :

Lors d'une conférence de presse sur les cartes graphiques professionnelles Quadro, Jeff Brown, responsable du secteur professionnel chez NVIDIA, a confirmé l'arrivée d'un nouveau processeur graphique. Baptisé GT-200, ce dernier disposera d'environ un milliard de transistors contre seulement 754 millions de transistors pour l'actuel G92.
 
Cela confirme en partie les dernières informations qui avaient circulé à propos du futur processeur de NVIDIA. Le GT-200 devrait embarquer environ 200 streams processors alors que le G92 ne dépasse pas les 128 unités. Si les informations se font de plus en plus précises, la date de sortie reste encore inconnue. D'après nos estimations, les nouvelles GeForce devraient être présentées officiellement dans le courant de l'été.

1 milliard... mouarffff


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6327722
jesaipacki
Posté le 11-04-2008 à 18:12:26  profilanswer
 

C'est bien c'est beau 196SP mais faudrait aussi du 512Bits en GDDR5  :o

n°6327724
god is dea​d
Demain, j'arrête de poster.
Posté le 11-04-2008 à 18:15:22  profilanswer
 

256bits + gddr5 c'est largement suffisant :o


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6327731
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 11-04-2008 à 18:21:04  profilanswer
 

Petite parenthèse nvidia déclare que ses GPU délivrent 27fois plus de puissance que les CPU :
-----------
A défaut de dévoiler de plus amples détails sur son projet de retour à la carte graphique dédiée, nom de code Larrabee, Intel a profité du récent Intel Developper Forum de Shanghai pour affirmer que le rendu 3D telle que nous le connaissions aujourd'hui en informatique arrivait à son terme. Selon les propos de Pat Gelsinger, vice-président en charge de la division serveur du fondeur, l'avenir serait en effet à des processeurs x86 composés de plusieurs coeurs, voire de plusieurs dizaines de coeurs, capables de traiter de façon massivement parallèle des flux de données ou des opérations de rendu : les cartes graphiques dédiées n'auraient dès lors plus guère d'intérêt.
 
Un point de vue que ne partage pas nVidia, actuel numéro un sur ce marché des cartes graphiques dédiées. Jen-Hsun Huang, cofondateur et PDG de la firme, a fait savoir tout le bien qu'il pensait de cette hypothèse à à l'occasion d'une conférence téléphonique donnée aux investisseurs jeudi et serait allé, selon le site TGDaily, jusqu'à surnommer « Laughabee » le projet Larrabee (to laugh signifie rire).
 
Selon lui, les processeurs graphiques délivrent aujourd'hui des performances exceptionnellement élevées, et il faudrait qu'Intel parvienne à surmonter bon nombre de difficultés avant de pouvoir commencer à rivaliser avec la gamme des GeForce. « Les gens n'achètent pas des produits nVidia parce qu'ils le doivent, ou parce qu'ils peuvent le faire. Ils le font parce qu'ils le veulent », aurait déclaré Jen-Hsun Huang.
 
Le projet d'intégration d'un contrôleur graphique au CPU de façon à faciliter les échanges entre les deux éléments, qui pourrait voir le jour dès la sortie de Nehalem, ne convainc pas non plus le PDG de nVidia, qui rappelle qu'Intel a déjà laissé entendre à plusieurs reprises que les contrôleurs graphiques intégrés pourraient un jour détrôner les cartes graphiques dédiées, sans succès.
 
Aujourd'hui capables de délivrer des performances maximales en termes de rendu 3D, les fabricants de cartes tentent d'adapter leurs puces à de nouveaux usages, comme la décompression de flux vidéo haute définition pour laquelle ils viennent soulager le processeur principal qui peut alors être consacré à d'autres tâches, ce qui tendrait à les rendre de plus en plus incontournable. Intel devra donc parvenir à surmonter toutes les difficultés liées à la réalisation de sa nouvelle architecture pour convaincre fabricants et consommateurs que la carte graphique 3D n'est plus ce qu'elle était...
source : http://www.clubic.com/actualite-13 [...] habee.html
 
===========
 
NVIDIA claimed at their Analyst Day that when you're upgrading your computer a GPU delivers 27x the bang for buck than a processor. They showed a chart that shows you how much more performance you're getting when you upgrade your Intel processor and how much more performance you get when you install a GeForce 8400 GS, 8600 GT or 8800 GT card.
 
http://www.dvhardware.net/news/nvidia_analyst_day_08_slide_3.jpg
 
source : http://www.dvhardware.net/article26483.html
 
and NVIDIA ran some comparisons at their Analyst Day to compare the performance of physics processing on their GeForce 9800 GTX and the Intel Core 2 Quad processor:
 
http://www.dvhardware.net/news/nvidia_analyst_day_08_physx.jpg
source : http://www.dvhardware.net/article26487.html

Message cité 1 fois
Message édité par super_newbie_pro le 11-04-2008 à 18:43:21

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6327758
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 11-04-2008 à 18:40:18  profilanswer
 

GT200-300 is taped out ! GT200-300 prêtes
 
Looks that GT200 is also going to be ready for late Q2 launch. We only have some limited data, but the chip that we call GT200 is tapped out and the prototypes of the card are already up and running.  
 
The device is known as Nvidia GT200-300 and this naming scheme might implicate that this is something that we've seen listed as D10U-30.
 
We can only speculate is this a 55 or 65nm or if this card has one or two chips, but we can confirm that this configuration has 1024MB of memory.
 
The chip, however, is called GT200-300. The shocking part is that both R700 and new GT200 might be launched at roughly the same time, or very close to each other.  
source : http://www.fudzilla.com/index.php? [...] 6&Itemid=1

Message cité 1 fois
Message édité par super_newbie_pro le 11-04-2008 à 18:43:54

---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°6327769
marllt2
Posté le 11-04-2008 à 18:47:43  profilanswer
 


Donc Fudo avait vu juste pour le nom gt200... :whistle:
 

super_newbie_pro a écrit :

Looks that GT200 is also going to be ready for late Q2 launch.


Ca confirmerais ce que j'ai dit il y a quelques temps: le GT200 en THDG, et les G92b & consors en dessous...


Message édité par marllt2 le 11-04-2008 à 18:49:52
n°6328192
marllt2
Posté le 11-04-2008 à 22:45:13  profilanswer
 

http://www.hardware.fr/news/9568/n [...] me-45.html

Citation :

Toujours dans ce registre, un cadre, Jeff Brown, a confirmé lors d'une rencontre avec la presse à Munich l'existence d'un "GT-200" qui embarquerait 1 milliard de transistors environ. Il disposerait de 200 processeurs scalaires, contre 128 pour les G92, et débarquerait dès cet été. Nombreux sont ceux qui espèrent que la firme au caméléon aura utilisé une partie des transistors supplémentaires pour proposer un contrôleur mémoire plus large que 256 bits.

n°6328492
Pilipe
Posté le 12-04-2008 à 03:31:16  profilanswer
 

J'aime bien ce topic, tout le monde parle Anglais :lol:
 
Sinon d'après les rumeurs du GT-200 ça serait environ combien de fois plus puissant que le RV770 ?

n°6328530
Gigathlon
Quad-neurones natif
Posté le 12-04-2008 à 08:40:15  profilanswer
 

super_newbie_pro a écrit :

and NVIDIA ran some comparisons at their Analyst Day to compare the performance of physics processing on their GeForce 9800 GTX and the Intel Core 2 Quad processor:
 
http://www.dvhardware.net/news/nvi [...] _physx.jpg


Biaisé... :sarcastic:  
 
Si ils comptent 128 SP pour le G92 il faut compter les unités SIMD du Penryn qui font 256bits de large soit 8 unités par core, et donc 32 unités...
 
Sur certaines opérations le GPU aura l'avantage, mais globalement les 2700% sont très très optimistes.


Message édité par Gigathlon le 12-04-2008 à 08:44:16
n°6328557
Sat45
ÉcouTeSA
Posté le 12-04-2008 à 09:35:46  profilanswer
 

Pilipe a écrit :

J'aime bien ce topic, tout le monde parle Anglais :lol:
 
Sinon d'après les rumeurs du GT-200 ça serait environ combien de fois plus puissant que le RV770 ?


 
:lol: Tu veut dire est ce que le GT200 sera un peu plus puissant ou un peu moins puissant que le RV770 :o
 
En tout cas ca nous fais une belle jambe de connaitre ce genre de rumeur :spamafote:
 


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6328577
marllt2
Posté le 12-04-2008 à 09:55:40  profilanswer
 

Avec 200SP même avec des fréquences inchangées, et +/- 140Go/s de BP ça va dépoter. Ce sera + perf qu'un RV770.
 
Par contre c'est le match R700 vs GT-200 qui sera intéressant. ;)

n°6328779
jesaipacki
Posté le 12-04-2008 à 11:48:33  profilanswer
 

Ca va sur ce topic vous êtes encore optimiste pour AMD qui reviendrait enfin alors dans la course aux performances.
Cela promet si c'est le cas.

n°6328781
poiuytr
\o/
Posté le 12-04-2008 à 11:49:25  profilanswer
 

Citation :

Par contre c'est le match R700 vs GT-200 qui sera intéressant.


Ouais mais si je ne me goure pas, le R700 est composé de deux RV770... alors que le GT-200 est un seul gpu.

Message cité 1 fois
Message édité par poiuytr le 12-04-2008 à 11:50:07
n°6328783
marllt2
Posté le 12-04-2008 à 11:51:28  profilanswer
 

poiuytr a écrit :

Citation :

Par contre c'est le match R700 vs GT-200 qui sera intéressant.


Ouais mais si je ne me goure pas, le R700 est composé de deux RV770... alors que le GT-200 est un seul gpu.


C'est vrai, mais nVidia ne pourra pas faire de dual GT-200 (à supposer que ce soit bien un mono-chip). ;)
 
Par contre le R700 risque de chauffer sérieusement. :whistle:


Message édité par marllt2 le 12-04-2008 à 11:54:46
n°6328805
poiuytr
\o/
Posté le 12-04-2008 à 12:04:33  profilanswer
 

En fait je vois le pb à l'inverse de toi : tant mieux si Nv ne peut pas faire de dual GT200.
Les cg dual gpu restent pour moi du bricolage (perfs variables, chauffe, ventirad spécifique, etc) donc peu intéressantes.
 
Mais j'ai malheureusement l'impression que cela va changer :sweat: :  
cf les hdg actuels : bi-gpu ;  
l'annonce il y a qq temps d'Ati sur ses futures cg composées de 1 à 4 gpu ;  
ou simplement la tentation de faire ce genre de cg pour vendre plus de gpu à défaut de réussir à imposer le SLI/CF.

n°6328903
Geniefou
Génie le jour, fou la nuit
Posté le 12-04-2008 à 12:58:58  profilanswer
 

jesaipacki a écrit :

Ca va sur ce topic vous êtes encore optimiste pour AMD qui reviendrait enfin alors dans la course aux performances.
Cela promet si c'est le cas.


 
[:rastaman40] si les deux sont presque égaux en performance, faudra qu'ils se départagent

  • ils baisseront leur prix  
  • essayeront d'augmenter les performances de toutes les manières possibles



Message édité par Geniefou le 12-04-2008 à 12:59:46
n°6328913
Typhon 44
^^ vieux ^^ || vrai : Alytrem
Posté le 12-04-2008 à 13:04:33  profilanswer
 

Ce qui fera que les multi GPU seront efficace, ce sera la programmation des jeux. Tout comme pour les CPUs, ils sont maintenant tous multicore. Et les applications sont de plus en plus multithreadées. Ca viendra avec les jeux aussi. Enfin j'espère

n°6328935
Gigathlon
Quad-neurones natif
Posté le 12-04-2008 à 13:18:16  profilanswer
 

Typhon 44 a écrit :

Ce qui fera que les multi GPU seront efficace, ce sera la programmation des jeux. Tout comme pour les CPUs, ils sont maintenant tous multicore. Et les applications sont de plus en plus multithreadées. Ca viendra avec les jeux aussi. Enfin j'espère


Le problème étant totalement différent, je vois vraiment aucun sens à ce que tu dis...
 
Les GPU font des calculs à la chaîne et peuvent avoir besoin des données calculées par leur(s) voisin(s) en multi-GPU, le seul moyen de rendre ça efficace est de partager un bus commun, soit pour la RAM (ce qu'apporte la GDDR5), soit un "backside bus" dont la fonction serait similaire à l'HyperTransport chez AMD.
 
Les 2 sont cumulables aussi, mais à ce niveau autant pousser jusqu'au "dégroupage total" et conserver 2 types d'entités comme c'était le cas sur les Voodoo: 1 chip de pre-processing (rasterizing, distribution des ordres et données) et X chips de calcul.

n°6329013
Typhon 44
^^ vieux ^^ || vrai : Alytrem
Posté le 12-04-2008 à 14:02:42  profilanswer
 

Gigathlon a écrit :


Le problème étant totalement différent, je vois vraiment aucun sens à ce que tu dis...
 
Les GPU font des calculs à la chaîne et peuvent avoir besoin des données calculées par leur(s) voisin(s) en multi-GPU, le seul moyen de rendre ça efficace est de partager un bus commun, soit pour la RAM (ce qu'apporte la GDDR5), soit un "backside bus" dont la fonction serait similaire à l'HyperTransport chez AMD.
 
Les 2 sont cumulables aussi, mais à ce niveau autant pousser jusqu'au "dégroupage total" et conserver 2 types d'entités comme c'était le cas sur les Voodoo: 1 chip de pre-processing (rasterizing, distribution des ordres et données) et X chips de calcul.


Tu l'a bien dit. parfois, un GPU eut avoir besoin de ce que son voisin a calculé. Tout comme pour les multi-CPU d'ailleurs. Et donc, celà nécessite une programmation adaptée.

n°6329622
beano34
Mon posterieur sur la commode!
Posté le 12-04-2008 à 19:24:15  profilanswer
 

en tous cas une chose qui a tendance a s'accentuer dans le temps c'est que si ATI veux suivre NVIDIA son GPU devra être plus puissant sur le papier  
car la différence dans les jeux ce fait de plus en plus grande malgré la puissance de calcul supérieure d' ATI (sauf 2 ou 3 jeux) la HD3870x2 est un bon exemple
 
a part 3dmark de ce coter NVIDIA sera toujours devant même avec une architecture un peu moins performante ils seront a égalité du coup et c'est con pour ATI
 
ATI je t'aime mais NVIDIA POWWWAAA   :D  :D

Message cité 1 fois
Message édité par beano34 le 12-04-2008 à 19:37:21

---------------
Feedback
n°6329628
jesaipacki
Posté le 12-04-2008 à 19:27:15  profilanswer
 

beano34 a écrit :

en tous cas une chose qui a tendance a s'accentuer dans le temps c'est que si ATI veux suivre NVIDIA son GPU devra être plus puissant sur le papier  
car la différence dans les jeux ce fait de plus en plus grande malgré le puissance de calcule supérieure a ATI (sauf 2 ou 3 jeux) la HD3870x2 est un bon exemple
 
a part si on joue a 3dmark de ce coter la NVIDIA sera toujours devant même avec une architecture un peu moins performante elle seront a egaliter du coup c'est con pour ATI
 
ATI je t'aime mais NVIDIA POWWWAAA   :D  :D  
 


 
C'est plutôt l'inverse pour preuve c'est un Quad-CF 3870X2 qui a le record de 3DMark06.

n°6329646
beano34
Mon posterieur sur la commode!
Posté le 12-04-2008 à 19:36:42  profilanswer
 

jesaipacki a écrit :


 
C'est plutôt l'inverse pour preuve c'est un Quad-CF 3870X2 qui a le record de 3DMark06.


 
je me suis mal exprimé  :jap:


---------------
Feedback
n°6333566
Ill Nino
Love
Posté le 15-04-2008 à 11:54:19  profilanswer
 

Ouh bordel! J'allais tout juste tout juste aller me chercher 2 8800 GTX! Heureusement que j'ai lu que le GT200 etait pour pas longtemps! :ouch:
 
(drapal deguised)


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6333765
soufkad
Posté le 15-04-2008 à 13:32:05  profilanswer
 

a part si tu compte faire un sli de GT200, je pense que ton sli 88GTX sera plus erformant qu'un GT200 avec 5 mois de profit


---------------
Evga680i | E6700@3,5 | 4Go800@933 | SLI 8800GTX | RAID0 RAPTORX150 | 400Go SATAII |Audigy4Pro | Tagan900W | CRT21" |
n°6333768
Ill Nino
Love
Posté le 15-04-2008 à 13:34:19  profilanswer
 

soufkad a écrit :

a part si tu compte faire un sli de GT200, je pense que ton sli 88GTX sera plus erformant qu'un GT200 avec 5 mois de profit


Comment ca?


---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6333806
Sat45
ÉcouTeSA
Posté le 15-04-2008 à 13:55:40  profilanswer
 

sous entendu, tu l'aura deja utilisé pendant 5 mois :jap:


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6333813
Ill Nino
Love
Posté le 15-04-2008 à 13:57:51  profilanswer
 

J'en compte 3 voir 4 max vu que c'est annoncé pour etre dispo juin/juillet...


Message édité par Ill Nino le 15-04-2008 à 13:58:10

---------------
Faut qu'on court comme des lions, des tigres et des ours!
n°6333816
Sat45
ÉcouTeSA
Posté le 15-04-2008 à 13:58:42  profilanswer
 

Oui mais ca c'est si tu achetes tel un fanboy des la sortie au prix fort ;)


---------------
106R / / / 1300 POWAAAA !!!  /!\ ~ TeSA - Séda c'est çà session ~ /!\
n°6333823
Ill Nino
Love
Posté le 15-04-2008 à 14:04:25  profilanswer
 

C'est ce que je fais en general. :D
Heu... C'est pas bien?
 
Franchement en général quand c'est une nouvelle archi qui sort, les prix restent haut pendant 2-3 mois apres facile...


Message édité par Ill Nino le 15-04-2008 à 14:04:38

---------------
Faut qu'on court comme des lions, des tigres et des ours!
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  ..  833  834  835  836  837  838

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Intel Core 2 Duo E4700[Topic Unique] Silverstone FT01
[Topic Unique] Bluetooth / Bluesoleil / test de dongle des membres[Topic unique] Nvidia 9600 GT
Plus de sujets relatifs à : [Topic Unique] GT200 et GT200b - GTX295, 285, 280, 275, 260, 250


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR