Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1835 connectés 

 

 

 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Auteur Sujet :

[Topic Unique] GT2xx - 40nm Les cartes nvidia entrée de gamme

n°7160922
Gigathlon
Quad-neurones natif
Posté le 13-10-2009 à 18:19:53  profilanswer
 

Reprise du message précédent :

fifi86 a écrit :

En théorie par dérivée du Fermi, c'est ce qui ce dit.
Mais bon du coup s'amuser à sortir un gt240 dx10.1 en 40nm juste pour 6 mois maximum c'est assez idiot je trouve.
 
J'arrive pas à cerner le but de la manoeuvre.
Ou alors c'est du blabla et Fermi & coe va avoir de nombreux mois de retard.
On sera fixé avant noël là dessus !


Ils ont du retard, mais pour 2 raisons:
 
1- les GT21x étaient mal planifiés (Q1-2009 alors que TSMC ne pouvait tout simplement pas fabriquer en 40nm avant Q2)
2- TSMC a eu quelques mois de retard (3 mois) sur le 40nm
 
Si on suit la logique nVidia depuis le G80 et même avant ça, il ne faut pas attendre de dérivé mainstream/value de Fermi avant mi-2010 et le 32nm, voire fin 2010 et le 28nm.
 
Ca laisse quand même ~9 mois de durée de vie à ces GT21x, et ça c'est pas franchement bon vu leur niveau.
 
Par contre, il faudrait encore voir si Fermi peut réellement être réduit à une puce ne serait-ce que mainstream, car il a clairement été conçu dans une autre optique avec son FP64 à demi vitesse... ce qui peut impliquer un design totalement différent pour ces futurs GPU "budget".


Message édité par Gigathlon le 13-10-2009 à 18:23:43
mood
Publicité
Posté le 13-10-2009 à 18:19:53  profilanswer
 

n°7160941
Profil sup​primé
Posté le 13-10-2009 à 18:28:48  answer
 

http://www.club3d.nl/products/prod [...] uct_id=206
 
On parlait de MSI avec sa mémoire 405 MHz (pour une GT220), mais là, on a fini par trouver du pétrole tellement on a creusé profondément : 333 MHz DDR2 (667 MHz commercial), soit tenez-vous bien 10,5 Go/s. On est loin des 25 Go/s déjà faiblards pour une carte graphique qui devait déchirer sa race :o
 
Bientôt des GT220 avec pourquoi pas de la DDR1 @ 275 MHz ? [:jesus_consteration]


Message édité par Profil supprimé le 13-10-2009 à 18:32:12
n°7160986
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 13-10-2009 à 19:02:54  profilanswer
 

http://www.hardware.fr/medias/photos_news/00/27/IMG0027170.gif

Citation :

Notez que si NVIDIA indique des fréquences mémoire officielles, les partenaires sont libres d’utiliser de la mémoire moins rapide si bon leur semble, sans pour autant changer la dénomination. Ces mémoires moins rapides notées en rouge font parfois de grandes différences, et on ne peut encore une fois que dénoncer ce genre de pratiques. MSI va même encore lus loin avec une GT220 accompagnée de DDR2 à 405 MHz et une G210 accompagnée de DDR2 400 MHz ...

Au moins elles sont compatibles PhysX ...

n°7161067
Ramichou
Posté le 13-10-2009 à 19:55:46  profilanswer
 

Wirmish a écrit :

Au moins elles sont compatibles PhysX ...


 
Y a des moments ou vaut peut être mieux laisser faire le processeur !

n°7161474
Rafale06
Vive les Suisses (Neutre..)
Posté le 13-10-2009 à 23:03:08  profilanswer
 

Wirmish a écrit :

nVidia annonce pourtant 69 euros pour la version 512 Mo GDDR3 et 79 euros pour la version 1 Go.
À ce prix c'est du vol car on peut mettre la main sur une HD 4850 pour 84 euros.

 


Regarde bien la moins cher est à 50euros

 

http://www.materiel.net/ctl/Cartes [...] 12_Mo.html

 


Et 62euros la version 1go

 


http://www.materiel.net/ctl/Cartes [...] _1_Go.html

 


Mais on sera d'accord sur 1point ce sont des cartes indignes pour joueur digne de ce nom ^^.......

 

Aprés comme j'avais préçisé ailleurs.........et confirmé par HFR ce sont des cartes 3D basé sur les gpu mobiles.........donc fallait pas s'attendre à des miracles .....

 

Now si une personne désire monter un HTPC avec une carte graphique qui ne servira pas pour le jeu ou bien accessoirement pour des jeux datant du début 2000 pk pas..........

 

Mais j'admet avoir été monstrueusement surpris (dans le sens négatif) par cette sortie de carte qui n'ont aucun marché viable, perfs dignes d'un mobile, et rapport prix / perfs catastrophique par rapport à une 9600GT

Message cité 2 fois
Message édité par Rafale06 le 13-10-2009 à 23:10:36

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7161547
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-10-2009 à 00:03:04  profilanswer
 

Où c'est que je peux réclamer mon prix ?  :??:  

n°7161628
marllt2
Posté le 14-10-2009 à 02:54:48  profilanswer
 

Rafale06 a écrit :

Aprés comme j'avais préçisé ailleurs.........et confirmé par HFR ce sont des cartes 3D basé sur les gpu mobiles


Oui et non.
 

Citation :

NVIDIA lance aujourd’hui sur desktop les puces GT216 et GT218 qui ont précédemment été lancées sur le marché mobile sous les désignations G240M, G230M et G210M


 
C'est la même chose que le RV740 qui a été "lancé" (:o ) pour les mobiles 1 mois avant les HD 4770.
 
C'est le même chip, qui est utilisé à la fois sur les mobiles et les PC fixes. Le fait que le mobile soit lancé avant le desktop (ex: RV740 ou GT218), ou le desktop avant le mobile (ex: RV8xx ou G92) ne rend pas un GPU plus mobile ou plus desktop.
 
C'est le même GPU qui est décliné sur différentes gammes au cours du temps. Il est donc pensé pour s'adapter aux exigences à la fois du desktop et du mobile.
 
Après sur la question de qui vient avant l'autre, c'est une question de stratégie marketing.
 
 

Rafale06 a écrit :

Mais j'admet avoir été monstrueusement surpris (dans le sens négatif) par cette sortie de carte qui n'ont aucun marché viable, perfs dignes d'un mobile, et rapport prix / perfs catastrophique par rapport à une 9600GT


Bah et que dire de DX10.1, qui a été déclaré par nV inutile pendant 18 mois. Ils ont même réussi à faire dire à un représentant de MS que DX10.1 ne servait à rien. [:tinostar]  
 
Et là d'un coup DX10.1 c'est le must:  
 
http://www.techpowerup.com/105871/ [...] Cards.html
http://www.techpowerup.com/105879/ [...] Cards.html

Citation :

It is also the most affordable DX 10.1 for playing latest games.

Citation :

MSI N220GT and N210 series are also the first NVIDIA models to support the DirectX 10.1 multimedia gaming standard. In combination with DirectX 10.1 enabled games users will experience even more like-like special effects and engage in the most immersive gaming experience ever.


 
Avec bien sûr des graphs de qualitäy (DX10.0 et barème "collaboré" de Vantage inside):
 
http://www.techpowerup.com/img/09-10-12/3d.jpg
 
Le pire c'est que DX10.1 aurait pas mal aidé les perfs en Ambient Occlusion des GT200. :/


Message édité par marllt2 le 14-10-2009 à 03:09:28
n°7161642
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-10-2009 à 05:15:16  profilanswer
 

Citation :

It is also the most affordable DX 10.1 for playing latest games..

Citation :

...with full support for the latest DirectX 10.1 multimedia gaming standard.

Citation :

...Military Class components for greatest stability...

Citation :

...features astonishing 512/1024MB DDR2...

Citation :

It uses NVIDIA CUDA technology to unlocks the power of the GPU's processor cores to accelerate the most demanding system tasks - such as video transcoding in order to delivering incredible performance improvements over traditional GPUs.


http://www.crystalxp.net/forum/icones/smilies/lol.gif  http://files.myopera.com/haru18/albums/260354/17.gif
TechPowerUp n'a vraiment peur de rien.
 
Les commentaires valent la peine d'être lus -> LIEN

Message cité 1 fois
Message édité par Wirmish le 14-10-2009 à 06:26:28
n°7161705
Gigathlon
Quad-neurones natif
Posté le 14-10-2009 à 08:48:27  profilanswer
 


Y'a juste le petit problème de la DDR2... ces 2 modèles font partie de la liste "à éviter" établie plus tôt :o

n°7161757
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 14-10-2009 à 10:14:21  profilanswer
 

Wirmish a écrit :

Citation :

It is also the most affordable DX 10.1 for playing latest games..

Citation :

...with full support for the latest DirectX 10.1 multimedia gaming standard.

Citation :

...Military Class components for greatest stability...

Citation :

...features astonishing 512/1024MB DDR2...

Citation :

It uses NVIDIA CUDA technology to unlocks the power of the GPU's processor cores to accelerate the most demanding system tasks - such as video transcoding in order to delivering incredible performance improvements over traditional GPUs.


http://www.crystalxp.net/forum/icones/smilies/lol.gif  http://files.myopera.com/haru18/albums/260354/17.gif
TechPowerUp n'a vraiment peur de rien.
 
Les commentaires valent la peine d'être lus -> LIEN


C'est marqué, c'est une press release.

mood
Publicité
Posté le 14-10-2009 à 10:14:21  profilanswer
 

n°7162114
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 14-10-2009 à 14:24:27  profilanswer
 

Je sais, mais moi si j'étais un site sérieux, qui essais d'éduquer ses lecteurs du mieux qu'il peut, je suis pas sûr que j'aurais accepté de publier ces press releases sans ajouter un disclaimer à la fin, précisant que ces propos n'engagent que le fabriquant, et que le site préfère tempérer quelque peu cet excès d'enthousiasme.

n°7162188
Gigathlon
Quad-neurones natif
Posté le 14-10-2009 à 15:19:10  profilanswer
 

C'est déjà marqué en gros "Press release" sur le titre, perso ça me suffit pour douter du contenu... enfin plutôt pour m'attendre à un contenu loufoque :o

n°7162599
Rafale06
Vive les Suisses (Neutre..)
Posté le 14-10-2009 à 19:37:34  profilanswer
 

marllt2 :

 

Ben en fait le problème vient surtout des jeux vraiment DX 10.1....combien de jeux compatible ???? sur les doigts d'une main ^^

 

Bref au final DX10 na pas perçé et encore moins sa variante DX 10.1

  


Gigathlon a écrit :


Y'a juste le petit problème de la DDR2... ces 2 modèles font partie de la liste "à éviter" établie plus tôt :o

 


DDR2 ou 3 ..............ces cartes ne sont pas conçus pour le gamer.....mais plutôt pour faire du HTPC et décoder du flux H264 hardware ^^

 

Bref un marché hyper restreint , et les cartes n'ont aucuns avenirs viables pour le grand public........surtout quand on vois la comparaison face à ATI.

 

Perso je suis sur le Q qu'ils aient osés sortir ce genre de produit fin 2009, ils auraient mieux fait de ne laisser ce genre de produit qu'aux intégrateurs oem.


Message édité par Rafale06 le 15-10-2009 à 02:03:53

---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7162752
Ramichou
Posté le 14-10-2009 à 20:57:55  profilanswer
 

Après lecture des commentaires clubic, c'est fou à quel point le bourrage marketing passe bien chez certains. Le fait qu'AMD propose aussi bien voir mieux depuis 1 ans ne les a pas effleuré.
 
Je comprend pourquoi le protocole de test de clubic est favorable à Nvidia, il ne faut aps brusquer leur lectorat !

n°7164127
shenron67
Sure we can. We're Sega.
Posté le 15-10-2009 à 19:27:33  profilanswer
 

je retire tout ce que j'ai pu dire de positif sur le GT220 et 210 x)
 
http://alienbabeltech.com/main/?p=12024&page=7
 
je met cette page en particulier parce qu'avec des réglages proches (entendez par là un peu plus élevé+ aax4), ma HD3200 oc (900mhz) le jeu tournais tout aussi bien qu'avec le G210. Donc bon le G210, oubliez sauf peut-être pour 15-20€.
Le GT220 est en fait même inférieur à la hd4650 (alors que je pensais que c'était le contraire).
 
Donc les quelques points positifs que j'avais trouvé à ces cartes se sont envolés, tout simplement.

n°7164155
Ramichou
Posté le 15-10-2009 à 19:45:19  profilanswer
 

Je ne suis pas suffisament bon en anglais pour déterminer si leur conclusion était ironique, rassurez moi, c'est bien le cas ?
 
Nan parce que le GT220 se fait démonter du début à la fin par le HD4650 (sauf sur la conso en charge alors que 40nm vs 55nm), qui est déjà mauvais, et ils arrive à lui coller un award.
 
Z'ont pas du lire leur graphes et recopier les instructions de Nvidia là, c'est pas possible.

n°7164199
kworkas
Posté le 15-10-2009 à 20:07:08  profilanswer
 

il est certain que ce n'est pas du tout des cartes de gamers....
je pense qu'elles sont "pensées" htpc et oem.....
et de ce côté, elles devraient faire leur boulot (pure vidéo et surtout, compatibilité audio hd avec le support hdmi 1.3a)
on va retrouver en masse ces cg dans les pc des constructeurs divers.....

n°7164213
shenron67
Sure we can. We're Sega.
Posté le 15-10-2009 à 20:17:41  profilanswer
 

oem oui, htpc....une hd4350 fait tout aussi bien et consomme encore moins malgré que ce soit du 55nm donc bon...et elle se trouve à 30€

n°7164218
Rafale06
Vive les Suisses (Neutre..)
Posté le 15-10-2009 à 20:18:37  profilanswer
 

elles étaient conçus au départ que pour les intégrateurs oem....ils ont voulus élargir au marché du htpc ....et au joueur qui tourne avec un un écran 17p sur des jeux pas gourmands


---------------
Les kevin (j'ai 12ans lol) je les ignore......
n°7164245
kworkas
Posté le 15-10-2009 à 20:30:37  profilanswer
 

shenron, la 4350 n'est pas comme la série 5000, la première a être réellement équipée du hdmi 1.3a, necessaire au bitsream audio hd....
je préfère mettre 5 € de plus et prendre la 210 pour ma part....

n°7164262
Gigathlon
Quad-neurones natif
Posté le 15-10-2009 à 20:40:23  profilanswer
 

shenron67 a écrit :

Le GT220 est en fait même inférieur à la hd4650 (alors que je pensais que c'était le contraire).


Pour le coup, le test est un tout petit peu biaisé ceci dit, vu que les GT210 et GT220 testées sont des modèles DDR2 (400MHz) et la HD4650 un modèle DDR3 (667MHz ceci dit... pas de la DDR3 de compet)
 
Globalement, ça met les GT220 premier prix (60€) au niveau des HD4650 courantes (DDR2 500MHz, mais 50€, d'ailleurs y'a pas 3 jours j'en avais vu à 45€... qui qui se sucre sur les marges? :whistle: )
 
 
Kworkas> T'as vu où la compatibilité bitstream? Aucune mention dans l'article ni sur les specs chez nVidia... pourtant c'est plus important que ses performances 3D misérables, donc ça devrait être mentionné.


Message édité par Gigathlon le 15-10-2009 à 20:48:31
n°7164273
kworkas
Posté le 15-10-2009 à 20:48:55  profilanswer
 

pour le bitstream il faudra effectivement tester, je suis d'accord, ça reste à prouver, mais elle a apparement ce qu'il faut pour le faire.....
je disais ça pour éviter la comparaison avec la 4350...

n°7164283
Gigathlon
Quad-neurones natif
Posté le 15-10-2009 à 20:53:08  profilanswer
 

De même que les HD4000, sachant que la révision 1.3"a" n'a rien à voir avec cette option qui existe depuis le HDMI 1.3 "tout court"...

n°7164293
kworkas
Posté le 15-10-2009 à 20:59:33  profilanswer
 

apparement, cela n'a jamais été possible sur les 4000, vu que cela est précisé pour les 5000....( ça ne l'est pas non plus pour les 210 et 220, c est vrai aussi!) en plus j'ai vu beaucoup de gens ayant des pb avec le hdmi audio des 4350
de toute façon seul un vrai test nous le dira....
et je crois qu'il n'y a  que cyberlink qui annonce enfin une version de son soft qui ne reéechantillonne pas les pistes son hd....
pour arcsoft, je ne sais.....


Message édité par kworkas le 15-10-2009 à 21:00:33
n°7164317
Gigathlon
Quad-neurones natif
Posté le 15-10-2009 à 21:08:03  profilanswer
 

Ah, et je viens de repenser à un truc aussi pour la G210 en utilisation HC... chez Tom's Hardware le score HD HQV était à la ramasse en 1080p faute de pouvoir utiliser la réduction de bruit (GPU... pas assez puissant :o)


Message édité par Gigathlon le 15-10-2009 à 21:08:17
n°7164340
kworkas
Posté le 15-10-2009 à 21:20:36  profilanswer
 

je donnerais mon avis quand le système sera opérationnel....
si vraiment, ça merdouille avec la 210 je testerai avec une ati...

n°7164737
marllt2
Posté le 16-10-2009 à 07:34:16  profilanswer
 

http://img113.imageshack.us/img113/9118/nvidiawtf.jpg
 
 :lol:

n°7165051
super_newb​ie_pro
A ta dispoition frère geek :P
Posté le 16-10-2009 à 13:18:04  profilanswer
 

?? C'est un montage ou bien ils l'ont vraiment appelé WTF edition ? xoD


---------------
~ Camping thématique LA RESSOURCE sur l'autonomie ~
n°7165055
Profil sup​primé
Posté le 16-10-2009 à 13:22:27  answer
 

C'est un montage :o  
 
Les points de fuite de la perspective sont un peu de traviole :D
 
Tu penses qu'un fabricant peut mettre what's the fuck dans un package ?


Message édité par Profil supprimé le 16-10-2009 à 13:24:23
n°7165061
Gigathlon
Quad-neurones natif
Posté le 16-10-2009 à 13:24:57  profilanswer
 

T'as rien compris, c'est pour donner un style au nom! :o
 
Et en dehors de ça, avec mon écran pas vraiment calibrable on voit très bien un petit coup de pinceau noir façon Paint sous le F, en U, ainsi que des découpages rectangulaires ;)

Message cité 1 fois
Message édité par Gigathlon le 16-10-2009 à 13:25:07
n°7165154
TheBigO
ShowTime!
Posté le 16-10-2009 à 14:22:22  profilanswer
 

Gigathlon a écrit :

T'as rien compris, c'est pour donner un style au nom! :o
 
Et en dehors de ça, avec mon écran pas vraiment calibrable on voit très bien un petit coup de pinceau noir façon Paint sous le F, en U, ainsi que des découpages rectangulaires ;)


chuis sur que que gt220 ils appeleraient Ion2 ben ca serait plus vendeur :o


---------------
"Big O Showtime! Cast in the name of GOD, ye not guilty!" Roger Smith
n°7166041
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 17-10-2009 à 00:26:32  profilanswer
 

Rafale06 a écrit :

elles étaient conçus au départ que pour les intégrateurs oem....ils ont voulus élargir au marché du htpc ....et au joueur qui tourne avec un mini notebook ayant un écran TFT de 10.2" sur des jeux pas gourmands dans le genre de Pac-Man ou Tetris.


n°7166835
Gigathlon
Quad-neurones natif
Posté le 17-10-2009 à 17:29:23  profilanswer
 

Oh tiens, j'ai aperçu des intruses chez Saturn today.
 
Des HD4850 Connect3D, à 105€ pièce, mais surtout des GeForce GT220... à 80€ :o
 
Bon, remarquez, autant la HD4850 est à un prix presque normal, autant une pauvre HD4350 était déjà à 45€...

n°7166867
Ramichou
Posté le 17-10-2009 à 17:53:58  profilanswer
 

J'imagine le vendeur : oué mais les jeux TWIMTBP, donc optimisés pour Nvidia, la carte Nvidia est moins chère, et comme la quantité de mémoire est la même alors vous aurez plus de perfs avec le GT220 !
 
Ptin fear, et dire que dans des domaines ou j'y connais rien, je pourrais me faire enfler de cette manière.../cry

n°7173462
Lra|zr
Posté le 22-10-2009 à 09:44:05  profilanswer
 

Bonjour,
J'ai parcouru ce sujet
Je monte une config purement professionnelle, pour du dev et photoshop, pas de jeux
 
Je cherche une carte pour l'associer à un 23", 1920*1080
budget 50/100 €
Pensez-vous qu'une gt220 soit une solution intéressante ?
 
merci pour vos conseils
L.
 

n°7173548
Gigathlon
Quad-neurones natif
Posté le 22-10-2009 à 11:00:29  profilanswer
 

Strictement inintéressante, une 9600GT "green" sera meilleure en tous points si tu as besoin du support CUDA, et dans le cas contraire une HD4350 est amplement suffisante, moins chère et même moins gourmande que la G210.
 
D'ailleurs, normalement même une carte mère AMD785G serait suffisante (HD3450 déguisée, avec 128Mo de DDR3), mais après il faut voir vers quel CPU tu t'orientes.


Message édité par Gigathlon le 22-10-2009 à 11:01:01
n°7173582
Lra|zr
Posté le 22-10-2009 à 11:28:27  profilanswer
 

config :
un 23", 1920*1080  
corei7 860 + Asus P7P55D PRO
4go DDR3
windows7/64
 
le but est d'avoir une config homogene
je ne pense pas utiliser de logiciels qui exploiterait CUDA, c'est surtout du dev web
je m'oriente vers une nvidia pour cette config
une marque à privilégier pour une 9600gt en 512 MO ?
 
merci
L.

n°7173584
Profil sup​primé
Posté le 22-10-2009 à 11:30:03  answer
 
n°7173695
Gigathlon
Quad-neurones natif
Posté le 22-10-2009 à 12:45:33  profilanswer
 

Lra|zr a écrit :

le but est d'avoir une config homogene
je ne pense pas utiliser de logiciels qui exploiterait CUDA, c'est surtout du dev web
je m'oriente vers une nvidia pour cette config


Il n'y a pas vraiment de config homogène qui tienne, rien n'empêche d'avoir une mobo à 4 sockets LGA1366 et une HD4350 voire pire si on ne joue pas avec...
 
Tout ce qu'il te faut sachant que tu ne joues pas, c'est une prise pour brancher l'écran, et éventuellement le support CUDA si tu as des filtres toshop qui l'utilisent, c'est pour ainsi dire l'unique raison valable de choisir une carte nVidia dans ton cas.
 
Sans se préoccuper de CUDA, le plus intéressant est au choix la HD3450 ou la HD4350 (25/30€), les 2 ont 512Mo de RAM, soit plus que le nécessaire, sont passives et ne consomment/chauffent que très peu. Ca fait une éternité que le GPU n'est plus le facteur limitant en travail 2D.
 
Maintenant, si tu préfères prendre une nVidia au cas où tu devrais à l'avenir travailler avec des filtres toshop CUDA, la 9600GT "Green" reste le choix le plus cohérent: une puissance de calcul correcte pour un prix et une conso modérés (la GT220 consomme certes à priori un peu moins, mais au détriment de la puissance de calcul fortement revue à la baisse, le tout pour un prix au mieux comparable).
 
Enfin, il y a aussi le risque qu'Adobe se mette à utiliser d'origine non pas CUDA mais DirectCompute, et là ça serait plutôt du côté de cartes pas encore dispo qu'il faudrait se tourner (HD5k d'entrée de gamme, ou dans un avenir plus ou moins lointain un GPU DX11 nVidia).
 
Dans tous les cas, la marque n'a quasiment aucune influence: les seuls critères à considérer sont le respect du design de référence (carte et fréquences), le refroidissement (passif, actif silencieux, actif bruyant...) et le prix.


Message édité par Gigathlon le 22-10-2009 à 12:48:01
n°7178550
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 25-10-2009 à 17:07:35  profilanswer
 

 
Lra|zr, on peut savoir pourquoi tu veux absolument une carte nVidia ?
Je dis ça pcq pour du dev web une carte graphique S3 Chrome (440 et +) ferait amplement l'affaire.
 
Y'a un truc à prendre en compte... Windows Seven il aime le DX10.1.
Voir cette news -> Windows 7 Aero to take advantage of DirectX 10.1
 
Donc moi je te conseille de prendre une carte compatible DX10.1.
Il n'y a que 2 cartes DX10.1 chez nVidia, donc ton choix ne sera pas trop difficile.
Par contre les Radeon 3000/4000 sont toutes compatibles DX10.1 et à performance égale elles sont moins onéreuses.
Quant aux cartes S3, à partir de la Chrome 440, toutes les cartes sont compatibles DX10.1.


Message édité par Wirmish le 25-10-2009 à 17:14:40
n°7179948
Lra|zr
Posté le 26-10-2009 à 13:48:22  profilanswer
 

Merci Gigathlon pour ton point de vue
 
nvidia... rien de bien rationnel en effet
 
je suis en ATI pour ma machine perso et continuerait à l'etre, mais avec mes expériences et celles de mes proches, je prefere etre en nvidia pour une machine à but professionnel, et puis niveau achat commerçant j'avais un choix restreint au niveau des cartes
 
parti pour une 9600GT, exit DX10.1 en effet
la question initiale était sur les GT220
je cherchais juste des points de vue
 
L.


Message édité par Lra|zr le 26-10-2009 à 13:56:31
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5

Aller à :
Ajouter une réponse
 

Sujets relatifs
Topic Unique[Topic Unique] NZXT PanzerBox
ATI Radeon HD 3450 contre NVIDIA GeForce 9300 GECarte graphique gamer ATI ou Nvidia
[Topic Unique] Shuttle SX58H7 Pro Core i7 (avec GTX 680)Nvidia 9800GTX+ et driver 182.50 = écran noir et blanc
Avis sur une config haut de gammerecherche pilotes cartes mères
Question ultra-haut-de-gammeAvis sur config milieu de gamme
Plus de sujets relatifs à : [Topic Unique] GT2xx - 40nm Les cartes nvidia entrée de gamme


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR