Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2679 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5
Page Suivante
Auteur Sujet :

Radeon 9700 vs GF4 Ti 4600, Faut il se jeter sur le Radeon ?

n°1733326
syntaxx_er​ror
Posté le 20-08-2002 à 19:44:06  profilanswer
 

Reprise du message précédent :

bonk1 a écrit a écrit :

Moi la question se pose même pas...
ma GeForce 2 Ti de mon 2e PC va être remplacée par une radeon 9700...
 
autant je trouve que NVidia nous prenais un peu pour des NVidiots avec des cartes 3D déclinés en 50 gammes Mx, Ti, 420, 440, 460, 4200, 4400, 4600... etc...
 
autant ATI est plus Clean de ce coté, ma carte va pas se dévaloriser du jour au lendemain avec des Ti 4200 hyperoverclockagles et j'aurais payé 2.5 fois plus cher pour pas beaucoups mieux en perfs...
 
et de + gestion du MPEG2 au top, sortie TV au top, dual Screen très bien... et 2D DIGNE DE CE NOM !!
 
Franchement j'attendais que ATI revienne au top en 3D pour reprendre une de leurs cartes... pas d'hésitation dès sa sortie.. économies déjà en cours pour la 9700 !
 
 
NB : je pense que le NV30 va decevoir... car en général d'une génération à l'autres ils font +30% en perfs... je suis pas sur qu'il vont rattraper ATI comme cela...
Pour l'instant NV30 = Vaporware...





Sauf que le nv30 c'est pas l'upgrade à 2frs qu'on a vu entre Geforce 3 et Geforce4. Le NV30 est une toute nouvelle architecture 100%, comparable au passage des TNT2 au Geforce DDR...Donc aucun rapport...

mood
Publicité
Posté le 20-08-2002 à 19:44:06  profilanswer
 

n°1733327
cpulloverc​lock
Chasseur de records
Posté le 20-08-2002 à 19:44:34  profilanswer
 

bon il sappelera comment ce NV30
marre de lappeler comme ca


Message édité par cpulloverclock le 20-08-2002 à 19:44:59

---------------
:)
n°1733330
Oxygen3
Tears from the moon
Posté le 20-08-2002 à 19:45:17  profilanswer
 

omen non ?
 
marc ? :ange:


Message édité par Oxygen3 le 20-08-2002 à 19:45:33

---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1733921
Profil sup​primé
Posté le 20-08-2002 à 22:44:58  answer
 

Thot a écrit a écrit :

Blablabla je soulignais la "betise" de cette phrase Blablabla




 
bah encore aurait il fallu que tu comprennes la phrase dans son contexte pour en en souligner une quelconque bêtise.
Je confirmais juste que les fonctionnalités directx9 implantées dans ces cartes ne serviront à rien avant longtemps et que le jour ou ses fonctionnalités seront utilisées il faudra disposer de CG beaucoup plus puissantes.
 
Je concluais que l'intérêt de ces cartes c'est d'apporter un reel + de perfs sur les moteurs 3D actuels.
 
C'est kler dans ton esprit maintenant?

n°1733963
Perfect Da​rk
Posté le 20-08-2002 à 22:57:56  profilanswer
 

yoyo3d a écrit a écrit :

 
 
bah encore aurait il fallu que tu comprennes la phrase dans son contexte pour en en souligner une quelconque bêtise.
Je confirmais juste que les fonctionnalités directx9 implantées dans ces cartes ne serviront à rien avant longtemps et que le jour ou ses fonctionnalités seront utilisées il faudra disposer de CG beaucoup plus puissantes.
 
Je concluais que l'intérêt de ces cartes c'est d'apporter un reel + de perfs sur les moteurs 3D actuels.
 
C'est kler dans ton esprit maintenant?




 
Toutafait d'accord, et ça me conduit à penser qu'ayant la possibilité de vendre ma GF3 150 euros, il me serait bcp plus profitable de rajouter 100 euros pour une Suma 4200 o/ 4600 que de payer 500 HT pour une carte qui ne me permettra que d'utiliser plus de FSAA et d'ani  et qui sera dépassée le jour ou les vrais jeux l'exploitant sortiront (dépasser attention, je sous-entend pas le top, et moi je le sentirais si je met un tel prix dans une cg ..). Reste que contrairement à syntax, la diff de perf entre une 3 et une 4600 est quand même imposante, surtout si Nvidia comme prévue améliore sensiblement ses perfs en ani ...


Message édité par Perfect Dark le 20-08-2002 à 22:58:30
n°1733997
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-08-2002 à 23:08:44  profilanswer
 

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...

n°1734013
Oxygen3
Tears from the moon
Posté le 20-08-2002 à 23:12:38  profilanswer
 

Marc a écrit a écrit :

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...




 
ct un peu le mm état d'esprit a la sortie des voodoo2 non ?
je trouve quand mm que les rendus actuels manquent de réel, je sais pas a quoi c'est du
mais je pense que ca risque d'etre l'étape suivante (cf le cineFX de nvidia, qui a pas un nom choisi au hasard a mon avis)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1734015
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-08-2002 à 23:14:01  profilanswer
 

Les jeux en multi texturing ont quand même mis beaucoup moins de temps à arriver ... (Q2  :love: )

n°1734017
Oxygen3
Tears from the moon
Posté le 20-08-2002 à 23:15:28  profilanswer
 

les textures 3D c pour un jour au fait ?
 
(EDIT: merde, ou j'en avais entendu parler la derniere fois  :??: )


Message édité par Oxygen3 le 20-08-2002 à 23:17:49

---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1734028
Profil sup​primé
Posté le 20-08-2002 à 23:21:09  answer
 

Oxygen3 a écrit a écrit :

 
 
ct un peu le mm état d'esprit a la sortie des voodoo2 non ?
je trouve quand mm que les rendus actuels manquent de réel, je sais pas a quoi c'est du
mais je pense que ca risque d'etre l'étape suivante (cf le cineFX de nvidia, qui a pas un nom choisi au hasard a mon avis)




 
Je suis pas d'accord concernant les voodoo2. La voodoo2 n'apportait pas grand chose que la voodoo1 en dehors de perfs + importantes. idem pour les voodoo3 voire même pour les voodoo4/5 qui reprenaient la même architecture (+ le FSAA et le motion blur).
C'est très différent de la course à l'innovation de Nvidia.

mood
Publicité
Posté le 20-08-2002 à 23:21:09  profilanswer
 

n°1734029
eowyn
Posté le 20-08-2002 à 23:21:09  profilanswer
 

Marc a écrit a écrit :

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...




 
Il y a un élément de réponse dans un des excellents articles de J.F Maquiné (alias barbarella je crois sur ce forum) sur Onversity intitulé "To be or not to be vertex shader" (http://www.onversity.com/cgi-bin/progactu/actu_aff.cgi?Eudo=bgteob&M=informat&O=touslesmots&P=last#010)
 
D'après lui, il semblerait qu'une unité supplémentaire de calcul d'éclairage et d'ombrage dans les processeurs graphiques soit une évolution logique... ;)

n°1734033
Oxygen3
Tears from the moon
Posté le 20-08-2002 à 23:22:23  profilanswer
 

yoyo3d a écrit a écrit :

 
 
Je suis pas d'accord concernant les voodoo2. La voodoo2 n'apportait pas grand chose que la voodoo1 en dehors de perfs + importantes. idem pour les voodoo3 voire même pour les voodoo4/5 qui reprenaient la même architecture (+ le FSAA et le motion blur).
C'est très différent de la course à l'innovation de Nvidia.




je parle de la voodoo2 comme justement de 'Du côté du fillrate & de la puissance goémétrique' (le max a l'époque)
et pis y'a eu des nouveautés de partout apres


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1734035
Oxygen3
Tears from the moon
Posté le 20-08-2002 à 23:23:05  profilanswer
 

eowyn a écrit a écrit :

 
 
Il y a un élément de réponse dans un des excellents articles de J.F Maquiné (alias barbarella je crois sur ce forum) sur Onversity intitulé "To be or not to be vertex shader" (http://www.onversity.com/cgi-bin/progactu/actu_aff.cgi?Eudo=bgteob&M=informat&O=touslesmots&P=last#010)
 
D'après lui, il semblerait qu'une unité supplémentaire de calcul d'éclairage et d'ombrage dans les processeurs graphiques soit une évolution logique... ;)  




et d'ailleurs sa réflexion sur le truform est assez fun


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1734042
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 20-08-2002 à 23:26:16  profilanswer
 

eowyn a écrit a écrit :

 
 
Il y a un élément de réponse dans un des excellents articles de J.F Maquiné (alias barbarella je crois sur ce forum) sur Onversity intitulé "To be or not to be vertex shader" (http://www.onversity.com/cgi-bin/progactu/actu_aff.cgi?Eudo=bgteob&M=informat&O=touslesmots&P=last#010)
 
D'après lui, il semblerait qu'une unité supplémentaire de calcul d'éclairage et d'ombrage dans les processeurs graphiques soit une évolution logique... ;)  



En fait, ce n'est pas exactement le même problème, même si celui là en est un. A mon avis celui là sera résolu très bettement par l'augmentation de puissance du processeur central et l'augmentation de la vitesse de l'AGP qui feront que le truform et le displacement mapping n'auront plus d'avantages réels. C'est un peu bourrin, mais bon, c'est comme d'habitude :D

n°1734048
Oxygen3
Tears from the moon
Posté le 20-08-2002 à 23:27:41  profilanswer
 

d'un autre coté, faut ptet bien qu'a un moment ou un autre ca ralentisse ;)
c ptet pas pour tout de suite, mais bon


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1734331
Thot
Posté le 21-08-2002 à 01:05:09  profilanswer
 

yoyo3d a écrit a écrit :

 
C'est kler dans ton esprit maintenant?




 
Boah, j'avais bien compris ! Je citais juste un p'tit bout de phrase qui tout seul voulait rien dire...  
 
Pour revenir au sujet des différentes versions de Directx. Les developpeurs vont pas s'amuser a developper des jeux pour 1% des joueurs. Donc on est obligé d'attendre les versions bas de gamme des modèles haut-de-gamme.
 
Si Nvidia avait sorti une GF4 Mx supportant Dx8 par exemple, les choses bougeraient beaucoup plus vite.
 
Mais les choses peuvent changer prochainement quand la seule différence entre chaque génération de carte 3D sera juste au niveau des performances. Etant la programmabilité de plus en plus poussée des Gpu. Les vieux modeles feront la meme chose que les nouveaux mais en plus lent.
 
Et ceci pourra peut etre commencer avec Directx 9 ...
 

n°1734588
partymaker
Posté le 21-08-2002 à 05:44:35  profilanswer
 

Marc a écrit a écrit :

Pas d'accord, un Duron 950 c'est 15 à 30% au dessus d'un Celeron 900 selon les moteurs de jeu.
 
Tu dis autant tester avant : c'est bien ce que je dis, mais moi je dis de tester avant d'acheter la 4200, vu que c'est possible de savoir d'ou vient le fait que sa rame sans rien acheter.




 
Bien d'accord!!! Teste ta CG avant ;)


---------------
"La douleur fait penser l'homme, la pensée rend l'homme sage, la sagesse rend la vie acceptable..."  
n°1734594
partymaker
Posté le 21-08-2002 à 05:51:27  profilanswer
 

Marc a écrit a écrit :

Oui mais bon, un Celeron 900 .. enfin bon chacun ses besoins :D




 
et après??? J'ai encore un Celeron 500 (Qui a l'époque étais bien classé dans les produits Intel par Kant et les autres bozos de PC-Fun) + GEforce2 MX400  [:xp1700]  
 
The Famous Intel Power  [:xp1700]  
 
 
 
 
 
 
 
 
 
 
Mais bon, j'avoue que j'économise énormément pour une TUSL2 et un p'tit Celeron 1.2A que j'vais overclocker :D  
(Quel modèle de TUSL2 sije veux pas de Son, de vidéo, de réseau, de 56k, etc en option???)


---------------
"La douleur fait penser l'homme, la pensée rend l'homme sage, la sagesse rend la vie acceptable..."  
n°1734606
partymaker
Posté le 21-08-2002 à 06:13:18  profilanswer
 

Marc a écrit a écrit :

Bien entendu dans certains jeux en 1024*768 32 bits à l'époque on était limité par le CPU (UT, Giant, Dethkarz) ... donc c'est sur que les personnes se contentant de ce genre de test trouvaient que les GF2 Ultra et les GF3 étaient au même niveau.
 
Mais bon ce sont les mêmes genre de personnes qui s'amusent à comparer GF4 et R9700 sous Comanche 4 et JK2 sans FSAA & Aniso ;)




 

Marc a écrit un jour..... a écrit :

Shocking ! En 1024*768 32 bits, le GeForce3 offre des performances inférieures à celles d´un GeForce2 Ultra. Difficile de trouver une explication, d´autant que les drivers sont les mêmes.



 
 :heink:  :heink:  :heink:  :heink:  :heink: Contradiction....


---------------
"La douleur fait penser l'homme, la pensée rend l'homme sage, la sagesse rend la vie acceptable..."  
n°1734614
partymaker
Posté le 21-08-2002 à 06:27:44  profilanswer
 

Anti Geek a écrit a écrit :

Je trouve pas que Morrowind rame.
 
Il est seulement mal programmé, c'est pas normal qu'il faille une grosse config pour le faire tourner juste correctement.




 
Ohhh arrète ton char hein??? Le dernier qui as dis qu'un jeu étais mal programmé, c'étais a propos de GTA3 qui semble t'il ramais sur un XP2000+ + 512MB DDR + TI4200 :sarcastic: Mon cul oui...   Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  
 
A mon avis, c surtout du a un manque flagrant d'optimisation de Winmarde XP... Moi et mes potes, on utilise seulement Win 98SE et Win 2000PRO et no problemo [:xp1700]  


---------------
"La douleur fait penser l'homme, la pensée rend l'homme sage, la sagesse rend la vie acceptable..."  
n°1734704
impulse
Posté le 21-08-2002 à 09:00:21  profilanswer
 

Et c'est pour quand les CG Nvidia avec une 2D digne de ce nom ? Je pensais que c'etait mieux avec les GF4. Ben non : mon ATI fry pro fait mieux (beaucoup mieux) que ma GF4 ti4200 :(
On peut pas avoir 2D + 3D nickel ... a un bon prix ? (pas pour moi les cartes a 500 Euros :D)

n°1734843
bichoco
Posté le 21-08-2002 à 10:31:45  profilanswer
 

partymaker a écrit a écrit :

 
 
Ohhh arrète ton char hein??? Le dernier qui as dis qu'un jeu étais mal programmé, c'étais a propos de GTA3 qui semble t'il ramais sur un XP2000+ + 512MB DDR + TI4200 :sarcastic: Mon cul oui...   Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  
 
A mon avis, c surtout du a un manque flagrant d'optimisation de Winmarde XP... Moi et mes potes, on utilise seulement Win 98SE et Win 2000PRO et no problemo [:xp1700]  




 
ben perso avec un tbird 1ghz et geforce 2mx, gta3 il rame meme en 640*480 c'est pas fluide avec les détails moyens, si je pousse plus les options c'est limite une séance diapo...et je suis pas le seul dans ce cas ( sous 2k je précises)

n°1734873
Oxygen3
Tears from the moon
Posté le 21-08-2002 à 10:42:39  profilanswer
 

partymaker a écrit a écrit :

 
Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  




 
et la marmotte


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1735102
DigiNico
Noob un jour, noob toujours !
Posté le 21-08-2002 à 11:34:30  profilanswer
 

impulse a écrit a écrit :

Et c'est pour quand les CG Nvidia avec une 2D digne de ce nom ? Je pensais que c'etait mieux avec les GF4. Ben non : mon ATI fry pro fait mieux (beaucoup mieux) que ma GF4 ti4200 :(
On peut pas avoir 2D + 3D nickel ... a un bon prix ? (pas pour moi les cartes a 500 Euros :D)


+1  :jap:


Message édité par DigiNico le 21-08-2002 à 11:35:06

---------------
DigiNico./.
n°1735110
mrbebert
Posté le 21-08-2002 à 11:37:39  profilanswer
 

impulse a écrit a écrit :

Et c'est pour quand les CG Nvidia avec une 2D digne de ce nom ? Je pensais que c'etait mieux avec les GF4. Ben non : mon ATI fry pro fait mieux (beaucoup mieux) que ma GF4 ti4200 :(
On peut pas avoir 2D + 3D nickel ... a un bon prix ? (pas pour moi les cartes a 500 Euros :D)



Radeon 8500 :D

n°1735132
]sTa[$hark
Posté le 21-08-2002 à 11:47:22  profilanswer
 

partymaker a écrit a écrit :

 
 
Ohhh arrète ton char hein??? Le dernier qui as dis qu'un jeu étais mal programmé, c'étais a propos de GTA3 qui semble t'il ramais sur un XP2000+ + 512MB DDR + TI4200 :sarcastic: Mon cul oui...   Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  
 
A mon avis, c surtout du a un manque flagrant d'optimisation de Winmarde XP... Moi et mes potes, on utilise seulement Win 98SE et Win 2000PRO et no problemo [:xp1700]  




 
Yeps c'est joli le 640*480 n'est-ce pas !!!  
 
faut pas prendre les gens pour des cons Partymaker :lol:


---------------
<***/\/\  AMD64 3200+ @ 2200 Mhz   /\/\*** >
n°1735147
Jovial
It's clobberin' time
Posté le 21-08-2002 à 11:52:19  profilanswer
 

Spoofle a écrit a écrit :

Tout d'abord laissons de côté le prix car la Ti4600 ainsi que la radeon 9700 et le futur NV30 sont des cartes haut de gamme .




 
Une carte de cette puissance sans connecteur AGP Pro n'est pas aussi haut de gamme que cela.
Mauvais choix d'ATI que de passer par ce stupide connecteur d'alim externe :non:
Je ne concois la haute resolution qu'avec un AGP Pro, pas un AGP suralimente de cette facon

n°1735203
Thot
Posté le 21-08-2002 à 12:06:37  profilanswer
 

La radeon 9700 n'est elle pas deja AGP pro ? J'ai cru comprendre que meme ca ca suffisait pas à l 'alimenter.Et puis le conecteur externe elimine tous les problemes d'incompatibilité avec les cartes-meres laxistes sur les specifications AGP ( Souvenez vous des geforce )

n°1735205
Oxygen3
Tears from the moon
Posté le 21-08-2002 à 12:06:49  profilanswer
 

jovial a écrit a écrit :

 
 
Une carte de cette puissance sans connecteur AGP Pro n'est pas aussi haut de gamme que cela.
Mauvais choix d'ATI que de passer par ce stupide connecteur d'alim externe :non:
Je ne concois la haute resolution qu'avec un AGP Pro, pas un AGP suralimente de cette facon  




 
FGL X1  :love:


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°1735222
magnum gts
Posté le 21-08-2002 à 12:10:42  profilanswer
 

Marc a écrit a écrit :

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...




Daccord avec toi dans l'ensemble, faut mieux [:yamusha]

n°1735224
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 21-08-2002 à 12:10:44  profilanswer
 

jovial a écrit a écrit :

 
 
Une carte de cette puissance sans connecteur AGP Pro n'est pas aussi haut de gamme que cela.
Mauvais choix d'ATI que de passer par ce stupide connecteur d'alim externe :non:
Je ne concois la haute resolution qu'avec un AGP Pro, pas un AGP suralimente de cette facon  



N'importe quoi.
Je te signal que le fait de préférer cette solution à l'AGP Pro permet que cette carte soit compatible avec toutes les cartes mères, car en dehors de certains constructeurs comme asus (et encore pas sur tous les modèles) ca ne court pas les rues.

n°1735267
Thot
Posté le 21-08-2002 à 12:24:40  profilanswer
 

Hum, j' ai du parler sans savoir moi, c 'est quoi l' AGP PRO ?!?

n°1735368
mrbebert
Posté le 21-08-2002 à 12:56:37  profilanswer
 

Thot a écrit a écrit :

Hum, j' ai du parler sans savoir moi, c 'est quoi l' AGP PRO ?!?



Tout ce que je sais, c'est qu'il y a des broches en plus (alimentation ??). Donc les cartes sont incompatibles avec les slots AGP de nos cartes mères.
(inversement, un connecteur AGP pro peut accepter les cartes AGP standards)

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5
Page Suivante

Aller à :
Ajouter une réponse
 

Sujets relatifs
[ curiosité ] Une GF4 ti4600 bien ventilée de série.super grave problème (radeon 9700) (on est pas vendredi, mais bon)
radeon 8500conseil pour achat d'une ti 4600
configuration ati radeon avec asus A7V333Questions sur la future Ati radeon 9700 pro.
Radeon 9700 : yaura des BBA en France ou pas :??: 
Plus de sujets relatifs à : Radeon 9700 vs GF4 Ti 4600, Faut il se jeter sur le Radeon ?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)