Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3079 connectés 

 


Dernière réponse
Sujet : Radeon 9700 vs GF4 Ti 4600, Faut il se jeter sur le Radeon ?
mrbebert

Thot a écrit a écrit :

Hum, j' ai du parler sans savoir moi, c 'est quoi l' AGP PRO ?!?



Tout ce que je sais, c'est qu'il y a des broches en plus (alimentation ??). Donc les cartes sont incompatibles avec les slots AGP de nos cartes mères.
(inversement, un connecteur AGP pro peut accepter les cartes AGP standards)


Votre réponse
Nom d'utilisateur    Pour poster, vous devez être inscrit sur ce forum .... si ce n'est pas le cas, cliquez ici !
Le ton de votre message                        
                       
Votre réponse


[b][i][u][strike][spoiler][fixed][cpp][url][email][img][*]   
 
   [quote]
 

Options

 
Vous avez perdu votre mot de passe ?


Vue Rapide de la discussion
mrbebert

Thot a écrit a écrit :

Hum, j' ai du parler sans savoir moi, c 'est quoi l' AGP PRO ?!?



Tout ce que je sais, c'est qu'il y a des broches en plus (alimentation ??). Donc les cartes sont incompatibles avec les slots AGP de nos cartes mères.
(inversement, un connecteur AGP pro peut accepter les cartes AGP standards)

Thot Hum, j' ai du parler sans savoir moi, c 'est quoi l' AGP PRO ?!?
Marc

jovial a écrit a écrit :

 
 
Une carte de cette puissance sans connecteur AGP Pro n'est pas aussi haut de gamme que cela.
Mauvais choix d'ATI que de passer par ce stupide connecteur d'alim externe :non:
Je ne concois la haute resolution qu'avec un AGP Pro, pas un AGP suralimente de cette facon  



N'importe quoi.
Je te signal que le fait de préférer cette solution à l'AGP Pro permet que cette carte soit compatible avec toutes les cartes mères, car en dehors de certains constructeurs comme asus (et encore pas sur tous les modèles) ca ne court pas les rues.

magnum gts

Marc a écrit a écrit :

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...




Daccord avec toi dans l'ensemble, faut mieux [:yamusha]

Oxygen3

jovial a écrit a écrit :

 
 
Une carte de cette puissance sans connecteur AGP Pro n'est pas aussi haut de gamme que cela.
Mauvais choix d'ATI que de passer par ce stupide connecteur d'alim externe :non:
Je ne concois la haute resolution qu'avec un AGP Pro, pas un AGP suralimente de cette facon  




 
FGL X1  :love:

Thot La radeon 9700 n'est elle pas deja AGP pro ? J'ai cru comprendre que meme ca ca suffisait pas à l 'alimenter.Et puis le conecteur externe elimine tous les problemes d'incompatibilité avec les cartes-meres laxistes sur les specifications AGP ( Souvenez vous des geforce )
Jovial

Spoofle a écrit a écrit :

Tout d'abord laissons de côté le prix car la Ti4600 ainsi que la radeon 9700 et le futur NV30 sont des cartes haut de gamme .




 
Une carte de cette puissance sans connecteur AGP Pro n'est pas aussi haut de gamme que cela.
Mauvais choix d'ATI que de passer par ce stupide connecteur d'alim externe :non:
Je ne concois la haute resolution qu'avec un AGP Pro, pas un AGP suralimente de cette facon

]sTa[$hark

partymaker a écrit a écrit :

 
 
Ohhh arrète ton char hein??? Le dernier qui as dis qu'un jeu étais mal programmé, c'étais a propos de GTA3 qui semble t'il ramais sur un XP2000+ + 512MB DDR + TI4200 :sarcastic: Mon cul oui...   Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  
 
A mon avis, c surtout du a un manque flagrant d'optimisation de Winmarde XP... Moi et mes potes, on utilise seulement Win 98SE et Win 2000PRO et no problemo [:xp1700]  




 
Yeps c'est joli le 640*480 n'est-ce pas !!!  
 
faut pas prendre les gens pour des cons Partymaker :lol:

mrbebert

impulse a écrit a écrit :

Et c'est pour quand les CG Nvidia avec une 2D digne de ce nom ? Je pensais que c'etait mieux avec les GF4. Ben non : mon ATI fry pro fait mieux (beaucoup mieux) que ma GF4 ti4200 :(
On peut pas avoir 2D + 3D nickel ... a un bon prix ? (pas pour moi les cartes a 500 Euros :D)



Radeon 8500 :D

DigiNico

impulse a écrit a écrit :

Et c'est pour quand les CG Nvidia avec une 2D digne de ce nom ? Je pensais que c'etait mieux avec les GF4. Ben non : mon ATI fry pro fait mieux (beaucoup mieux) que ma GF4 ti4200 :(
On peut pas avoir 2D + 3D nickel ... a un bon prix ? (pas pour moi les cartes a 500 Euros :D)


+1  :jap:

Oxygen3

partymaker a écrit a écrit :

 
Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  




 
et la marmotte

bichoco

partymaker a écrit a écrit :

 
 
Ohhh arrète ton char hein??? Le dernier qui as dis qu'un jeu étais mal programmé, c'étais a propos de GTA3 qui semble t'il ramais sur un XP2000+ + 512MB DDR + TI4200 :sarcastic: Mon cul oui...   Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  
 
A mon avis, c surtout du a un manque flagrant d'optimisation de Winmarde XP... Moi et mes potes, on utilise seulement Win 98SE et Win 2000PRO et no problemo [:xp1700]  




 
ben perso avec un tbird 1ghz et geforce 2mx, gta3 il rame meme en 640*480 c'est pas fluide avec les détails moyens, si je pousse plus les options c'est limite une séance diapo...et je suis pas le seul dans ce cas ( sous 2k je précises)

impulse Et c'est pour quand les CG Nvidia avec une 2D digne de ce nom ? Je pensais que c'etait mieux avec les GF4. Ben non : mon ATI fry pro fait mieux (beaucoup mieux) que ma GF4 ti4200 :(
On peut pas avoir 2D + 3D nickel ... a un bon prix ? (pas pour moi les cartes a 500 Euros :D)
partymaker

Anti Geek a écrit a écrit :

Je trouve pas que Morrowind rame.
 
Il est seulement mal programmé, c'est pas normal qu'il faille une grosse config pour le faire tourner juste correctement.




 
Ohhh arrète ton char hein??? Le dernier qui as dis qu'un jeu étais mal programmé, c'étais a propos de GTA3 qui semble t'il ramais sur un XP2000+ + 512MB DDR + TI4200 :sarcastic: Mon cul oui...   Mes amis jouent a ce jeu avec des PIII 733MHZ + GEforce2 MX 32MB PCI (810E) + 192MB de SDR et aucun lags avec les détails grafik au max :heink:  :heink:  :heink:  
 
A mon avis, c surtout du a un manque flagrant d'optimisation de Winmarde XP... Moi et mes potes, on utilise seulement Win 98SE et Win 2000PRO et no problemo [:xp1700]  

partymaker

Marc a écrit a écrit :

Bien entendu dans certains jeux en 1024*768 32 bits à l'époque on était limité par le CPU (UT, Giant, Dethkarz) ... donc c'est sur que les personnes se contentant de ce genre de test trouvaient que les GF2 Ultra et les GF3 étaient au même niveau.
 
Mais bon ce sont les mêmes genre de personnes qui s'amusent à comparer GF4 et R9700 sous Comanche 4 et JK2 sans FSAA & Aniso ;)




 

Marc a écrit un jour..... a écrit :

Shocking ! En 1024*768 32 bits, le GeForce3 offre des performances inférieures à celles d´un GeForce2 Ultra. Difficile de trouver une explication, d´autant que les drivers sont les mêmes.



 
 :heink:  :heink:  :heink:  :heink:  :heink: Contradiction....

partymaker

Marc a écrit a écrit :

Oui mais bon, un Celeron 900 .. enfin bon chacun ses besoins :D




 
et après??? J'ai encore un Celeron 500 (Qui a l'époque étais bien classé dans les produits Intel par Kant et les autres bozos de PC-Fun) + GEforce2 MX400  [:xp1700]  
 
The Famous Intel Power  [:xp1700]  
 
 
 
 
 
 
 
 
 
 
Mais bon, j'avoue que j'économise énormément pour une TUSL2 et un p'tit Celeron 1.2A que j'vais overclocker :D  
(Quel modèle de TUSL2 sije veux pas de Son, de vidéo, de réseau, de 56k, etc en option???)

partymaker

Marc a écrit a écrit :

Pas d'accord, un Duron 950 c'est 15 à 30% au dessus d'un Celeron 900 selon les moteurs de jeu.
 
Tu dis autant tester avant : c'est bien ce que je dis, mais moi je dis de tester avant d'acheter la 4200, vu que c'est possible de savoir d'ou vient le fait que sa rame sans rien acheter.




 
Bien d'accord!!! Teste ta CG avant ;)

Thot

yoyo3d a écrit a écrit :

 
C'est kler dans ton esprit maintenant?




 
Boah, j'avais bien compris ! Je citais juste un p'tit bout de phrase qui tout seul voulait rien dire...  
 
Pour revenir au sujet des différentes versions de Directx. Les developpeurs vont pas s'amuser a developper des jeux pour 1% des joueurs. Donc on est obligé d'attendre les versions bas de gamme des modèles haut-de-gamme.
 
Si Nvidia avait sorti une GF4 Mx supportant Dx8 par exemple, les choses bougeraient beaucoup plus vite.
 
Mais les choses peuvent changer prochainement quand la seule différence entre chaque génération de carte 3D sera juste au niveau des performances. Etant la programmabilité de plus en plus poussée des Gpu. Les vieux modeles feront la meme chose que les nouveaux mais en plus lent.
 
Et ceci pourra peut etre commencer avec Directx 9 ...
 

Oxygen3 d'un autre coté, faut ptet bien qu'a un moment ou un autre ca ralentisse ;)
c ptet pas pour tout de suite, mais bon
Marc

eowyn a écrit a écrit :

 
 
Il y a un élément de réponse dans un des excellents articles de J.F Maquiné (alias barbarella je crois sur ce forum) sur Onversity intitulé "To be or not to be vertex shader" (http://www.onversity.com/cgi-bin/progactu/actu_aff.cgi?Eudo=bgteob&M=informat&O=touslesmots&P=last#010)
 
D'après lui, il semblerait qu'une unité supplémentaire de calcul d'éclairage et d'ombrage dans les processeurs graphiques soit une évolution logique... ;)  



En fait, ce n'est pas exactement le même problème, même si celui là en est un. A mon avis celui là sera résolu très bettement par l'augmentation de puissance du processeur central et l'augmentation de la vitesse de l'AGP qui feront que le truform et le displacement mapping n'auront plus d'avantages réels. C'est un peu bourrin, mais bon, c'est comme d'habitude :D

Oxygen3

eowyn a écrit a écrit :

 
 
Il y a un élément de réponse dans un des excellents articles de J.F Maquiné (alias barbarella je crois sur ce forum) sur Onversity intitulé "To be or not to be vertex shader" (http://www.onversity.com/cgi-bin/progactu/actu_aff.cgi?Eudo=bgteob&M=informat&O=touslesmots&P=last#010)
 
D'après lui, il semblerait qu'une unité supplémentaire de calcul d'éclairage et d'ombrage dans les processeurs graphiques soit une évolution logique... ;)  




et d'ailleurs sa réflexion sur le truform est assez fun

Oxygen3

yoyo3d a écrit a écrit :

 
 
Je suis pas d'accord concernant les voodoo2. La voodoo2 n'apportait pas grand chose que la voodoo1 en dehors de perfs + importantes. idem pour les voodoo3 voire même pour les voodoo4/5 qui reprenaient la même architecture (+ le FSAA et le motion blur).
C'est très différent de la course à l'innovation de Nvidia.




je parle de la voodoo2 comme justement de 'Du côté du fillrate & de la puissance goémétrique' (le max a l'époque)
et pis y'a eu des nouveautés de partout apres

eowyn

Marc a écrit a écrit :

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...




 
Il y a un élément de réponse dans un des excellents articles de J.F Maquiné (alias barbarella je crois sur ce forum) sur Onversity intitulé "To be or not to be vertex shader" (http://www.onversity.com/cgi-bin/progactu/actu_aff.cgi?Eudo=bgteob&M=informat&O=touslesmots&P=last#010)
 
D'après lui, il semblerait qu'une unité supplémentaire de calcul d'éclairage et d'ombrage dans les processeurs graphiques soit une évolution logique... ;)

Oxygen3 a écrit a écrit :

 
 
ct un peu le mm état d'esprit a la sortie des voodoo2 non ?
je trouve quand mm que les rendus actuels manquent de réel, je sais pas a quoi c'est du
mais je pense que ca risque d'etre l'étape suivante (cf le cineFX de nvidia, qui a pas un nom choisi au hasard a mon avis)




 
Je suis pas d'accord concernant les voodoo2. La voodoo2 n'apportait pas grand chose que la voodoo1 en dehors de perfs + importantes. idem pour les voodoo3 voire même pour les voodoo4/5 qui reprenaient la même architecture (+ le FSAA et le motion blur).
C'est très différent de la course à l'innovation de Nvidia.

Oxygen3 les textures 3D c pour un jour au fait ?
 
(EDIT: merde, ou j'en avais entendu parler la derniere fois  :??: )
Marc Les jeux en multi texturing ont quand même mis beaucoup moins de temps à arriver ... (Q2  :love: )
Oxygen3

Marc a écrit a écrit :

J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...




 
ct un peu le mm état d'esprit a la sortie des voodoo2 non ?
je trouve quand mm que les rendus actuels manquent de réel, je sais pas a quoi c'est du
mais je pense que ca risque d'etre l'étape suivante (cf le cineFX de nvidia, qui a pas un nom choisi au hasard a mon avis)

Marc J'ai totalement le même avis que yoyo3d, même si j'ose encore esperer que des kits de dev tel que le cg permetteront d'acceler l'adoption de shader, je dois avouer que depuis le GeForce, les promesses des soit disant nouvelles fonctions revolutionnaires de chaque DX, ben elles me laissent sur ma faim.
 
D'ailleurs, il va falloir que les developpeur bougent un peu ... ok la Radeon 9700 apportent le FSAA & l'Aniso ... il en sera de même pour le NV30, et encore mieux pour les R350/NV35.
 
Mais après ? Du côté du fillrate & de la puissance goémétrique telle qu'elle est requise par les jeux 'anciens', on aura tout ce qu'il nous faut avec ces cartes pour jouer en haute résolution avec AA et Aniso ...  
 
Que pourront nous proposer les prochaines générations ? Surement une puissance de calcul a proprement parlé plus importante, via les shaders, car le fillrate 'standard' aura perdu de son interêt.
 
Mais si les applications n'en tirent pas parti à fond, il n'y a pas d'interet ...
Perfect Dark

yoyo3d a écrit a écrit :

 
 
bah encore aurait il fallu que tu comprennes la phrase dans son contexte pour en en souligner une quelconque bêtise.
Je confirmais juste que les fonctionnalités directx9 implantées dans ces cartes ne serviront à rien avant longtemps et que le jour ou ses fonctionnalités seront utilisées il faudra disposer de CG beaucoup plus puissantes.
 
Je concluais que l'intérêt de ces cartes c'est d'apporter un reel + de perfs sur les moteurs 3D actuels.
 
C'est kler dans ton esprit maintenant?




 
Toutafait d'accord, et ça me conduit à penser qu'ayant la possibilité de vendre ma GF3 150 euros, il me serait bcp plus profitable de rajouter 100 euros pour une Suma 4200 o/ 4600 que de payer 500 HT pour une carte qui ne me permettra que d'utiliser plus de FSAA et d'ani  et qui sera dépassée le jour ou les vrais jeux l'exploitant sortiront (dépasser attention, je sous-entend pas le top, et moi je le sentirais si je met un tel prix dans une cg ..). Reste que contrairement à syntax, la diff de perf entre une 3 et une 4600 est quand même imposante, surtout si Nvidia comme prévue améliore sensiblement ses perfs en ani ...

Thot a écrit a écrit :

Blablabla je soulignais la "betise" de cette phrase Blablabla




 
bah encore aurait il fallu que tu comprennes la phrase dans son contexte pour en en souligner une quelconque bêtise.
Je confirmais juste que les fonctionnalités directx9 implantées dans ces cartes ne serviront à rien avant longtemps et que le jour ou ses fonctionnalités seront utilisées il faudra disposer de CG beaucoup plus puissantes.
 
Je concluais que l'intérêt de ces cartes c'est d'apporter un reel + de perfs sur les moteurs 3D actuels.
 
C'est kler dans ton esprit maintenant?

Oxygen3 omen non ?
 
marc ? :ange:
cpulloverclock bon il sappelera comment ce NV30
marre de lappeler comme ca
syntaxx_error

bonk1 a écrit a écrit :

Moi la question se pose même pas...
ma GeForce 2 Ti de mon 2e PC va être remplacée par une radeon 9700...
 
autant je trouve que NVidia nous prenais un peu pour des NVidiots avec des cartes 3D déclinés en 50 gammes Mx, Ti, 420, 440, 460, 4200, 4400, 4600... etc...
 
autant ATI est plus Clean de ce coté, ma carte va pas se dévaloriser du jour au lendemain avec des Ti 4200 hyperoverclockagles et j'aurais payé 2.5 fois plus cher pour pas beaucoups mieux en perfs...
 
et de + gestion du MPEG2 au top, sortie TV au top, dual Screen très bien... et 2D DIGNE DE CE NOM !!
 
Franchement j'attendais que ATI revienne au top en 3D pour reprendre une de leurs cartes... pas d'hésitation dès sa sortie.. économies déjà en cours pour la 9700 !
 
 
NB : je pense que le NV30 va decevoir... car en général d'une génération à l'autres ils font +30% en perfs... je suis pas sur qu'il vont rattraper ATI comme cela...
Pour l'instant NV30 = Vaporware...





Sauf que le nv30 c'est pas l'upgrade à 2frs qu'on a vu entre Geforce 3 et Geforce4. Le NV30 est une toute nouvelle architecture 100%, comparable au passage des TNT2 au Geforce DDR...Donc aucun rapport...


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)