Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4131 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  792  793  794  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°5141354
praktish3
Posté le 02-11-2006 à 09:18:50  profilanswer
 

Reprise du message précédent :
et pour répondre à ta derniere question "Selon les gains apportés, le "cpu limited" ne devrait-il pas disparaître durant une période lorsque les multicore seront mieux implantés ?"
 
je dirais qu'avec les tous derniers c2d, les plus puissants, meme couplé à 7950 GX2, le cpu limited n'existe plus. Cependant avec l'arrivée du G80 là je peux plus rien dire, faut attendre des tests...

mood
Publicité
Posté le 02-11-2006 à 09:18:50  profilanswer
 

n°5141398
MEI
|DarthPingoo(tm)|
Posté le 02-11-2006 à 10:03:39  profilanswer
 

praktish3 a écrit :

ben prso je pense que tout cela dépendra du boulot des developpeurs. A savoir, si ils vont s'appliquer à nous créér des moteurs exploitant dans une "large" mesure le dual core (cf. Qu4) ou non. Mais tout porte à croire que oui. Aujourd'hui y'a deja des tout "petits" gains sur la plupart des nouveaux jeux, (qu4 est une exception faut avouer) mais y'a aucune raison pour que les developpeurs ne suivent pas cette directiopn, à savoir : "l'optimisation des moteurs pour les cpu dual core", pour la simple raison que tout le monde est en train "progressivement" de passer au dual core.


Le DOOM3 Engine c'est différent, car deja le Quake3 Engine etait capable du faire du multithreading, okay pas terrible mais il y avait deja un premier pas, y'a plus de 5 ans :D


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5141404
MEI
|DarthPingoo(tm)|
Posté le 02-11-2006 à 10:07:30  profilanswer
 

praktish3 a écrit :

et pour répondre à ta derniere question "Selon les gains apportés, le "cpu limited" ne devrait-il pas disparaître durant une période lorsque les multicore seront mieux implantés ?"
 
je dirais qu'avec les tous derniers c2d, les plus puissants, meme couplé à 7950 GX2, le cpu limited n'existe plus. Cependant avec l'arrivée du G80 là je peux plus rien dire, faut attendre des tests...


Le CPU limited est toujours a associé a une configuration graphique donnée, donc hormis le cas ou le jeu fait tout ramer (disons Alan Wake en monocore) y'aura tjrs un moment où le CPU ne limite plus trop.
 
Un G80 sur un 30" Dell ne risque pas d'etre trop CPU Limited je pense ;)


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5141535
mareek
Et de 3 \o/
Posté le 02-11-2006 à 11:10:47  profilanswer
 

aliss a écrit :

Selon les gains apportés, le "cpu limited" ne devrait-il pas disparaître durant une période lorsque les multicore seront mieux implantés ?


Si les jeux CPU limited disparaissent, c'est que tous les devs seront devenus idiots au point de ne plus utilisers les ressources qu'ils ont à disposition. Certains genres de jeux seront toujours Limité par la puissance du CPU (au moins à leur sortie), quelque soit la puissance atteinte par les cartes graphiques.
 

praktish3 a écrit :

et pour répondre à ta derniere question "Selon les gains apportés, le "cpu limited" ne devrait-il pas disparaître durant une période lorsque les multicore seront mieux implantés ?"
 
 je dirais qu'avec les tous derniers c2d, les plus puissants, meme couplé à 7950 GX2, le cpu limited n'existe plus. Cependant avec l'arrivée du G80 là je peux plus rien dire, faut attendre des tests...


Je crois que tu devrais lire le dernier article de Marc [:petrus75]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°5141800
praktish3
Posté le 02-11-2006 à 12:49:01  profilanswer
 

mareek a écrit :


Je crois que tu devrais lire le dernier article de Marc [:petrus75]


 
De Marc VEYRAT ? :ouch:  :ouch:  :ouch:  
 
http://www.marcveyrat.fr/  :cry:  
 
 
 
 :sarcastic:

n°5141818
bgx
reviens brunette!
Posté le 02-11-2006 à 12:54:59  profilanswer
 

Marc a écrit :

J'ai voulu utiliser oblivion pour les tests CPU, rien d'interressant n'en est découlé car au délà d'un certain niveau de perf (+/- Core 2 à 2 GHz) on semble limiter par les vertex shader sur une carte type X1950 Pro (et c'est indépendant de la résolution, ca ...)


 
ca veut dire y'a bon pour une archi unifié ca :)


---------------
PS: reviens brunette
n°5141917
worm'skill​er
Le roi de la petit côte
Posté le 02-11-2006 à 13:40:29  profilanswer
 

ben toutes les cartes ont 8 VS, je ne vois pas ce que ca va changer puisque en ce moment le marqueting se concentre sur les PS et leurs unités de texturing. :??:


---------------
"le prix passe, la qualité reste"
n°5141946
MEI
|DarthPingoo(tm)|
Posté le 02-11-2006 à 13:52:12  profilanswer
 

En parlant de ça, en archi unifié, faut etre capable de convertir une instruction PS et une instruction VS en son équivalent "unifié" non ?
Donc y'aurai pas un pendant au decodeur des CPU qui va etre introduit ?
 
Et donc n'y aurait-il pas un risque que ce decodeur puisse limiter la puissance brute dans un cas ou on ferai quasi-QUE du VS ou quasi-QUE du PS ?
 
Enfin je dit ça comme ça...


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5142090
Zeross
Posté le 02-11-2006 à 14:47:47  profilanswer
 

MEI a écrit :

En parlant de ça, en archi unifié, faut etre capable de convertir une instruction PS et une instruction VS en son équivalent "unifié" non ?
Donc y'aurai pas un pendant au decodeur des CPU qui va etre introduit ?
 
Et donc n'y aurait-il pas un risque que ce decodeur puisse limiter la puissance brute dans un cas ou on ferai quasi-QUE du VS ou quasi-QUE du PS ?
 
Enfin je dit ça comme ça...


 
Je comprends pas vraiment ton problème ? Il n'y a pas de conversion : par exemple un MAD c'est un MAD qu'il soit dans un VS, dans un PS ou dans un GS. Au final ce qui peut limiter les perfs c'est l'efficacité du Thread Arbitrer qui définit les priorités des threads en fonction de la charge.

n°5142162
bjone
Insert booze to continue
Posté le 02-11-2006 à 15:18:01  profilanswer
 

praktish3 a écrit :

et pour répondre à ta derniere question "Selon les gains apportés, le "cpu limited" ne devrait-il pas disparaître durant une période lorsque les multicore seront mieux implantés ?"


 
le débat n'est pas là.
 
déjà le test de TT-Hardware n'est pas valable puisque ce ne sont que des FPS (qu'ils testent DOW par exemple).
 
l'ordre de magnitude de dépendance CPU est la même pour toutes les cartes 3D: elle est essentiellement dépendante de l'architecture de l'API.
 
ce qui change c'est le moteur, comment il utilise l'API, qu'est-ce qu'il traite etc...
 
c'est un non-débat l'aspect "est-ce que telle carte est intrinsèquement CPU limited", bien on peut toujours indiquer un couplage CPU/GPU idéal pour un jeu donné, mais impossible d'en tirer une règle générale.
 
enfin je me comprends  :whistle:

mood
Publicité
Posté le 02-11-2006 à 15:18:01  profilanswer
 

n°5142169
bjone
Insert booze to continue
Posté le 02-11-2006 à 15:20:11  profilanswer
 

mareek a écrit :

Si les jeux CPU limited disparaissent, c'est que tous les devs seront devenus idiots au point de ne plus utilisers les ressources qu'ils ont à disposition. Certains genres de jeux seront toujours Limité par la puissance du CPU (au moins à leur sortie), quelque soit la puissance atteinte par les cartes graphiques.


 
e-x-a-c-t-e-m-e-n-t
 
y'a un budget GPU et CPU, il faut tirer le mieux parti de l'un comme l'autre. (et essayer d'utiliser le GPU le plus efficacement possible pour tirer du budget CPU)
 

n°5142190
bjone
Insert booze to continue
Posté le 02-11-2006 à 15:29:51  profilanswer
 

MEI a écrit :

En parlant de ça, en archi unifié, faut etre capable de convertir une instruction PS et une instruction VS en son équivalent "unifié" non ?
Donc y'aurai pas un pendant au decodeur des CPU qui va etre introduit ?
 
Et donc n'y aurait-il pas un risque que ce decodeur puisse limiter la puissance brute dans un cas ou on ferai quasi-QUE du VS ou quasi-QUE du PS ?
 
Enfin je dit ça comme ça...


 
par extension de ce que dit Zeross, les x86 modernes a moteur OOO ont moultes choses pour convertir le jeu d'instruction à la volée (ou pas dans le cas du Trace Cache du P4) vers les µops du coeur RISC.
 
dans le cas d'un GPU y'a pas de jeu d'instruction historique. si l'architecture GPU (et non juste API) est matériellement unifiée, l'opcode d'une instruction sera la même pour un VS que pour un PS. si le GPU est matériellement non unifié mais l'API unifiée, il peut toujours y avoir de légères variations, mais ça c'est à la discrétion du fabricant.
 
ndlr, en D3D tu compiles un shader HLSL ou assemble le shader déjà codé en asm vis à vis d'une machine virtuelle, et le driver traduit & optimise ce code VM vers du µcode GPU. Toute traduction/decodage est généralement faite par le driver, et le GPU bouffe du code assez atomique vis à vis de son architecture. (les branchements statiques ne sont en principe pas représentés dans ce µcode, ça influence la génération de µcode par le driver comme mettre du code entre #ifdef / #endif pour un compilateur C ).


Message édité par bjone le 02-11-2006 à 15:32:04
n°5142598
mareek
Et de 3 \o/
Posté le 02-11-2006 à 17:54:59  profilanswer
 

bjone a écrit :

e-x-a-c-t-e-m-e-n-t


Je code juste pour le plaisir :D


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°5143118
moggbomber
War, war never changes
Posté le 02-11-2006 à 21:34:13  profilanswer
 

aliss a écrit :

Est-ce qu'on peut espérer dès 2007 voir débarquer des jeux offrant enfin un gain appréciable de performance avec un cpu dual core ?
 
Autant Intel qu'AMD semblent privilégier la quantité de core à la montée en fréquence mais en terme de jeux pour l'instant ce n'est pas ça, si ce n'est les bench de madonion...
 
Je sais que quelques titres sont déjà annoncés comme "optimisé" dual core, mais dans quelle mesure, un petit X2 3800+ sera t'il plus performant sous UT2K7 qu'un FX57 par exemple ?
 
Après avoir lu plusieurs interview des devs de Bethesda peu avant la release d'Oblivion, qui promettaient des optimisations pour le multithread, j'ai vite déchanté à la release du jeu.
 
Selon les gains apportés, le "cpu limited" ne devrait-il pas disparaître durant une période lorsque les multicore seront mieux implantés ?


 
ben tiens a ce propos Source passerait en dual  [:jean-guitou]  
http://www.nofrag.com/2006/nov/02/23539/  
enfin d'ici la a ce que ca sorte avec eux on en sera au quad de serie  :o  

n°5143138
bjone
Insert booze to continue
Posté le 02-11-2006 à 21:43:06  profilanswer
 

mareek a écrit :

Je code juste pour le plaisir :D


:D

n°5143186
mareek
Et de 3 \o/
Posté le 02-11-2006 à 22:09:23  profilanswer
 

moggbomber a écrit :

ben tiens a ce propos Source passerait en dual  [:jean-guitou]  
http://www.nofrag.com/2006/nov/02/23539/  
enfin d'ici la a ce que ca sorte avec eux on en sera au quad de serie  :o


Citation :

Cette technologie devrait avant tout améliorer les performances du son, des particules et de l'IA


C'est sûr que le son et les particules c'est ce qui bouffe le plus de ressource [:petrus75]


---------------
"I wonder if the internal negative pressure in self pumping toothpaste tubes is adjusted for different market altitudes." John Carmack
n°5143192
MEI
|DarthPingoo(tm)|
Posté le 02-11-2006 à 22:14:24  profilanswer
 

A priori il veulent faire de la super fumée, des pluies diluviennes qui ne rame pas, etc. :)
 
Après s'il y a du résultat pourquoi pas.


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°5143604
moggbomber
War, war never changes
Posté le 03-11-2006 à 08:42:18  profilanswer
 

bon ben finalement je me dit que j'ai bien fait de prendre une X1900 en attendant non pas les prochains chips DX10 mais en attendant les vrais jeu l'exploitant
 
http://www.factornews.com/news-190 [...] suite.html
bon deja que crysis penchait plutot pour le bench que pour le jeu (si c comme farcry)
 
'fin bon une 8800 ou XT2900 avec surtout obligation de supporter vista je me dis que ca sera pas avant l'année prochaine et c tant mieux :jap:

n°5144559
totosssfr
Trop bon, trop con...
Posté le 03-11-2006 à 16:02:31  profilanswer
 

Bonjour à tous, j'ai une question concernant le test de la TV 100 Hz.  
 
En conclusion de l'article, il est dit que suite à un test contre un CRT, le LCD pouvait accuser jusqu'à 60 ms au bout de 20 images.  
 
Est ce qu'un test a été fait sur la durée d'un film?  
 
Le truc qui me chagrine, c'est de savoir si au bout de 90 min de film, un décalage entre le son et l'image apparaît.
En effet, si au bout de 20 frames, le LCD est en retard de 60ms, est-il possible (théoriquement) qu'au bout de 40, le retard soit de 120ms ? ou alors existe-t-il un mécanisme de rattrapage automatique? ou alors le retard est fixe?

Message cité 1 fois
Message édité par totosssfr le 03-11-2006 à 16:03:04
n°5144567
asmomo
Modérateur
Posté le 03-11-2006 à 16:05:25  profilanswer
 

Le retard est fixe, ou plutôt il varie constamment comme une sinusoïde, il ne s'accumule pas (il manquerait plus que ça :d).


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5144568
skeye
Posté le 03-11-2006 à 16:05:37  profilanswer
 

totosssfr a écrit :

Bonjour à tous, j'ai une question concernant le test de la TV 100 Hz.  
 
En conclusion de l'article, il est dit que suite à un test contre un CRT, le LCD pouvait accuser jusqu'à 60 ms au bout de 20 images.  
 
Est ce qu'un test a été fait sur la durée d'un film?  
 
Le truc qui me chagrine, c'est de savoir si au bout de 90 min de film, un décalage entre le son et l'image apparaît.
En effet, si au bout de 20 frames, le LCD est en retard de 60ms, est-il possible (théoriquement) qu'au bout de 40, le retard soit de 120ms ? ou alors existe-t-il un mécanisme de rattrapage automatique? ou alors le retard est fixe?


 
non, si tu relis bien l'article je pense que tu comprendras que le retard en question ne peut pas s'accumuler...


---------------
Can't buy what I want because it's free -
n°5144579
totosssfr
Trop bon, trop con...
Posté le 03-11-2006 à 16:10:11  profilanswer
 

oki merci :jap:

n°5144714
bgx
reviens brunette!
Posté le 03-11-2006 à 17:11:32  profilanswer
 

je ne suis pas sur que ca soit dit dans l'article, mais physiquement, ca peut pas se passer. Si il y avait 4 minutes de decallage a la fin, ils seraient stocker ou ces 4 minutes? il faut deja stocker 3 ou 4 images, ca prend deja de la place, mais 4 min de video, y'aurait une memoire gigantesuqe sur le truc.
 
d'ailleurs, je vois bien le truc:  si t'as plus de place dans les buffers, ben tu donne l'image telle quelle, tu t'amuses pas a calculer un truc dessus...

n°5144730
skeye
Posté le 03-11-2006 à 17:15:31  profilanswer
 

bgx a écrit :

je ne suis pas sur que ca soit dit dans l'article, mais physiquement, ca peut pas se passer. Si il y avait 4 minutes de decallage a la fin, ils seraient stocker ou ces 4 minutes? il faut deja stocker 3 ou 4 images, ca prend deja de la place, mais 4 min de video, y'aurait une memoire gigantesuqe sur le truc.
 
d'ailleurs, je vois bien le truc:  si t'as plus de place dans les buffers, ben tu donne l'image telle quelle, tu t'amuses pas a calculer un truc dessus...


D'où le 'si tu relis bien l'article je pense que tu comprendras'.[:dawa]
La cause du retard mentionné implique l'impossibilité de l'accumulation du retard.[:dawa]


---------------
Can't buy what I want because it's free -
n°5145400
bjone
Insert booze to continue
Posté le 03-11-2006 à 22:33:47  profilanswer
 

moggbomber a écrit :

bon ben finalement je me dit que j'ai bien fait de prendre une X1900 en attendant non pas les prochains chips DX10 mais en attendant les vrais jeu l'exploitant
 
http://www.factornews.com/news-190 [...] suite.html
bon deja que crysis penchait plutot pour le bench que pour le jeu (si c comme farcry)
 
'fin bon une 8800 ou XT2900 avec surtout obligation de supporter vista je me dis que ca sera pas avant l'année prochaine et c tant mieux :jap:


 
c'est vrai, mais de toutes manières les premières cartes D3D10 vont certainement voir leur perfs faire presque un x2 façe aux carte actuelles.
donc même avec D3D9, une carte D3D10 aura sont interêt.

Message cité 1 fois
Message édité par bjone le 04-11-2006 à 15:29:40
n°5146407
blazkowicz
Posté le 04-11-2006 à 15:26:26  profilanswer
 

de plus les nouvelles features (sauf ptet côté mémoire virtuelle et transferts dans une certaine mesure) pourront être exploitées sous opengl (soit avec des extensions, soit la version 3.0), donc sous nulix, XP (même windows 98 si nvidia sort un driver compatible :D. improbable mais pas techniquement impossible)

n°5146423
bjone
Insert booze to continue
Posté le 04-11-2006 à 15:33:38  profilanswer
 

l'aspect mémoire virtuelle devrait, en toute logique, être transparent aux APIs, et donc exploitable sous toutes les APIs. (ndlr par contre je sais pas si il faut le modèle de driver de Vista pour profiter de ça).

n°5146453
moggbomber
War, war never changes
Posté le 04-11-2006 à 15:53:46  profilanswer
 

bjone a écrit :

c'est vrai, mais de toutes manières les premières cartes D3D10 vont certainement voir leur perfs faire presque un x2 façe aux carte actuelles.
donc même avec D3D9, une carte D3D10 aura sont interêt.


 
oui mais faut quand meme pas se detacher de la réalite et du but d'une bonne carte 3D. cad "Est ce que je peux jouer de maniere rapide et jolie sur les jeux actuels et dans le futur proche" je dirais :o
 
tapper 200fps en 1920 AA8x c bien pour mettre la carte a genou mais c pas vraiment utile en réalité sur une config classique même haut de gamme...
 
de plus les 1eres series de cartes supportant les nlles technos (comme DX10 là ou ps4.0) seront peu exploitées au debut et quand ca le sera vraiment elles seront depassées.
 
'fin tout ca pour dire Railroads ramme chez moi (X1900+4600+). mais a mon avis c pas un probleme de config  [:jagstang]  
 
 

n°5146464
asmomo
Modérateur
Posté le 04-11-2006 à 16:04:59  profilanswer
 

Ben perso j'aurais bien besoin de la puissance d'une 7950GX2, mais sans SLI, parce que le SLI et le bi-écran ne font pas bon ménage.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5146511
blazkowicz
Posté le 04-11-2006 à 16:32:22  profilanswer
 

perso je veux une 8600 GTS AGP pour jouer à CS 1.5 en 16x
 
(quelqu'un aurait une FX5800 à 20 euros sinon? j'ai envie de me faire plaisir :whistle: )

n°5146516
asmomo
Modérateur
Posté le 04-11-2006 à 16:34:26  profilanswer
 

Je viens de mater mes mails, newsletter de mindfactory, prix pour la 8800GTX : http://www.mindfactory.de/cgi-bin/ [...] 6?pid=nl43
 
Aoutch  [:alph-one]


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5146524
blazkowicz
Posté le 04-11-2006 à 16:39:05  profilanswer
 

moggbomber a écrit :


de plus les 1eres series de cartes supportant les nlles technos (comme DX10 là ou ps4.0) seront peu exploitées au debut et quand ca le sera vraiment elles seront depassées.


 
c'est pas toujours vrai ça !
PS 2.0 : parfaitement exploitable sur 9700 pro
PS 3.0 : sur une gf 6800 ça marche bien, aussi (même si, granularité des branchements, blablabla)
TnL : on va pas se plaindre non plus de l'avoir si on a une geforce 1
hdr+AA : même ça c'est utilisable sur une X1800 et companie

n°5146533
blazkowicz
Posté le 04-11-2006 à 16:42:02  profilanswer
 

eh ben
c'est pas cher :o
(enfin, c'est ce qui était prévu :D)
 
perso j'attendrai qu'elle soit à moins de 100 euros d'occasion et que les gens sur les forums se foutent de la gueule de ceux qui en ont une tellement c'est une vieille daube.
(et, quoique.. je m'intéresse plus tellement aux cartes graphiques :o)

Message cité 1 fois
Message édité par blazkowicz le 04-11-2006 à 16:43:24
n°5146666
moggbomber
War, war never changes
Posté le 04-11-2006 à 17:59:36  profilanswer
 

blazkowicz a écrit :

c'est pas toujours vrai ça !
PS 2.0 : parfaitement exploitable sur 9700 pro
PS 3.0 : sur une gf 6800 ça marche bien, aussi (même si, granularité des branchements, blablabla)
TnL : on va pas se plaindre non plus de l'avoir si on a une geforce 1
hdr+AA : même ça c'est utilisable sur une X1800 et companie


 
oui mais ce que je veux dire c que quand la majorité des jeux sortant l'exploitent la carte est deja en limite niveau puissance
 
pi la 9700 c a part c'est une exception. elle etait en avance sur son temps elle :o

n°5146673
moggbomber
War, war never changes
Posté le 04-11-2006 à 18:02:07  profilanswer
 

blazkowicz a écrit :

eh ben
c'est pas cher :o
(enfin, c'est ce qui était prévu :D)
 
perso j'attendrai qu'elle soit à moins de 100 euros d'occasion et que les gens sur les forums se foutent de la gueule de ceux qui en ont une tellement c'est une vieille daube.
(et, quoique.. je m'intéresse plus tellement aux cartes graphiques :o)


 
deja que je trouve la GTS a 500€ trop cher moi :/
je sais pas mais j'arrive pas a me dire que je vais depenser + de 400€ pour une carte graphique :sweat:

n°5146691
DivX
Posté le 04-11-2006 à 18:10:05  profilanswer
 

Certains oublient des choses je trouve dnas tout ce que je lis.
 
par exemple la gestion d'un DirectX augmente les performances, un exemple simple 9600pro VS Ti4200.
 
sur la simple analyse de la puissance de calcul une Ti 4200 n'avait rien à envier à une 9600pro, et sous les jeux directX7 ou 8 la différence était proche de zéro entre ces cartes.
 
par contre une fois les jeux DX9 arrivés l'écart s'est creusé, parfois de manière vertigineuse, il n'est pas rare de voir la 9600pro avoir des perfs 3 fois supérieures à celles d'une Ti4200.
 
pour moi l'arrivée de Directx10 n'annoncera pas la fin des 8800, mais au contraire un nouveau boost de leurs performances, déjà très bonnes.

Message cité 3 fois
Message édité par DivX le 04-11-2006 à 18:10:36
n°5146914
blazkowicz
Posté le 04-11-2006 à 19:38:19  profilanswer
 

moggbomber a écrit :

deja que je trouve la GTS a 500€ trop cher moi :/
je sais pas mais j'arrive pas a me dire que je vais depenser + de 400€ pour une carte graphique :sweat:


 
 
n'achète pas, alors!
c'est quelque chose que je pratique souvent, ça.
si j'hésite à acheter quelque chose qui est trop cher et dont je peux me passer.. ne pas l'acheter, ce n'est pas une décision douleureuse. c'est facile de rien faire, et en ne faisant rien, on n'y perd rien.

n°5146919
blazkowicz
Posté le 04-11-2006 à 19:42:43  profilanswer
 

asmomo a écrit :

Ben perso j'aurais bien besoin de la puissance d'une 7950GX2, mais sans SLI, parce que le SLI et le bi-écran ne font pas bon ménage.


 
et une 7950 GX2 + une 7300LE, ça donnerait quoi? :D

n°5146923
Fouge
Posté le 04-11-2006 à 19:44:01  profilanswer
 

DivX a écrit :

il n'est pas rare de voir la 9600pro avoir des perfs 3 fois supérieures à celles d'une Ti4200.

Tu as un exemple , hors FSAA/Aniso, d'une telle différence où c'est la version de DirectX qui en est la cause et rien d'autre ?
 
Blazkowicz> Ca coute rien de ne rien acheter. C'est un bon slogan :D

Message cité 1 fois
Message édité par Fouge le 04-11-2006 à 19:44:49
n°5146984
moggbomber
War, war never changes
Posté le 04-11-2006 à 20:20:58  profilanswer
 

blazkowicz a écrit :

n'achète pas, alors!
c'est quelque chose que je pratique souvent, ça.
si j'hésite à acheter quelque chose qui est trop cher et dont je peux me passer.. ne pas l'acheter, ce n'est pas une décision douleureuse. c'est facile de rien faire, et en ne faisant rien, on n'y perd rien.


 
spour ca que j'ai pris une X1900 512 a 320€ ;)
je me suis dit quel a prochaine generation allait etre trop cher dans un premier temps de toute facon [:spamafote]

n°5146995
moggbomber
War, war never changes
Posté le 04-11-2006 à 20:23:38  profilanswer
 

DivX a écrit :


pour moi l'arrivée de Directx10 n'annoncera pas la fin des 8800, mais au contraire un nouveau boost de leurs performances, déjà très bonnes.


 
 :heink: ?
ben c sur qu'une 8800 va etre plus rapide en ps 4.0 qu'une 7800 si c ca que tu veux dire
 
 

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  792  793  794  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)