Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2454 connectés 

 

 

Quelle carte prendrez-vous ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  30  31  32  ..  820  821  822  823  824  825
Auteur Sujet :

[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)

n°6944140
Cizia
Posté le 04-05-2009 à 01:45:33  profilanswer
 

Reprise du message précédent :

Wirmish a écrit :

Y'a une chose qui doit être réglée, et je pense que tout le monde sera d'accord avec moi.
Il faut qu'ATi et nVidia trouvent un moyen pour unifier la mémoire des cartes multi-GPU.
Ils ne sont pas obligés de copier mon concept, mais ils doivent y parvenir, et le plus vite sera le mieux.
 
Imaginez une X2 ayant 4 Go de mémoire... et bien, avec les archi actuelles 2 de ces Go ne servent strictement à rien.
Vous imaginez le coût inutile de 2 Go de GDDR5, dans le but de dupliquer les textures entre les 2 GPU.
Le seul moyen d'unifier la mémoire c'est de faire en sorte qu'une seule puce ait accès à la mémoire.
 
Et en règlant ce problème, on en règle un deuxième: On fait disparaître le CF et le SLI et la carte multi-GPU est reconnue comme une carte mono-GPU par le système d'exploitation. Terminé les problèmes de scalling, terminé les jeux qui ne fonctionnent pas en CF ou en SLI. Terminé les optimisations individuelles pour chaque jeu. Et terminé d'attendre les prochains drivers pour que le CF/SLI soit enfin fonctionnel dans un jeu qui vient tout juste de sortir sur le marché.


 
 
+1
 
vraiment a parfaire ce truc parce que un peu con quand même...


Message édité par Cizia le 04-05-2009 à 01:46:28

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
mood
Publicité
Posté le 04-05-2009 à 01:45:33  profilanswer
 

n°6944143
johndoephe​nix
Posté le 04-05-2009 à 02:05:29  profilanswer
 

C'est beau tous sa, mais si c'est pour faire tourner un windows, je vois pas l'interet.
Je pense que j'ai compris que l'on parle du futur mais bon...meme dans 4ans on aura pas d'apli qui amortiron c perf.
Vous en pensez quoi?


---------------
le présent est votre mais l'avenir m'appartient
n°6944146
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 04-05-2009 à 02:31:01  profilanswer
 

Regarde ça, je pense que ça répond à ta question: http://www.toneelhuis.be/images/icon_youtube.gif

Message cité 1 fois
Message édité par Wirmish le 04-05-2009 à 02:36:06
n°6944147
bilbo248
Posté le 04-05-2009 à 02:34:51  profilanswer
 

Traduction et résumé ? s'il vous plait :)


---------------
Photographie |--| Stats BDPV - Photovoltaique
n°6944152
Cizia
Posté le 04-05-2009 à 02:43:44  profilanswer
 

johndoephenix a écrit :

C'est beau tous sa, mais si c'est pour faire tourner un windows, je vois pas l'interet.
Je pense que j'ai compris que l'on parle du futur mais bon...meme dans 4ans on aura pas d'apli qui amortiron c perf.
Vous en pensez quoi?


 
 
sur que si les développeur nous prépare pas une flopée de jeux a la crysis,aucun intérêt..  :D


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6944159
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 04-05-2009 à 03:57:38  profilanswer
 

Les jeux dont la qualité graphique s'approcheront de STALKER ou de Crysis ne devraient pas être légion avant l'arrivé des prochaines consoles. La plupart des jeux sont maintenant développés pour les consoles actuelles, et celles-ci, contrairement au PC, n'évoluent pas. Augmenter la qualité graphique, ça veut dire mettre de côté le marché juteux des consoles, et seuls quelques compagnies sont prêtes à faire ce sacrifice.
 
Je ne dis pas qu'il n'y aura aucun jeux qui mettra à genoux une HD 4870-X2, mais ils seront rares.
Prions donc pour que Sony et Microsoft sortent leur PrayStation4 et leur XBoîte720 le plus tôt possible.

n°6944162
Cizia
Posté le 04-05-2009 à 05:00:08  profilanswer
 

Wirmish a écrit :

Les jeux dont la qualité graphique s'approcheront de STALKER ou de Crysis ne devraient pas être légion avant l'arrivé des prochaines consoles. La plupart des jeux sont maintenant développés pour les consoles actuelles, et celles-ci, contrairement au PC, n'évoluent pas. Augmenter la qualité graphique, ça veut dire mettre de côté le marché juteux des consoles, et seuls quelques compagnies sont prêtes à faire ce sacrifice.
 
Je ne dis pas qu'il n'y aura aucun jeux qui mettra à genoux une HD 4870-X2, mais ils seront rares.
Prions donc pour que Sony et Microsoft sortent leur PrayStation4 et leur XBoîte720 le plus tôt possible.


 
 
ce qui veut dire,qu'une 5870 ne pourra qu'être bien suffisante...
 
pas mal déjà.


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6944163
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 04-05-2009 à 05:14:47  profilanswer
 

En fait une HD 4870/GTX 260 devrait être bien suffisante pour les 2 prochaines années... si on peut se passer des effets DX11.

n°6944164
alexreunio​n
Posté le 04-05-2009 à 05:25:43  profilanswer
 

Wirmish a écrit :

En fait une HD 4870/GTX 260 devrait être bien suffisante pour les 2 prochaines années... si on peut se passer des effets DX11.


C'est trop gros pour que je quote pas  :lol:  
 
Tu es un troll ambulant, au début je pensais que tu le faisais exprès, que ça te faisait marrer de prendre un "BAN" ou un "TT" mais au vu de ce que je lis sur le forum depuis quelques jours, c'est troll sur troll. Alors c'est simple pour moi, si tu as des infos et qu'elles sont fondées c'est bien et dans ce cas là dis nous tes sources. Et si tout ce que tu dis, proviens de tes élucubrations personnelles, ça serait bien de mettre "je pense que..."
 
Parce que clairement tu saoules avec tes pavets, ça fait style je sais des trucs mais en fait non...  :sweat:


---------------
Mon feedback
n°6944166
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 04-05-2009 à 05:30:55  profilanswer
 

Bon ben je reviendrai dans 3 mois alors...
 
A+

mood
Publicité
Posté le 04-05-2009 à 05:30:55  profilanswer
 

n°6944167
alexreunio​n
Posté le 04-05-2009 à 05:33:48  profilanswer
 

Wirmish a écrit :

Bon ben je reviendrai dans 3 mois alors...
 
A+


Si seulement ça pouvait être vrai. Le pire c'est que même quand tu utilises un multi on te reconnait encore...  :o


---------------
Mon feedback
n°6944171
Cizia
Posté le 04-05-2009 à 07:00:14  profilanswer
 

alexreunion: d'un autre cotée,étant possesseur d'une 8800gtx tu sais mieux que personne que ça fais facile 2ans que les mec l'utilise et ça encore confortablement...
 
donc je ne vois rien pas ce qui empêcherais de faire de même avec les bonne carte actuel.
 
rien de choquant dans le post de wirmish donc...

Message cité 2 fois
Message édité par Cizia le 04-05-2009 à 07:00:40

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°6944174
god is dea​d
Demain, j'arrête de poster.
Posté le 04-05-2009 à 07:24:49  profilanswer
 

Wirmish a écrit :

En fait une HD 4870/GTX 260 devrait être bien suffisante pour les 2 prochaines années... si on peut se passer des effets DX11.


Si tu peux aussi te passer des filtres, des hautes réso et de la fluidité, oué, peut être. Sinon fondamentalement je crois que tu te touches :d

Cizia a écrit :

alexreunion: d'un autre cotée,étant possesseur d'une 8800gtx tu sais mieux que personne que ça fais facile 2ans que les mec l'utilise et ça encore confortablement...
 
donc je ne vois rien pas ce qui empêcherais de faire de même avec les bonne carte actuel.
 
rien de choquant dans le post de wirmish donc...


J'ai quasi l'équivalent d'une 8800gtx, et ayant testé du dx 10 lourd, genre Crysis, Stalker, c'est très peu jouable. Même wic n'est pas super fluide, et je dois me passer d'aa. Avec du dx 9 aussi on sent les limites, genre sous fc2 ou cod 5. Faudrait pas non plus abuser, certes un g80 ça tient la route encore, mais faut pas se faire de film, faut pas trop lui en demander et comparé aux perfs du début ça n'a rien à voir. Et puis je ne pense pas qu'on puisse comparer l'ère g80 avec celui des rv770/gt 200, à part Crysis (et encore), le paysage ludique n'a guère évolué sous le règne du g80, avec du dx 10 qui ne s'est pas imposé.  
 
Donc dire qu'une gtx 260/hd 4870 sera "bien suffisante" pour les 2 prochaines années, alors que tu trouves actuellement des jeux qui rament dessus, et que les jeux vont fatalement se complexifier (se complexifier ou être bâcle niveau opti), c'est intéressant. Ou alors faut définir ce qu'on appelle "bien suffisante", si c'est juste histoire de faire tourner le jeu, sans filtres, avec options au rabais, effectivement  [:columbo2]  
 
Même dés la sortie du rv870, certains changeront leur hd 4850/hd 4870, et amah ce ne sera pas inutile, parce que le gain de perf devrait être très sensible, ce qui est le bienvenu vu le framerate atteint sur certains titres actuellement.

Message cité 2 fois
Message édité par god is dead le 04-05-2009 à 07:56:27

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6944178
couillesho​t
Les bouboules et la boubouche
Posté le 04-05-2009 à 07:48:23  profilanswer
 

Moi je vois pas comment les jeux vont se complexifier vu la tendance au "multi-plateformisme", le prochain Call of juarez est prévu sur console, les prochains crytek et Id software également, après bien sûr il ya la question de l'optimisation (gta4... :fou: )
Et les jeux qui rament sur ma config je les compte sur les doigts d'une main  :o .
Donc c'est un avenir un peu incertain et morose qui se dessine  :(
 
J'ajouterais que les écrans 30' sont encore un peu chers  :D


Message édité par couilleshot le 04-05-2009 à 08:08:25

---------------
:o :o :o
n°6944181
god is dea​d
Demain, j'arrête de poster.
Posté le 04-05-2009 à 07:57:18  profilanswer
 

*E8400 @ 3.8ghz (8*475@1.4v) +Ventirad Thermalright HR01+ avec un Enermax Cluster
*2*2Go OCZ reaper pc2-8500 cas5
*POV GTX280 692/1474/1261 + Accelero Extreme GTX  
 
Encore heureux :o
 
Et ce qui fait peur c'est surtout l'opti moisis.


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6944186
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 04-05-2009 à 08:16:29  profilanswer
 

alexreunion a écrit :


Si seulement ça pouvait être vrai. Le pire c'est que même quand tu utilises un multi on te reconnait encore...  :o


 
 :D +1


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°6944258
alexreunio​n
Posté le 04-05-2009 à 10:51:16  profilanswer
 

Cizia a écrit :

alexreunion: d'un autre cotée,étant possesseur d'une 8800gtx tu sais mieux que personne que ça fais facile 2ans que les mec l'utilise et ça encore confortablement...
 
donc je ne vois rien pas ce qui empêcherais de faire de même avec les bonne carte actuel.
 
rien de choquant dans le post de wirmish donc...


On prend les paris?  ;)


---------------
Mon feedback
n°6944515
Gigathlon
Quad-neurones natif
Posté le 04-05-2009 à 14:58:36  profilanswer
 

Wirmish a écrit :


 
1-
 
La 3DFX Voodoo 6000 avait bien 4 GPU VSA-100, et c'est la même chose avec la Evan & Sutherlands simFUSION 6500 qui était équippée de 4 GPU de Radeon 9800XT. Mon concept ne fait donc que reprendre ce qui a déja existé, mais en l'améliorant: Disparition du CrossFire, unification de la mémoire.
 
 
 
2-
 
j'ai pas trop compris en quoi l'utilisation du bus FlexIO, actuellement utilisé dans la PS3 n'est pas concevable pour une carte multi-GPU. Tu pourrais être plus clair ?
 
Mon concept permet au GPU maître d'accéder à la mémoire GDDR5 avec une bande passante de 240 GB/s (384 bit) ou 480 GB/s avec de la GDDR5 en mode différentiel (8x). Les liens avec les puces esclaves ont une bande passante de 76.8 Go/s chacun, pour un total de 384 Go/s dans le cas de mon concept de HD 5870. Cette bande passante est équivalente au taux de transfert maximum théorique des 10 caches L1 du RV770. Je ne vois donc pas pourquoi tu dis qu'il faudrait de l'eDRAM ou un bus plus important et plus rapide.


 
1- Un GPU n'a plus grand chose à voir avec un R300 ou un VSA100, qui étaient hautement "linéaires". Maintenant, la mode du "tout en 1 passe" est bel et bien terminée et on en est à la mode du "faire le plus de passes possibles pour avoir le meilleur rendu".
 
2- Le bus 384bits est INENVISAGEABLE sur une puce de 150mm², de même, tes bus à 5+7bits sont forcément des bus bien plus larges, sachant qu'en 32bits la XDR peine à atteindre les 30Go/s... ils sont loin tes 76.8Go/s (correspondant à un bus 64bits dans le meilleur des cas).
 
3- Et n'oublions pas la latence catastrophique de la XDR... la GDDR5 a un accès similaire, d'ailleurs elle est même quasi identique.

Message cité 2 fois
Message édité par Gigathlon le 04-05-2009 à 15:00:04
n°6944560
jumpyman97​2
Posté le 04-05-2009 à 15:26:32  profilanswer
 

god is dead a écrit :


Si tu peux aussi te passer des filtres, des hautes réso et de la fluidité, oué, peut être. Sinon fondamentalement je crois que tu te touches :d


 

god is dead a écrit :


J'ai quasi l'équivalent d'une 8800gtx, et ayant testé du dx 10 lourd, genre Crysis, Stalker, c'est très peu jouable. Même wic n'est pas super fluide, et je dois me passer d'aa. Avec du dx 9 aussi on sent les limites, genre sous fc2 ou cod 5. Faudrait pas non plus abuser, certes un g80 ça tient la route encore, mais faut pas se faire de film, faut pas trop lui en demander et comparé aux perfs du début ça n'a rien à voir. Et puis je ne pense pas qu'on puisse comparer l'ère g80 avec celui des rv770/gt 200, à part Crysis (et encore), le paysage ludique n'a guère évolué sous le règne du g80, avec du dx 10 qui ne s'est pas imposé.  
 
Donc dire qu'une gtx 260/hd 4870 sera "bien suffisante" pour les 2 prochaines années, alors que tu trouves actuellement des jeux qui rament dessus, et que les jeux vont fatalement se complexifier (se complexifier ou être bâcle niveau opti), c'est intéressant. Ou alors faut définir ce qu'on appelle "bien suffisante", si c'est juste histoire de faire tourner le jeu, sans filtres, avec options au rabais, effectivement  [:columbo2]  
 
Même dés la sortie du rv870, certains changeront leur hd 4850/hd 4870, et amah ce ne sera pas inutile, parce que le gain de perf devrait être très sensible, ce qui est le bienvenu vu le framerate atteint sur certains titres actuellement.


 
Tiens je pensais pas que cod5 était si lourd, en tout cas par rapport à cod4 qui tourne plutôt tranquillement. Après, comme tu dis faut voir ce qu'on appelle "bien suffisante", bien que je trouve qu'une 8800gtx s'en sort pas mal encore. Après est-ce qu'il y a des jeux qui tournent difficilement dessus car non optimisé comme on aime à le dire, surement (je me rappelle d'un rainbow six vegas avec les ombres en très élevé pour voir le framerate chuter à des niveaux abyssaux à certains moments) mais il y en a toujours eu et il y en aura toujours.
 
 Par contre les jeux qui vont se complexifier, j'aimerais bien voir ça. Tu dis que directx 10 ne s'est pas imposé mais n'est-ce pas du simplement au fait que quasi tous les jeux pc viennent des consoles. De la même manière mise à part quelque opti comme on a pu voir sur Stalker ou des jeux ubi soft, va t'on voir vraiment des jeux clairement directx11? J'ai du mal à le croire. Il ne reste quasiment aucun développeurs à ne faire que du pc et qui pourrait se permettre de faire un jeux comme on pu connaitre avec crysis en 2007.
 
Que ce soit crytek, epic, id software, remedy, monolith ou valve (et la liste est encore longue), tous font du multi-plateformes. Or avec une version console de type directx9, est-ce encore financièrement intéressant de faire une version spéciale PC plus complexe qui demanderait beaucoup plus de ressources, ils sembleraient que les développeurs aient décidé. D'ailleurs, je ne vois aucun jeux développés sur pc mettant en avant un vrai saut graphique ou physique qui soit annoncé en ce moment . Bref, ça m'étonnerait pas qu'on se tape des conversions des consoles actuelles pendant encore les 2 prochaines années et qu'il faille attendre la prochaine génération pour avoir un saut au niveau du matériel demandé. D'où des HD4870/GTX260 qui puisse bien durer.
 
Après, beaucoup aiment changer pour avoir toujours plus (que ce soit filtre ou résolution) et on continuera à changer même si l'utilité se serait pas importante, mais là c'est un autre débat.
 

n°6944865
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 04-05-2009 à 18:56:43  profilanswer
 

Gigathlon a écrit :

Le bus 384bits est INENVISAGEABLE sur une puce de 150mm², de même, tes bus à 5+7bits sont forcément des bus bien plus larges, sachant qu'en 32bits la XDR peine à atteindre les 30Go/s... ils sont loin tes 76.8Go/s (correspondant à un bus 64bits dans le meilleur des cas).


D'accord, alors disons que la puce maître n'utilise qu'un bus de 256 bit.
Suffit alors d'activer le mode différentiel de la GDDR5 pour doubler la bande passante (1er trimestre 2010).
 
Par contre, les liens entre la puce maître et les puces escalves ne nécessitent que peu de traces sur le PCB. Rambus a développé une techo permettant de transférer 32 DQ-C/A par trace par clock (32x Data Rate), fonctionnant en mode différentiel (FDMA), et offrant une bande passante de 16 Gbps avec seulement 2 pins, et cela à une fréquence de seulement 500 MHz.
 
In contrast with a 1Gbit DDR2 device which requires 28 wires to connect the command/address link between the memory controller and the DRAM, FlexLink C/A implements a full 16Gbps command/address link with only two connections.
 
Un petit vidéo qui explique tout -> ICI

n°6945014
Gigathlon
Quad-neurones natif
Posté le 04-05-2009 à 20:41:23  profilanswer
 

On en revient donc au même problème : 16GigaBITS par seconde... soit grosso modo le double de la plus performante XDR que j'ai aperçu.
 
Avec ce débit, c'est donc toujours un bus 32bits minimum, et toujours 256 traces en trop (car différentiel donc 2x la largeur de bus, et là on voit la limite de cette utilisation... c'est pas forcément pire que des bus adresses/données séparés, mais pas non plus une révolution).
 
 
D'ailleurs, il n'y aurait rien d'étonnant à ce que cette acquisition de licence concerne la GDDR5 qui utilise le même type de signaux.


Message édité par Gigathlon le 04-05-2009 à 20:42:58
n°6945278
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 05-05-2009 à 00:38:22  profilanswer
 

Liens puces maître/esclave:
· Bus 17 liens (16 data + 1 C/A) à 500 MHz = 16 * 16Gbps = 32 Go/s.
· 5 cores * 32 Go/s = 160 Go/s de bande passante totale.
· 4 puces esclaves avec 17 liens chacune = 68 pins.
  (Mode différentiel = même nombre de liens pour un débit doublé.)
 
Liens puce maître/GDDR5 (256 bit):
· 8 puces (1 Go) de GDDR5 de 1 Gb à 1.2 GHz en mode différentiel = 128 bit = 160 Go/s de bande passante.
· RV740 (40nm, 138mm², 128 bit) -> ~200mm² pour un bus GDDR5 de 128 bit + 68 pins (4 puces esclaves).
 
J'étais donc un peu trop optimiste.
La puce maître devrait avoir une taille de 200mm² au lieu de 150mm².

n°6945312
marllt2
Posté le 05-05-2009 à 01:44:50  profilanswer
 

jumpyman972 a écrit :


 Par contre les jeux qui vont se complexifier, j'aimerais bien voir ça. Tu dis que directx 10 ne s'est pas imposé mais n'est-ce pas du simplement au fait que quasi tous les jeux pc viennent des consoles. De la même manière mise à part quelque opti comme on a pu voir sur Stalker ou des jeux ubi soft, va t'on voir vraiment des jeux clairement directx11? J'ai du mal à le croire. Il ne reste quasiment aucun développeurs à ne faire que du pc et qui pourrait se permettre de faire un jeux comme on pu connaitre avec crysis en 2007.


La différence c'est que pour jouer à Crysis en dx10 il fallait une carte dx10 et vista.
 
Problème qui n'est plus avec la rétrocompatibilité de dx11 et seven.

n°6945323
johndoephe​nix
Posté le 05-05-2009 à 02:06:54  profilanswer
 

Wirmish a écrit :

Regarde ça, je pense que ça répond à ta question: http://www.toneelhuis.be/images/icon_youtube.gif


 
C'est gros quand meme, on dirait un tres bon FAKE.
C'est possible, un CEREBRO? lol
Non, plus serieusement, c'est pour quand et surtout pour qui? sa coutera une fortune se systeme, aujourd'hui c limite de l'ireele question prix.

 

Wirmish a écrit :

Les jeux dont la qualité graphique s'approcheront de STALKER ou de Crysis ne devraient pas être légion avant l'arrivé des prochaines consoles. La plupart des jeux sont maintenant développés pour les consoles actuelles, et celles-ci, contrairement au PC, n'évoluent pas. Augmenter la qualité graphique, ça veut dire mettre de côté le marché juteux des consoles, et seuls quelques compagnies sont prêtes à faire ce sacrifice.
 
Je ne dis pas qu'il n'y aura aucun jeux qui mettra à genoux une HD 4870-X2, mais ils seront rares.
Prions donc pour que Sony et Microsoft sortent leur PrayStation4 et leur XBoîte720 le plus tôt possible.


 
Tout à fait d'accord la dessus ;)

alexreunion a écrit :


C'est trop gros pour que je quote pas  :lol:  
 
Tu es un troll ambulant, au début je pensais que tu le faisais exprès, que ça te faisait marrer de prendre un "BAN" ou un "TT" mais au vu de ce que je lis sur le forum depuis quelques jours, c'est troll sur troll. Alors c'est simple pour moi, si tu as des infos et qu'elles sont fondées c'est bien et dans ce cas là dis nous tes sources. Et si tout ce que tu dis, proviens de tes élucubrations personnelles, ça serait bien de mettre "je pense que..."
 
Parce que clairement tu saoules avec tes pavets, ça fait style je sais des trucs mais en fait non...  :sweat:


 
Et toi t'aporte quoi?
 

god is dead a écrit :


Si tu peux aussi te passer des filtres, des hautes réso et de la fluidité, oué, peut être. Sinon fondamentalement je crois que tu te touches :d


 

god is dead a écrit :


J'ai quasi l'équivalent d'une 8800gtx, et ayant testé du dx 10 lourd, genre Crysis, Stalker, c'est très peu jouable. Même wic n'est pas super fluide, et je dois me passer d'aa. Avec du dx 9 aussi on sent les limites, genre sous fc2 ou cod 5. Faudrait pas non plus abuser, certes un g80 ça tient la route encore, mais faut pas se faire de film, faut pas trop lui en demander et comparé aux perfs du début ça n'a rien à voir. Et puis je ne pense pas qu'on puisse comparer l'ère g80 avec celui des rv770/gt 200, à part Crysis (et encore), le paysage ludique n'a guère évolué sous le règne du g80, avec du dx 10 qui ne s'est pas imposé.  
 
Donc dire qu'une gtx 260/hd 4870 sera "bien suffisante" pour les 2 prochaines années, alors que tu trouves actuellement des jeux qui rament dessus, et que les jeux vont fatalement se complexifier (se complexifier ou être bâcle niveau opti), c'est intéressant. Ou alors faut définir ce qu'on appelle "bien suffisante", si c'est juste histoire de faire tourner le jeu, sans filtres, avec options au rabais, effectivement  [:columbo2]  
 
Même dés la sortie du rv870, certains changeront leur hd 4850/hd 4870, et amah ce ne sera pas inutile, parce que le gain de perf devrait être très sensible, ce qui est le bienvenu vu le framerate atteint sur certains titres actuellement.


 
Jusqu'a pas longtemp, j'avais ma config et crysis, WIC (sympa la beta mais dans le fond c une m....! se jeux), fonctionné tres tres bien.
Faut etre realiste, tu joue surement en 1920*1200 voire 2560*1600...c pas le standar sa, donc te plein pas que ta 8800gtx ne pousse pas.
Perso en 1280*1024 voire 2x1280*1024 (DH2GO), wic fonctionné tres bien et je n'ai meme pas oc mon proco.


---------------
le présent est votre mais l'avenir m'appartient
n°6945326
jumpyman97​2
Posté le 05-05-2009 à 02:35:33  profilanswer
 

marllt2 a écrit :


La différence c'est que pour jouer à Crysis en dx10 il fallait une carte dx10 et vista.
 
Problème qui n'est plus avec la rétrocompatibilité de dx11 et seven.


 
Je suis d'accord mais combien de compagnie de jeux utilise encore le PC en lead plateforme. C'est de plus en plus rare, même Ghotic 4, un jeu que peu voyait arriver sur console a comme lead plateforme la XBOX 360. Et ce n'est pas prêt de changer. D'ailleurs dans les jeux avancés techniquement on cite toujours les même, Stalker, Crysis, WIC, les derniers rares jeux a être vraiment des jeux PC. Mais mis à part les dévs de Stalker les deux autres sont déjà passées en multi-plateformes.
 
Penses-tu vraiment que les développeurs vont faire des versions pc qui exploitent ces derniers dans le futur (donc des coûts en plus alors que la plupart des dévs semble donner l'impression que ça ne vaut pas la peine) où ne va t-on pas plutôt voir arriver des jeux venant des consoles avec deux trois effets directx10 ou optimisation directx11 pour expliquer la sortie de la version PC 6 mois plus tard. D'où une continuité de ce qu'on a vus ces deux dernières années avec des jeux qui ne sont pas beaucoup plus lourd mis à part deux trois exceptions (Cf. GTA 4) et donc des GTX260/HD4870 qui tiennent encore largement le coup pendant cette période.


Message édité par jumpyman972 le 05-05-2009 à 02:38:48
n°6945330
johndoephe​nix
Posté le 05-05-2009 à 03:04:29  profilanswer
 

+1 jumpyman972

 

Dans 3/4ans, forcement on aura droit à cette claque graphique, normal la PS4 ou autres feront leurs apparition.
Sa me fou les boulles car je hais le style console mais c comme sa.

Message cité 1 fois
Message édité par johndoephenix le 05-05-2009 à 03:05:13

---------------
le présent est votre mais l'avenir m'appartient
n°6945334
scatology
Posté le 05-05-2009 à 06:34:45  profilanswer
 

johndoephenix a écrit :

+1 jumpyman972
 
Dans 3/4ans, forcement on aura droit à cette claque graphique, normal la PS4 ou autres feront leurs apparition.
Sa me fou les boulles car je hais le style console mais c comme sa.


 
 
Ouais moi aussi, mais il va toujours y avoir le combat pc vs console... C'est pas fini. :lol:

n°6945338
god is dea​d
Demain, j'arrête de poster.
Posté le 05-05-2009 à 07:13:52  profilanswer
 

johndoephenix a écrit :


 
Jusqu'a pas longtemp, j'avais ma config et crysis, WIC (sympa la beta mais dans le fond c une m....! se jeux), fonctionné tres tres bien.
Faut etre realiste, tu joue surement en 1920*1200 voire 2560*1600...c pas le standar sa, donc te plein pas que ta 8800gtx ne pousse pas.
Perso en 1280*1024 voire 2x1280*1024 (DH2GO), wic fonctionné tres bien et je n'ai meme pas oc mon proco.


C'est quoi le standard pour un joueur ? Je pense au contraire que, vu la baisse drastique des 24/26/28 pouces, le 1920 est loin d'être une réso de luxe, comme peut l'être le 2560. Et qd bien même le standard serait le 1280, ça m'intéresse pas de jouer sur des écrans aussi peu immersifs et petits. De plus le g80 était optimal pour du 1920 dés sa sortie et été historiquement taillée pour les hautes réso, pas pour du 1280. Or il ne l'est plus maintenant, et c'est normal. Dans deux ans hd 4870/gtx 260 ne vaudront plus grand chose, et c'est normal aussi :spamafote:
 
Qd on parle de carte puissantes, le 1680/1920 est d'avantage représentatif qu'un pauvre "1280" et la durée de vie optimale d'un gpu haut de gamme dépasse très rarement 1.5/2ans.


Message édité par god is dead le 05-05-2009 à 07:20:46

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6945346
Fantryt
Posté le 05-05-2009 à 07:44:42  profilanswer
 

Et allez, hop, encore 1 page 3/4 de débats, c'est super_newbie_pro qui va être content ...  :whistle:

n°6945554
jeanjean15
buy cheap, buy twice
Posté le 05-05-2009 à 12:59:16  profilanswer
 

Ca se précise :
 
http://www.puissance-pc.net/cartes [...] ?Itemid=49
 
" Ainsi les unités de calcul passeront de 800 à 1200, tandis que les unités de texturing passeront de 40 à 48. Les ROPs quant à eux seront doublés pour passer de 16 à 32. "


---------------
mes_feeds
n°6945571
vigor650
---------------
Posté le 05-05-2009 à 13:25:31  profilanswer
 

Citation :

wirmish a écrit:
les consoles actuelles, et celles-ci, contrairement au PC, n'évoluent pas


ha bon?le changement de finesse de gravure sur les cpu et gpu des consoles , l'augmentation de la taille des dd , t'appelles ça comment?

Message cité 2 fois
Message édité par vigor650 le 05-05-2009 à 13:27:18
n°6945587
jumpyman97​2
Posté le 05-05-2009 à 13:44:58  profilanswer
 

vigor650 a écrit :

Citation :

wirmish a écrit:
les consoles actuelles, et celles-ci, contrairement au PC, n'évoluent pas


ha bon?le changement de finesse de gravure sur les cpu et gpu des consoles , l'augmentation de la taille des dd , t'appelles ça comment?

 

T'as tout à fait raison, mais en fait peut-être parle-t-il d'évolution en puissance; oui ça doit être ça.


Message édité par jumpyman972 le 05-05-2009 à 13:45:17
n°6945591
Rinac9
Posté le 05-05-2009 à 13:51:48  profilanswer
 

ralalala, ca troll a mort ici.
 
Moi perso, d'ici deux ans, on ne sait pas ce qu'il se passera. La 8800GTX a bien perdurer. pas a cause de sa puissance, mais simplement parce que le jeux le plus puissant est crysis, et qu'il a deja presque 1ans et demi.  
 
Par contre, jouer en dx10 c'est bien, mais c'est pas tellement plus beau.

n°6945597
god is dea​d
Demain, j'arrête de poster.
Posté le 05-05-2009 à 13:57:38  profilanswer
 

jeanjean15 a écrit :

Ca se précise :
 
http://www.puissance-pc.net/cartes [...] ?Itemid=49
 
" Ainsi les unités de calcul passeront de 800 à 1200, tandis que les unités de texturing passeront de 40 à 48. Les ROPs quant à eux seront doublés pour passer de 16 à 32. "


La source doit être la même, non ?  [:columbo2]


---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°6945598
jumpyman97​2
Posté le 05-05-2009 à 14:00:56  profilanswer
 

jeanjean15 a écrit :

Ca se précise :
 
http://www.puissance-pc.net/cartes [...] ?Itemid=49
 
" Ainsi les unités de calcul passeront de 800 à 1200, tandis que les unités de texturing passeront de 40 à 48. Les ROPs quant à eux seront doublés pour passer de 16 à 32. "


 
Ils feraient donc passer le rapport ALU:TEX de 4:1 à 5:1. C'est ce qui me semblait la meilleure idée mais je pensais voir quand même un nombre plus élevé de SPU. Il faudra voir à quelle fréquence ils arrivent à faire tourner tout ça. Enfin si tout cela s'avère vrai.

n°6945628
johndoephe​nix
Posté le 05-05-2009 à 14:29:42  profilanswer
 

vigor650 a écrit :

Citation :

wirmish a écrit:
les consoles actuelles, et celles-ci, contrairement au PC, n'évoluent pas


ha bon?le changement de finesse de gravure sur les cpu et gpu des consoles , l'augmentation de la taille des dd , t'appelles ça comment?

 

Si c pour dire sa, vos mieux se taire. :D
En quoi la finesse de gravure impacte sur les performances des proc console?
le changement de finesse de gravure n'a qu'un impacte sur la production des procs console, pour reduire le cout.
Je parle des procs console car sur une console on o/c pas.
Et puis changer de DD sa change quoi?
Vraiment, sa trol pour dire sa! :pfff:

 

Je ne sais meme pas pourquoi je repond en plus...

Message cité 1 fois
Message édité par johndoephenix le 05-05-2009 à 14:30:37

---------------
le présent est votre mais l'avenir m'appartient
n°6945671
Etharos
Posté le 05-05-2009 à 15:04:09  profilanswer
 

Il reste un truc qui peut obliger tous les gamer PC à changer leur carte graphique (et leur écran d'ailleurs)  :
 
http://www.nvidia.com/object/produ [...] it_us.html
 
Pour l'instant c'est nvidia, mais on peut imaginer qu'ATI s'y mettra aussi.
 
Du coup les jeux pourront rester au niveau actuel et les vendeurs de CG y trouver leur compte quand même.

n°6945677
Yoyo_5
Posté le 05-05-2009 à 15:09:41  profilanswer
 

Etharos a écrit :

Il reste un truc qui peut obliger tous les gamer PC à changer leur carte graphique (et leur écran d'ailleurs)  :
 
http://www.nvidia.com/object/produ [...] it_us.html
 
Pour l'instant c'est nvidia, mais on peut imaginer qu'ATI s'y mettra aussi.
 
Du coup les jeux pourront rester au niveau actuel et les vendeurs de CG y trouver leur compte quand même.


Trop contraignant si on a déjà le matos. Ce n'est pas un argument sauf si on se fait une config toute neuve entièrement. Mais là encore, la qualité des écrans proposés derrière n'est pas forcément du goût de tout le monde... :jap:
Après, je serai curieux de voir ce que ça donne en vrai. :love:


---------------
¤ Paix et félicité ¤

n°6945712
Profil sup​primé
Posté le 05-05-2009 à 15:35:38  answer
 

Wirmish a écrit :


Regarde mon concept plus attentivement (les images aussi) -> Beyond3D
 
Mon concept utilise le bus FlexIO développé par Rambus et licencié par AMD en 2006 pour 75 millions de dollars.
 
Ce bus est capable de fonctionner à des fréquences comprises entre 400 MHz et 8 GHz.
· Le bus ne possède que 12 traces (5 en entrée/7 en sortie), soit 48 traces au total pour relier les 4 puces esclaves.
· La bande passante théorique est de 76.8 Go @ 8 GHz (32 Go en entrée/44.8 Go en sortie)
· Bande passante totale: 76.8 Go/s x 5 puces (1 interne + 4 "esclaves" ) = 384 Go/s
 
La puce maître n'à qu'à utiliser un bus de 384 bit de GDDR5 standard à 0.4ns, soit des puces à 1250 MHz (5,0 GHz effectif), pour une bande passante totale de 240 GB/s, ce qui est à mon avis amplement suffisant.
 
L'année prochaine, lors du passage au 32nm, AMD pourrai revenir à un bus de seulement 256 bit, mais en utilisant de la GDDR5 en mode différentiel, qui devrait être dispo au 1er trimestre 2010. ce qui permettrait alors de dépasser les 300 Go/s.
 
Il n'y a donc aucun problème de "pins trop nombreuses" avec mon concept.
 
http://static.pcinpact.com/images/smiles/phibee.gif


 

Gigathlon a écrit :


 
1- Un GPU n'a plus grand chose à voir avec un R300 ou un VSA100, qui étaient hautement "linéaires". Maintenant, la mode du "tout en 1 passe" est bel et bien terminée et on en est à la mode du "faire le plus de passes possibles pour avoir le meilleur rendu".
 
2- Le bus 384bits est INENVISAGEABLE sur une puce de 150mm², de même, tes bus à 5+7bits sont forcément des bus bien plus larges, sachant qu'en 32bits la XDR peine à atteindre les 30Go/s... ils sont loin tes 76.8Go/s (correspondant à un bus 64bits dans le meilleur des cas).
 
3- Et n'oublions pas la latence catastrophique de la XDR... la GDDR5 a un accès similaire, d'ailleurs elle est même quasi identique.


 
niveau concept ok... [:adodonicoco]  
 
 
mais niveau application, disons niveau pcb et etage d alim, c est fesable?
 
je veus dire si je dois alimenter 4 puces, elles ont le meme vgp, etc...? :??:

n°6945715
Yoyo_5
Posté le 05-05-2009 à 15:37:41  profilanswer
 


C'est aussi la question que je me posais. Clair que déjà que c'est galère de caser l'étage d'alim sur une X2, alors sur une CG où on trouve 4 puces, j'ai comme des gros doutes sur la faisabilité de la chose. :/


---------------
¤ Paix et félicité ¤

n°6945762
Gigathlon
Quad-neurones natif
Posté le 05-05-2009 à 16:10:19  profilanswer
 

johndoephenix a écrit :

Je parle des procs console car sur une console on o/c pas.


Pourtant y'en a qui boost leur XBoîte à 1.4GHz... :whistle:  
 
 

jumpyman972 a écrit :

Ils feraient donc passer le rapport ALU:TEX de 4:1 à 5:1. C'est ce qui me semblait la meilleure idée mais je pensais voir quand même un nombre plus élevé de SPU. Il faudra voir à quelle fréquence ils arrivent à faire tourner tout ça. Enfin si tout cela s'avère vrai.


Le ratio serait strictement le même que sur le RV770, puisque sur ce dernier les 32 interpolateurs limitent en pratique les TMU au nombre de 32.

Message cité 1 fois
Message édité par Gigathlon le 05-05-2009 à 16:12:50
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  30  31  32  ..  820  821  822  823  824  825

Aller à :
Ajouter une réponse
 

Sujets relatifs
Configuration (Intel inside) - Est-elle homogène ?Problème overclock Radeon HD4850
Reboot unique au démarrage... Normal ou pas?Radeon HD4870 ou 50 + C2D E6400 = bon ménage ?
Probleme sortie TV sur Radeon 9500 proATI HD3870 vers 4850-4870 ???
[Topic unique] Aide à la présentation de nouvelles configurations PC[Topic Unique] problèmes sur les G84 et G86 de Nvidia [8400 8600]
Plus de sujets relatifs à : [Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)