Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2540 connectés 

 

 

Quelle carte prendrez-vous ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  33  34  35  ..  820  821  822  823  824  825
Auteur Sujet :

[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)

n°6947857
god is dea​d
Demain, j'arrête de poster.
Posté le 07-05-2009 à 07:29:44  profilanswer
 

Reprise du message précédent :
Gigathlon est tjrs très optimiste, il pense qu'il faudrait 300% de perfs en + à chaque nouveau gpu et qu'en plus c'est très facilement faisable :o  
 
Il oublie juste que le "strict minimum" là ce serait qd même environ 80-100 % de perf en +, avec les spec qu'on a. Historiquement on est dans la fourchette de perf du g80 vs g71, ou du rv670 vs rv770, soit un très gros gain. D'autant que l'archi sera sans doute la même qu'actuellement, et  que cette archi part elle même d'un r600 qui se trouve très bas en terme de perf comparativement au rv770 et au rv870. Tu mets l'indice de perf du r600 à 100, le rv770 à 200 et le rv870 sans doute à 300, sans prendre en compte les X2 ! Ce qui est remarquable en terme d'optimisation et de maturation d'archi.
 
Puis faut pas oublier que malgré un rv770 agressif, AMD ne s'impose pas sur le marché des gpu. Inutile donc de sortir un compétitor à + de 300 euros qui n'intéressera pas grand chose, autant rester dans un gpu économique et tout de même largement assez perf, et se concentrer sur le bas de gamme.

Message cité 1 fois
Message édité par god is dead le 07-05-2009 à 07:39:28

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
mood
Publicité
Posté le 07-05-2009 à 07:29:44  profilanswer
 

n°6948162
Activation
21:9 kill Surround Gaming
Posté le 07-05-2009 à 12:37:20  profilanswer
 

moueh si le R600 est à 100 et le R770 à 200 moi je dirais que le RV870 sera à 278,83  :o

n°6948173
Yoyo_5
Posté le 07-05-2009 à 12:45:34  profilanswer
 

Activation a écrit :

moueh si le R600 est à 100 et le R770 à 200 moi je dirais que le RV870 sera à 278,83  :o


Bha non, 300 c'est mieux, ça ferait toujours 50% de plus que le RV770. :D


---------------
¤ Paix et félicité ¤

n°6948179
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 07-05-2009 à 12:50:05  profilanswer
 

Yoyo_5 a écrit :


Bha non, 300 c'est mieux, ça ferait toujours 50% de plus que le RV770. :D


Non, 278,83 cay plus précis et ça prend en compte le fait que les drivers ne seront pas optimisés au départ.

n°6948187
Yoyo_5
Posté le 07-05-2009 à 12:52:16  profilanswer
 

Ouais mais seulement 38.83% de plus que RV770, ça fait mal au cul je trouve... :o
Non, on dira même 350% ce sera mieux ça fera au moins 75% de mieux que le RV770, là c'est plus intéressant. :)


---------------
¤ Paix et félicité ¤

n°6948229
johndoephe​nix
Posté le 07-05-2009 à 13:18:36  profilanswer
 

L'interet du rv870 est d'avoir des perf mono gpu equivalente au double gpu.
Interressant sur des resolution 1920/2560/3840/5040.

 

Pour se qui est du dx11, je m'en fou royalement.

 

Esperons que le prix/consomation/bruit soit en deça des cartes double gpu.

 

Pour le prix, je doute fort.
Je table pour 430€ qui dis mieux?


Message édité par johndoephenix le 07-05-2009 à 13:20:03

---------------
le présent est votre mais l'avenir m'appartient
n°6948265
Yoyo_5
Posté le 07-05-2009 à 13:41:15  profilanswer
 

300€ :)


---------------
¤ Paix et félicité ¤

n°6948274
bilbo248
Posté le 07-05-2009 à 13:46:23  profilanswer
 

270€ à la sortie un peu comme les 4870 en leur temps ^^
Mais bon je pense que j'attendrai une vrai évolution pour changer de cg..


Message édité par bilbo248 le 07-05-2009 à 13:47:17

---------------
Photographie |--| Stats BDPV - Photovoltaique
n°6948315
Gigathlon
Quad-neurones natif
Posté le 07-05-2009 à 14:16:16  profilanswer
 

god is dead a écrit :

Gigathlon est tjrs très optimiste, il pense qu'il faudrait 300% de perfs en + à chaque nouveau gpu et qu'en plus c'est très facilement faisable :o  
 
Il oublie juste que le "strict minimum" là ce serait qd même environ 80-100 % de perf en +, avec les spec qu'on a.


La fréquence montera peu, la complexité n'aidant pas...
 
Bref, je table bien sur du +100% en utilisation courante, bien plus en DP, et c'est ça le +750%... si ils passent au full DP ça donne +400% de base et ajouter 60% de SP (800 -> 1280 donc) monterait ce bonus à 700%. Permettre 2 traitements SP simultanés par ces unités DP risquerait d'augmenter la complexité, mais sur du MIMD c'est toujours possible et "on a de la place" en 40nm, donc c'est à voir.
 
Le retour du ring bus est également pure spéculation, mais tient compte des observations et propos tenus à la sortie du RV770 ("ça prend de la place et le gain de perfs est faible, ça ne se justifierait qu'à des fréquences très élevées"... oups, la GDDR5 elle s'approcherait pas un pwal de "fréquences très élevées"? [:ddr555] Et le 40nm serait pas limite "trop" dense à voir le RV740 et ses malheureux 137mm²?)
 
Pour les 32 ROPs c'est quasi certain déjà car le rapport ROPs/SP ne peut pas décemment diminuer encore, et elles devraient même être boostées niveau Z-buffer (mais bon, ce défaut date des R500... HSR à la rue faute de perfs du Z-buffer). Aucune difficulté à en augmenter le nombre puisque la RAM travaille en burst avec un prefetch de 8 (soit 256bits par burst pour 1 puce là où la GDDR3 se limitait à la moitié).

Message cité 3 fois
Message édité par Gigathlon le 07-05-2009 à 15:31:23
n°6948509
Fantryt
Posté le 07-05-2009 à 16:52:56  profilanswer
 

Gigathlon a écrit :


La fréquence montera peu, la complexité n'aidant pas...
 
Bref, je table bien sur du +100% en utilisation courante, bien plus en DP, et c'est ça le +750%... si ils passent au full DP ça donne +400% de base et ajouter 60% de SP (800 -> 1280 donc) monterait ce bonus à 700%. Permettre 2 traitements SP simultanés par ces unités DP risquerait d'augmenter la complexité, mais sur du MIMD c'est toujours possible et "on a de la place" en 40nm, donc c'est à voir.
 
Le retour du ring bus est également pure spéculation, mais tient compte des observations et propos tenus à la sortie du RV770 ("ça prend de la place et le gain de perfs est faible, ça ne se justifierait qu'à des fréquences très élevées"... oups, la GDDR5 elle s'approcherait pas un pwal de "fréquences très élevées"? [:ddr555] Et le 40nm serait pas limite "trop" dense à voir le RV740 et ses malheureux 137mm²?)
 
Pour les 32 ROPs c'est quasi certain déjà car le rapport ROPs/SP ne peut pas décemment diminuer encore, et elles devraient même être boostées niveau Z-buffer (mais bon, ce défaut date des R500... HSR à la rue faute de perfs du Z-buffer). Aucune difficulté à en augmenter le nombre puisque la RAM travaille en burst avec un prefetch de 8 (soit 256bits par burst pour 1 puce là où la GDDR3 se limitait à la moitié).


 
God is dead avait bien raison, t'es drôlement optimiste !  :D

mood
Publicité
Posté le 07-05-2009 à 16:52:56  profilanswer
 

n°6948598
Activation
21:9 kill Surround Gaming
Posté le 07-05-2009 à 17:45:40  profilanswer
 

en plus ils ont piqué un génrateur venusien sur un vaisseau qui tiend dans 2cm² si bien que c est la CG qui alimente le PC  
 
 [:hfrbaxter]

n°6948625
Gigathlon
Quad-neurones natif
Posté le 07-05-2009 à 18:13:16  profilanswer
 

Fantryt a écrit :

God is dead avait bien raison, t'es drôlement optimiste !  :D


Note que j'avais bien dit "entre 80 et 750% d'une 4870 en étant prudent" hein :whistle:

n°6948661
Fantryt
Posté le 07-05-2009 à 18:47:56  profilanswer
 

Activation a écrit :

en plus ils ont piqué un génrateur venusien sur un vaisseau qui tiend dans 2cm² si bien que c est la CG qui alimente le PC  
 
 [:hfrbaxter]


C'est pour ça qu'elle aura besoin de 2 ou 3 connecteurs PCIE 8broches, pour fournir le courant à tout le PC !  :lol:

n°6948986
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 08-05-2009 à 00:32:53  profilanswer
 

Gigathlon a écrit :

... Bref, je table bien sur du +100% en utilisation courante, bien plus en DP, et c'est ça le +750%... si ils passent au full DP ça donne +400% de base et ajouter 60% de SP (800 -> 1280 donc) monterait ce bonus à 700%. ...


Petite erreur.
 
La double précision est atteinte en joignant 2 ALU parmis les 5 que contient un des 160 SP.
On peut donc joindre 2 x 2 ALU et utiliser le dernier pour calculer autre chose en simple précision.
La formule est la suivante: 750MHz/s * 10 bloc SIMD * 16 SP * 2 "double FPU" * 1 Flop/cycle par "double FPU".
Résultat: 240 GFlop/s en double précision (ALU #1+2 et ALU #3+#4) + 240 GFlop/s en simple précision (ALU #5)
 
2 calculs en double précision dans chacun des 160 SP = 2/5 ou 40% de la puissance de calcul du RV770 avec soit 1 MUL ou 1 ADD.
Si les 5 ALU d'un SP passe à la double précision on obtient donc +150% de base et non pas 400%.
 
Bien sûr, dans le calcul précédent je ne tient pas compte du fait qu'en simple précision chaque ALU peut faire 1 MUL et 1 ADD simultanément, alors qu'en double précision c'est soit 1 MUL ou 1 ADD. Mais j'imagine que si AMD passe au full double précision, il n'ira pas jusqu'à permettre le MUL+ADD simultanément.
 
Je sais pas si j'ai été asser clair.   :sweat: :p  

n°6949030
marllt2
Posté le 08-05-2009 à 01:40:07  profilanswer
 
n°6949036
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 08-05-2009 à 01:56:36  profilanswer
 

Ouais, j'avais vu ça, mais sa news est tellement pleine de suppositions/rumeurs farfelues qu'elle n'est pas vraiment crédible.
 
"the original RV870 got canceled" ... ouate the phoque ?
 
Si le Lil' Dragon a été cancellé, on doit s'attendre à ce que son sucesseur prenne sa place.
Et ce sucesseur doit nécessairement être plus puissant -> Big Dragon ?
 
Je dis que c'est n'importe quoi.

n°6949047
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 08-05-2009 à 02:26:24  profilanswer
 

nVidia vient de dévoiler ses résultats: Première perte de son histoire !
 
Revenus en baissse de 42% :
2008 -> $1.15 billion  
2009 -> $0.66 billion (C'est quand même 3 fois plus qu'ATi)
 
On constate que les prix plancher pratiqués par AMD a obligé nVidia à gruger sa marge de profit. On voit donc l'avantage d'un petit chip (RV770) versus un monstre (GT200). Maintenant que plusieurs fabriquants ont annoncé des RV790 à 1 GHz, ATi va voir les perfs de sa Radeon HD 4890 égaler, voir même surpasser, celles de la GTX 285, et cela avec un chip pratiquement 2 fois plus petit, et donc 2 fois moins cher à produire.
 
Si le GT300 est encore une puce monstrueuse (et tout porte à croire qu'elle le sera), alors je pense que la stratégie d'ATi va enfin payer, et qu'il reprendra le maillot jaune... jusqu'à ce que nVidia apprenne de ses erreurs.


Message édité par Wirmish le 08-05-2009 à 02:34:45
n°6949071
mikestewar​t
Air Roll Spinnin'
Posté le 08-05-2009 à 06:31:01  profilanswer
 

Le truc bizarre c'est que selon Fud le RV870 ne serait pas une puce DX11 et que finalement ça serait une autre puce, DX11 elle, qui serait lancée un peu plus tard. (nom de code ? j'ai l'impression qu'il y a une confusion sur le nom...)

 

Pour les verts, c'est con. Évidemment y a le contexte, mais la gamme est quand même mal foutue. Des bas et moyen de gamme antiques, un GT200 bien trop cher à produire (le bus 448/512bits des GTX n'aidant en rien...). Heureusement pour eux, même si leurs ingénieurs sont à la rue, la communication et le marketing sont toujours au top, comme d'habitude (avec parfois des méthodes douteuses bien sûr). Ils ont intérêt à ne pas se planter sur leurs futures cartes DX11 en sortant une gamme viable.

 

Clair que la stratégie d'ATI paie par contre.

Message cité 1 fois
Message édité par mikestewart le 08-05-2009 à 06:37:36
n°6949073
alexreunio​n
Posté le 08-05-2009 à 07:08:11  profilanswer
 

Comment vous faites pour aller encore sur ce site de merde qu'est fudzilla?


---------------
Mon feedback
n°6949083
Activation
21:9 kill Surround Gaming
Posté le 08-05-2009 à 08:34:48  profilanswer
 

mikestewart a écrit :

Le truc bizarre c'est que selon Fud le RV870 ne serait pas une puce DX11 et que finalement ça serait une autre puce, DX11 elle, qui serait lancée un peu plus tard. (nom de code ? j'ai l'impression qu'il y a une confusion sur le nom...)
 
Pour les verts, c'est con. Évidemment y a le contexte, mais la gamme est quand même mal foutue. Des bas et moyen de gamme antiques, un GT200 bien trop cher à produire (le bus 448/512bits des GTX n'aidant en rien...). Heureusement pour eux, même si leurs ingénieurs sont à la rue, la communication et le marketing sont toujours au top, comme d'habitude (avec parfois des méthodes douteuses bien sûr). Ils ont intérêt à ne pas se planter sur leurs futures cartes DX11 en sortant une gamme viable.
 
Clair que la stratégie d'ATI paie par contre.


 
d'un autre coté si le patron de nvidia a été rendre visite chez tmsc pour geuler un bon coup
 
ça doit qqpart que les ingenieurs de NV doivent être degouté de pas pouvoir produire ce qu ils voudraient
donc qqpart ça doit pas trop être chez les ingénieurs NV que ça chie, ils sont bien assez compétent pour nous faire une architecture de ouf
 
c est plutot coté mise en production que ça chie pour le moment

Message cité 1 fois
Message édité par Activation le 08-05-2009 à 08:35:26
n°6949200
Largowned
Posté le 08-05-2009 à 10:43:57  profilanswer
 

... Parce-que Nvidia s'est trop reposé sur ses lauriers ces dernières années pour pouvoir produire une petite puce très performante, style RV770.

n°6949258
kaiser52
Posté le 08-05-2009 à 11:21:11  profilanswer
 

Je vois pas en quoi c'est de la faute a nVIDIA la  :o
Leurs cartes sont fonctionnels, c'est juste la façon dont produit TSMC qui fait que ca chie.
 
Je vois pas comment on peut-dire qu'ils se sont reposé sur leur lauriers !
 
Tu connais l'emplois du temps des ingénieures de nVIDIA ?
 


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6949411
Largowned
Posté le 08-05-2009 à 13:11:46  profilanswer
 

Ben, on va pas rejeter la faute sur TSMC hein  :lol:  
 
 
Ils avancent au rythme qu'ils peuvent.. Si Nvidia faisait des puces de taille raisonnable, ils pourraient :  
- avoir des bons yields sur le 55nm (je parle du GT200b...)
- déjà utiliser le 40nm
 

n°6949413
Yoyo_5
Posté le 08-05-2009 à 13:13:54  profilanswer
 

kaiser52 a écrit :

Je vois pas en quoi c'est de la faute a nVIDIA la  :o
Leurs cartes sont fonctionnels, c'est juste la façon dont produit TSMC qui fait que ca chie.

 

Je vois pas comment on peut-dire qu'ils se sont reposé sur leur lauriers !

 

Tu connais l'emplois du temps des ingénieures de nVIDIA ?


+1... [:oxp1700]

 
Largowned a écrit :

Ben, on va pas rejeter la faute sur TSMC hein  :lol:

 


Ils avancent au rythme qu'ils peuvent.. Si Nvidia faisait des puces de taille raisonnable, ils pourraient :
- avoir des bons yields sur le 55nm (je parle du GT200b...)
- déjà utiliser le 40nm


+1²... [:oxp1700]²


Message édité par Yoyo_5 le 08-05-2009 à 13:14:28

---------------
¤ Paix et félicité ¤

n°6949438
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 08-05-2009 à 13:38:43  profilanswer
 

TSMC est le coupable !
Ils sont en fait une division secrète d'AMD !
Et AMD est une division secrète d'Intel qui lui permet de faire croire qu'il n'a pas le monopole mondial des CPU x86 !
Et puis Obama est le fils illégitime d'Hector Ruiz !
Et moi je suis le chef des Illuminati d'amérique !

n°6949498
poiuytr
\o/
Posté le 08-05-2009 à 14:24:02  profilanswer
 

Euh ouais mais en même temps TSMC n'est pas Intel et sortir une puce de grande taille, basée sur une nouvelle archi (GT300) et utilisant un nouveau process de gravure (40 nm), nV doit bien se douter que cela ne se fait pas facilement...
Après si TSMC c'est engagé auprès de nV en affirmant qu'ils étaient capable de faire cela dans les temps, là ok, ils sont en tord.

n°6949665
linkin623
Posté le 08-05-2009 à 16:29:48  profilanswer
 

Wirmish a écrit :


Et moi je suis le chef des Illuminati d'amérique !


 
 
 :ouch: c'est donc toi! :lol:

n°6949736
Fantryt
Posté le 08-05-2009 à 17:13:00  profilanswer
 

Je m'en doutais depuis le début ... il est louche depuis le début, Wirmish  :lol:   :D

n°6949753
alexreunio​n
Posté le 08-05-2009 à 17:34:58  profilanswer
 

Fantryt a écrit :

Je m'en doutais depuis le début ... il est louche depuis le début, Wirmish  :lol:   :D


Vous aviez pas encore compris?  :??:


---------------
Mon feedback
n°6949783
chrisleurn
Hardcore Will Never Die !
Posté le 08-05-2009 à 17:51:59  profilanswer
 

Des petits jeunes qui n'ont pas l'habitude  :o  :o

n°6949787
Fantryt
Posté le 08-05-2009 à 17:53:27  profilanswer
 

chrisleurn a écrit :

Des petits jeunes qui n'ont pas l'habitude  :o  :o


 
Parle pour toi  :o  ;)

n°6949790
chrisleurn
Hardcore Will Never Die !
Posté le 08-05-2009 à 17:54:33  profilanswer
 

Fantryt a écrit :


 
Parle pour toi  :o  ;)


Date d'arrivée sur le forum : 20/11/2008 ;)  :o

n°6949796
Fantryt
Posté le 08-05-2009 à 17:58:35  profilanswer
 

Et ?  :??:

n°6949871
Largowned
Posté le 08-05-2009 à 18:54:48  profilanswer
 

Et il est là depuis largement plus longtemps que toi ;)
 
[HS] Tiens au fait, t'as pas mis ton âge dans ton profil? Je l'estime à 16 ans, ou un truc dans le genre?  :whistle: [/HS]

n°6949874
Fantryt
Posté le 08-05-2009 à 18:56:45  profilanswer
 

Bah ... le fait qu'il soit ici depuis plus longtemps, ça ne change pas grand-chose, au final . Mais ce n'est pas le sujet .
Ensuite, j'ai pas mis mon âge parce que je devais avoir la flemme le jour où je me suis inscrit ...

n°6949912
mikestewar​t
Air Roll Spinnin'
Posté le 08-05-2009 à 19:37:45  profilanswer
 

Activation a écrit :

 

d'un autre coté si le patron de nvidia a été rendre visite chez tmsc pour geuler un bon coup

 

ça doit qqpart que les ingenieurs de NV doivent être degouté de pas pouvoir produire ce qu ils voudraient
donc qqpart ça doit pas trop être chez les ingénieurs NV que ça chie, ils sont bien assez compétent pour nous faire une architecture de ouf

 

c est plutot coté mise en production que ça chie pour le moment

 


kaiser52 a écrit :

Je vois pas en quoi c'est de la faute a nVIDIA la  :o
Leurs cartes sont fonctionnels, c'est juste la façon dont produit TSMC qui fait que ca chie.

 

Je vois pas comment on peut-dire qu'ils se sont reposé sur leur lauriers !

 

Tu connais l'emplois du temps des ingénieures de nVIDIA ?

 


 

Je reformule, ça n'est pas les ingénieurs. C'est cette politique qui consiste à faire des puces énormes comme le GT200. Ils deviennent trop dépendants de leur fondeur. Alors forcement ça râle dès que le fondeur est en retard, problème qui affecte bien moins ATI actuellement. Trop facile de tout mettre sur dos de TSMC. D'ailleurs ça ne réglerait pas le problème du rapport perf/coût, actuellement inférieur, même en 55nm.

 

Sur le bas/moyen de gamme, le problème est différent et Nvidia reste quand même dans l'immobilisme le plus total. Le G92 est sorti en même temps que le RV670 (il y a un an et demi...), le G94 il y a 15 mois...depuis ATI a sorti le RV770, puis le RV730 et enfin le RV740...et Nvidia a répondu à chaque fois avec des mini-modifs de cartes déjà existantes. Pas terrible.

 

Je pense que, contrairement à certains ici, Nvidia est conscient que le problème ne vient pas exclusivement de TSMC (oui, énorme MOTO :o ) et qu'ils vont devoir améliorer leur gamme.

Message cité 2 fois
Message édité par mikestewart le 08-05-2009 à 20:25:07
n°6949918
Profil sup​primé
Posté le 08-05-2009 à 19:43:49  answer
 

faur rappeler que chez ATI ils ont failli faire la même erreur, c'est parce que je ne sais plus quel responsable a gueulé qu'il fallait absolument trouver une solution pour faire un GPU le plus perf possible dans une taille minimum qu'ATI à réussi là ou il en est actuellement, mais il s'en est fallu de peu qu'ils fassent la même bourde que nVidia avec le GT200. Un GPU très performant, mais beaucoup trop gros.


Message édité par Profil supprimé le 08-05-2009 à 19:44:10
n°6949926
big e
Posté le 08-05-2009 à 19:57:42  profilanswer
 

Et pas très efficace finalement. Le plus puissant mais à quel prix?

n°6950041
Largowned
Posté le 08-05-2009 à 22:16:56  profilanswer
 

Gros gros +1 pour mikestewart  :)  
 
@ The real nerz : Effectivement, c'est une des raisons qui ont poussé AMD à concevoir des puces de taille raisonnable (après le fiasco du R600, même si les yields étaient "corrects" avec un 80nm éprouvé), quitte à devoir créer un bi-GPU pour le haut de gamme.

n°6950055
darkorel
Posté le 08-05-2009 à 22:52:38  profilanswer
 

Noel devrait bien se passer pour ati, avec un stock de 5xxx conséquent, des drivers pas dégueux et des tarifs corrects, et bien entendu tout le contraire chez nvidia.

n°6950069
Largowned
Posté le 08-05-2009 à 23:06:05  profilanswer
 

...Sauf les drivers :p (sans rentrer dans un troll bête et méchant)
 

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  33  34  35  ..  820  821  822  823  824  825

Aller à :
Ajouter une réponse
 

Sujets relatifs
Configuration (Intel inside) - Est-elle homogène ?Problème overclock Radeon HD4850
Reboot unique au démarrage... Normal ou pas?Radeon HD4870 ou 50 + C2D E6400 = bon ménage ?
Probleme sortie TV sur Radeon 9500 proATI HD3870 vers 4850-4870 ???
[Topic unique] Aide à la présentation de nouvelles configurations PC[Topic Unique] problèmes sur les G84 et G86 de Nvidia [8400 8600]
Plus de sujets relatifs à : [Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)