Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1433 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  460  461  462  ..  477  478  479  480  481  482
Auteur Sujet :

[Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI

n°5923913
LightKyle
Posté le 02-10-2007 à 14:48:47  profilanswer
 

Reprise du message précédent :
Je trouve toujours pas de HD2400 ou HD2600 avec entrée vidéo.
Ca va jamais exister ou quoi.  [:ryoandr]


---------------
Everyone's dancing furiously! - L'Europe, j'en ai plein les godasses, l'Europe, ça me file la chiasse
mood
Publicité
Posté le 02-10-2007 à 14:48:47  profilanswer
 

n°5924033
ubermario
◕ ‿‿ ◕
Posté le 02-10-2007 à 16:22:03  profilanswer
 

drap' :o


---------------
Ma Golf G60
n°5925190
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 03-10-2007 à 13:22:45  profilanswer
 

:hello:  
 
Pour ceux que ça interesse...
 
http://cgi.ebay.fr/ws/eBayISAPI.dl [...] :IT&ih=015
 
Pas taper hein ? :whistle:


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°5925252
dami1stm
Eco-coco φ
Posté le 03-10-2007 à 13:57:55  profilanswer
 

TheRealObi-One a écrit :

:hello:  
 
Pour ceux que ça interesse...
 
http://cgi.ebay.fr/ws/eBayISAPI.dl [...] :IT&ih=015
 
Pas taper hein ? :whistle:


 
 :lol:  375W rien que pour la carte  [:darcktom]


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5925261
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 03-10-2007 à 14:02:18  profilanswer
 

dami1stm a écrit :


 
 :lol:  375W rien que pour la carte  [:darcktom]


 
C'est vrai une alim 200w suffit... :pfff:  
 
Renseignes toi avant... en full load c'est ce qui faut !!!


---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°5925267
dami1stm
Eco-coco φ
Posté le 03-10-2007 à 14:04:20  profilanswer
 

TheRealObi-One a écrit :


 
C'est vrai une alim 200w suffit... :pfff:  
 
Renseignes toi avant... en full load c'est ce qui faut !!!


 
 
La carte consomme 175W hein, 375w c'est pour la config complète.
 
Sache que Matbe par exemple, ont fait leurs tests de 2900XT avec une Fortron Zen 400W fanless...


---------------
"La liberté d'expression n'a d'ennemis que ceux qui veulent se réserver le droit de tout faire" - "Seems all have gone insane for gold"
n°5925270
aliss
Rhyme the Rhyme Well
Posté le 03-10-2007 à 14:05:23  profilanswer
 

TheRealObi-One a écrit :


 
C'est vrai une alim 200w suffit... :pfff:  
 
Renseignes toi avant... en full load c'est ce qui faut !!!


 
Là ou il veut en venir c'est que 375w c'est pour une config complête et pas juste la carte comme on pourrait l'interprêter sur ton descriptif.
 
Une HD2900XT c'est entre 150 et 160w en load.
 
edit owned par dami :p


Message édité par aliss le 03-10-2007 à 14:06:08
n°5925275
@chewie
Posté le 03-10-2007 à 14:07:42  profilanswer
 

TheRealObi-One a écrit :


 
C'est vrai une alim 200w suffit... :pfff:  
 
Renseignes toi avant... en full load c'est ce qui faut !!!


 
345 watt pour le pc complet, faut apprendre à lire :o

n°5925279
TheRealObi​-One
♥ Maître Jedi du Taunt ♥
Posté le 03-10-2007 à 14:10:25  profilanswer
 

dami1stm a écrit :


 
 
La carte consomme 175W hein, 375w c'est pour la config complète.
 
Sache que Matbe par exemple, ont fait leurs tests de 2900XT avec une Fortron Zen 400W fanless...


 
Je cite Matbe justement :
 
"...En connectant sur la HD2900XT le connecteur à 6 broches et le 8 broches, on arrive donc à un total théorique de 300 watts. Il est très peu probable qu’à ses fréquences d’origine la carte tire autant de courant. Elle pourrait s’approcher des 225 watts..."
 
La pluparts des gars qui achètent ce genre de matos c'est pour l'o/c donc ça tire plus... genre 825/900 comme je faisais hein ! ma 600 S-12 était à la rue avec mon C2D o/c lui aussi...
 
Puis vous pensez ce que vous voulez hein les pros... ;)  ?
 
 

Message cité 1 fois
Message édité par TheRealObi-One le 03-10-2007 à 14:12:50

---------------
(Ex one1504) - [VDS] - Feed - Nostalg33k du PiseptO
n°5925288
aliss
Rhyme the Rhyme Well
Posté le 03-10-2007 à 14:16:10  profilanswer
 

Les 2 connecteurs peuvent tirer jusqu'à 300w théorique, mais celà ne veut pas dire qu'une HD consomme autant,
 
Je cite Tridam dans son test de la HD,
 
Pour le savoir nous avons mesuré la consommation des différentes cartes. Ces données sont obtenues à partir des mesures effectuées à la sortie de la prise de courant : il s’agit donc de la consommation totale de l’alimentation de la machine, ici une Galaxy 850W d'Enermax qui est vous allez le voir très largement surdimensionnée :
 
http://www.hardware.fr/medias/photos_news/00/19/IMG0019957.gif
 
Nécessitant environ 155 watts de puissance au niveau de l’alimentation, la Radeon HD 2900 XT établi donc un triste record. On pouvait toutefois s’attendre à pire étant donné la présence du connecteur 8 broches PCI-E, mais en pratique beaucoup de configurations sauront se contenter d’une bonne alimentation 400 watts capable de fournir 300W sur le +12V.
 
On notera qu'une fois overclockée à 850 Mhz pour le core et 1020 MHz pour la mémoire, la consommation de la configuration grimpe de 21 watts pour atteindre 367 watts. On peut alors estimer que la carte nécessite environ 172w de la part de l’alimentation.

 
http://www.hardware.fr/articles/67 [...] 00-xt.html

mood
Publicité
Posté le 03-10-2007 à 14:16:10  profilanswer
 

n°5926493
marllt2
Posté le 04-10-2007 à 07:35:37  profilanswer
 
n°5926575
marllt2
Posté le 04-10-2007 à 09:55:10  profilanswer
 

Chez fudo, on a atteint un nouveau sommet:  :lol:  

Citation :

HD2950 hits Amazon.com
 
In Stock, at $301  
   
Rousseau is not exactly a well known name in the IT industry, but it looks like it has jumped the gun with its HD2950 products which are already listed on Amazon.com.
 
The price is a bit higher than expected, and at $301 it looks like Rousseau is really looking to cash in on enthusiasts.
 
We were stunned to see the HD2950 in stock and available today, especially since we've never heard of Rousseau before and this just raised our suspicions even further.  
 
The design is a bit strange too, we couldn't even see a PCB, nor any ATI colors and logos for that matter. Just high quality aluminum alloys, with many details painted black and sporting a powder coated finish. We're sure you'll agree that it looks awesome.
 
You check out the some pictures and specs on Amazon, here.


http://www.amazon.com/Rousseau-HD2 [...] B0002YOQMM

Message cité 1 fois
Message édité par marllt2 le 04-10-2007 à 09:56:06
n°5926593
Ript0r
Posté le 04-10-2007 à 10:07:38  profilanswer
 

Bien joué  :lol:

n°5926792
Activation
21:9 kill Surround Gaming
Posté le 04-10-2007 à 12:35:14  profilanswer
 

marllt2 a écrit :

Chez fudo, on a atteint un nouveau sommet:  :lol:  

Citation :

HD2950 hits Amazon.com
 
In Stock, at $301  
   
Rousseau is not exactly a well known name in the IT industry, but it looks like it has jumped the gun with its HD2950 products which are already listed on Amazon.com.
 
The price is a bit higher than expected, and at $301 it looks like Rousseau is really looking to cash in on enthusiasts.
 
We were stunned to see the HD2950 in stock and available today, especially since we've never heard of Rousseau before and this just raised our suspicions even further.  
 
The design is a bit strange too, we couldn't even see a PCB, nor any ATI colors and logos for that matter. Just high quality aluminum alloys, with many details painted black and sporting a powder coated finish. We're sure you'll agree that it looks awesome.
 
You check out the some pictures and specs on Amazon, here.


http://www.amazon.com/Rousseau-HD2 [...] B0002YOQMM


 
trop bruyante  :o

n°5927006
toto le su​per hero
Your life is just a choice
Posté le 04-10-2007 à 14:53:34  profilanswer
 

Activation a écrit :


 
trop bruyante  :o


 
et surtout, elle rentre pas dans mon boitier, pourtant c'est pas un petit !

n°5927086
kaiser52
Posté le 04-10-2007 à 16:09:59  profilanswer
 

Citation :


.....
Bien entendu, les jeux Valve ne seront pas de la partie, ce que certains regretteront, et la gestion du ventilateur est malheureusement pire que celle de la XT, mais ceux dont le budget est limité pourront certainement s'en contenter.


 
Source
 
Seul point un peu obscure actuelement  :jap:


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°5927096
Ript0r
Posté le 04-10-2007 à 16:19:51  profilanswer
 

Wé mais c'est pour la 2900pro ça, pas pour le RV670

n°5927192
ubermario
◕ ‿‿ ◕
Posté le 04-10-2007 à 17:25:38  profilanswer
 

TheRealObi-One a écrit :


 
Je cite Matbe justement :
 
"...En connectant sur la HD2900XT le connecteur à 6 broches et le 8 broches, on arrive donc à un total théorique de 300 watts. Il est très peu probable qu’à ses fréquences d’origine la carte tire autant de courant. Elle pourrait s’approcher des 225 watts..."
 
La pluparts des gars qui achètent ce genre de matos c'est pour l'o/c donc ça tire plus... genre 825/900 comme je faisais hein ! ma 600 S-12 était à la rue avec mon C2D o/c lui aussi...
 
Puis vous pensez ce que vous voulez hein les pros... ;)  ?
 
 


Je cite mon wattmètre (enfin, plutôt celui d'un pote :D) :
Pareil, seasonic s-12 600, 2900xt et Q6600 clocké...
 
Sous atitool en scan artefacts  occt sur les 4 cores :
 
Idle Q6600 @ 3.2ghz et 2900xt @ stock --> 230-250W
Load --> +/- 350W :|
Bizarre, non? :)
 
Et autrement, plus conventionnel, classique -->
Q6600 @ 3.6ghz 1.36v
Idle --> 330W
Load --> 425-450 maxi avec 2900xt @ 875-1050
 
 
Et le max du max que j'ai réussi à tirer de ma seasonic :
Q6600 @ 4ghz 1.68v (il tient avec moins mais chauffe comme un sac) et 2900xt @ 880/1050
Idle --> 560W environ
Load --> 730W :D
Mais à cela vous retirez l'écran qui pompe plus ou moins 50W à lui tout seul :)
 
 
Surpris? Normal ;)


---------------
Ma Golf G60
n°5927201
Cizia
Posté le 04-10-2007 à 17:31:07  profilanswer
 

alors moi,avec mon e4300:3370mhz et 1.54v-1dd-2 reobus-1 dvd-2*1024-une paire de 12cm et un 25cm tout ca avec ma hiper type r 580w:ca irat une x2900 pro oc?

Message cité 1 fois
Message édité par Cizia le 04-10-2007 à 17:31:16

---------------

n°5927202
Profil sup​primé
Posté le 04-10-2007 à 17:31:26  answer
 

Ript0r a écrit :

Wé mais c'est pour la 2900pro ça, pas pour le RV670

Le rêve :love:
 

n°5927211
ubermario
◕ ‿‿ ◕
Posté le 04-10-2007 à 17:35:09  profilanswer
 

Cizia a écrit :

alors moi,avec mon e4300:3370mhz et 1.54v-1dd-2 reobus-1 dvd-2*1024-une paire de 12cm et un 25cm tout ca avec ma hiper type r 580w:ca irat une x2900 pro oc?


Logiquement, oui :)
 
C'est clair qu'avec une heden 480 ca passeras pas, mais une bonne fortron 400w suffirait même largement pour tout ca, même plus :)


---------------
Ma Golf G60
n°5929392
Activation
21:9 kill Surround Gaming
Posté le 05-10-2007 à 22:35:27  profilanswer
 

un crossfire de hd2950pro (rv670 donc) ça va couter la meme chose qu 1 geforce 8800gtx vous pensez ?


Message édité par Activation le 05-10-2007 à 22:36:06
n°5931165
marllt2
Posté le 07-10-2007 à 02:22:50  profilanswer
 

Aux dernières nouvelles, il y aura bien 2 versions du RV670: Pro (simple sot) et XT (double slot).
 
http://www.puissance-pc.net/images/stories/_cm-cpu-ram/machinecrossfire.jpg
 
http://www.puissance-pc.net/index. [...] str%E9%21+
 
Côté perfs, mois je dis qu'on va être surpris. [:cosmoschtroumpf]

n°5931196
marllt2
Posté le 07-10-2007 à 04:36:12  profilanswer
 

http://resources.vr-zone.com//newspics/Oct07/05/R680.jpg
 
http://www.vr-zone.com/?i=5325
 

Citation :

VR-Zone has got hold of a presentation slide recently that gave some clues that R680 is a dual GPU (RV670 slide shows only one GPU pic). Our good buddy, CJ told us R680 is indeed a dual RV670 solution and is 1.5X faster than a Radeon HD 2900 XT in Crossfire

 :ouch:

n°5931265
asmomo
Modérateur
Posté le 07-10-2007 à 10:13:18  profilanswer
 

Mmh, enfin si c'est vraiment ça, c'est la grosse cata...


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5931283
Strat_84
Posté le 07-10-2007 à 10:41:22  profilanswer
 

C'est clair, s'ils commencent à faire uniquement du multi-GPU pour augmenter la puissance, ça va finir en 3Dfx cette histoire ...  :sweat:

n°5931300
marllt2
Posté le 07-10-2007 à 11:06:24  profilanswer
 

asmomo a écrit :

Mmh, enfin si c'est vraiment ça, c'est la grosse cata...


Heu, nVidia a fait pareil avec la 7950GX2. :whistle:

n°5931317
asmomo
Modérateur
Posté le 07-10-2007 à 11:19:08  profilanswer
 

Oui, mais c'était une carte marginale, la 7900GTX était là, au top.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5931640
lolotwingo
NCC-1701
Posté le 07-10-2007 à 15:19:29  profilanswer
 

Le gpu n'echappera pas à la même tendance que le processeur (2,4,8,... coeurs).
Tout depend après comment c'est foutu, aujourd'hui le sli/crossfire et le bi-gpu tel qu'on le connait (qu'est pas vraiment diffrent d'un sli/crossfire) est mal fichu, c'est le driver (je crois) qui dispatche le boulot sur deux entités complètes (core+ram+controlleurs+etc) mais séparées, ca ne peut pas être pleinement efficaces.
 
Pour faire une analogie simplifiant à l'extrème :  
 
Aujourd'hui le sli/crossfire/carte bi-gpu : c'est une carte mère bi processeur (=la carte gfx) avec deux processeurs (2 r600/g80), voire deux carte mère mono proc en réseau  [:tinostar]  
 
Demain ca sera une carte mère mono processeur (la carte gfx) avec un seul processeur dual-core (chaque coeur étant un r600/g80 remanié)
 
Dans le deuxième cas on peut être infiniment plus efficace. En remaniant le coeur gpu bien sûr, mais globalement l'archi de ce gpu reste la même, on parle donc quand même de bi-r600/g80, même si le core n'est pas tout a fait un "vrai" r600/g80
 
=> Si les bi-core qui arrivent sont de la deuxième mouture, je trouve ca au contraire bon signe, ca risque de bien mieux fonctionner que du sli/crossfire, et inaugure le vraie multi-coeur sur gpu, ce qui est bien plus profitable que sur un processeur puisque les calculs 3D sont par définition massivement parallèles.


Message édité par lolotwingo le 07-10-2007 à 15:21:55

---------------
Path Of Exile addicted | LG K11 | BeQuiet! 500DX, Corsair RM850x, Gigabyte B550M DS3H, Ryzen 5 3600 @stock, 2x16Go Corsair Vengeance LPX 3200, Nvidia 3060TI Founders Edition
n°5931991
ubermario
◕ ‿‿ ◕
Posté le 07-10-2007 à 19:42:44  profilanswer
 

asmomo a écrit :

Oui, mais c'était une carte marginale, la 7900GTX était là, au top.


Euh, la gx2 est la plus puissante des séries 7, à elle seule elle était presque 2 fois plus puissante qu'une simple 7900gtx :D
Du moins, pile 2*7900gt quand il n'y avait pas de problèmes de drivers...


---------------
Ma Golf G60
n°5932002
Profil sup​primé
Posté le 07-10-2007 à 19:47:38  answer
 

ubermario a écrit :


Euh, la gx2 est la plus puissante des séries 7, à elle seule elle était presque 2 fois plus puissante qu'une simple 7900gtx :D
Du moins, pile 2*7900gt quand il n'y avait pas de problèmes de drivers...

[:al zheimer]  

n°5932183
chinoisurf​er
the liberty
Posté le 07-10-2007 à 21:17:59  profilanswer
 

ubermario a écrit :


Euh, la gx2 est la plus puissante des séries 7, à elle seule elle était presque 2 fois plus puissante qu'une simple 7900gtx :D
Du moins, pile 2*7900gt quand il n'y avait pas de problèmes de drivers...


 
 
malheureusement quand les drivers etaient pas optimisé pour cette carte et ben dans les jeux elle avait juste les perfs d'une 7900 gt ;)  
donc bon.

n°5932195
thehacker2​5
Posté le 07-10-2007 à 21:35:30  profilanswer
 

chinoisurfer a écrit :


 
 
malheureusement quand les drivers etaient pas optimisé pour cette carte et ben dans les jeux elle avait juste les perfs d'une 7900 gt ;)  
donc bon.


Et c'était malheureusement le cas dans 2/3 des jeux. :/

n°5932204
Profil sup​primé
Posté le 07-10-2007 à 21:41:27  answer
 

D'ou mon "lol"
Parce que une X1950 XT était beaucoup plus perf dans les 9/10 des jeux :spamafote:

n°5932250
ubermario
◕ ‿‿ ◕
Posté le 07-10-2007 à 22:15:11  profilanswer
 

chinoisurfer a écrit :


 
 
malheureusement quand les drivers etaient pas optimisé pour cette carte et ben dans les jeux elle avait juste les perfs d'une 7900 gt ;)  
donc bon.


Nope, il fallait juste rêgler els pilotes correctement, et tous les jeux sans exceptions fonctionnaient sur les 2 gpu ^^
 
A part quelques exceptions près bien sûr :o


---------------
Ma Golf G60
n°5932267
sasuke87
Posté le 07-10-2007 à 22:33:37  profilanswer
 

asmomo a écrit :

Oui, mais c'était une carte marginale, la 7900GTX était là, au top.


 
le hic c'est qu'elle était un peu juste pour faire face aux x1900xt(x) au fur et à mesure qu'ATI maîtrisait ses drivers. Donc cette GX2 était là pour donner un peu d'air à nvidia en attendant les Gf 8 (pari réussi au passage  :D )

n°5932277
asmomo
Modérateur
Posté le 07-10-2007 à 22:41:13  profilanswer
 

ubermario a écrit :

Euh, la gx2 est la plus puissante des séries 7, à elle seule elle était presque 2 fois plus puissante qu'une simple 7900gtx :D
Du moins, pile 2*7900gt quand il n'y avait pas de problèmes de drivers...


 
Déjà c'est faux, mais de toute façon tu n'as pas compris ce que je disais : la GX2 n'est pas sortie pour reprendre le leadership par rapport à ATI, elle est juste sortie parce qu'nvidia voulait se faire plaisir, se la "péter" avec le quad SLI, etc. C'était + de l'esbrouffe qu'autre chose.
 
Si ATI se retrouve OBLIGE de faire une carte bi-GPU pour lutter contre une mono-GPU d'nvidia, c'est très différent, et très mauvais.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5932285
asmomo
Modérateur
Posté le 07-10-2007 à 22:44:21  profilanswer
 

sasuke87 a écrit :

le hic c'est qu'elle était un peu juste pour faire face aux x1900xt(x) au fur et à mesure qu'ATI maîtrisait ses drivers. Donc cette GX2 était là pour donner un peu d'air à nvidia en attendant les Gf 8 (pari réussi au passage  :D )


 
Bof, c'était kif kif, avec chacun des points forts et faibles. Et puis c'est très dur de faire du marketing sur "au bout de 6 mois nos drivers nous permettent de passer devant l'autre".
 
La série GF7 était déjà un succès depuis longtemps.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°5932292
sasuke87
Posté le 07-10-2007 à 22:47:07  profilanswer
 

asmomo a écrit :


 
Déjà c'est faux, mais de toute façon tu n'as pas compris ce que je disais : la GX2 n'est pas sortie pour reprendre le leadership par rapport à ATI, elle est juste sortie parce qu'nvidia voulait se faire plaisir, se la "péter" avec le quad SLI, etc. C'était + de l'esbrouffe qu'autre chose.
 
Si ATI se retrouve OBLIGE de faire une carte bi-GPU pour lutter contre une mono-GPU d'nvidia, c'est très différent, et très mauvais.


 
ben si justement, même si c'était moins évident qu'actuellement, nvidia sentait bien que son archi devenait de plus en plus faiblard par rapport au r580... heureusement les gf 7 consommait assez peu, donc faire du bi-gpu était "facilement" réalisable. D'ailleurs on dirait que nvidia semble aller dans la même direction en attendant le G100.

n°5932293
ubermario
◕ ‿‿ ◕
Posté le 07-10-2007 à 22:47:50  profilanswer
 

asmomo a écrit :


 
Déjà c'est faux, mais de toute façon tu n'as pas compris ce que je disais : la GX2 n'est pas sortie pour reprendre le leadership par rapport à ATI, elle est juste sortie parce qu'nvidia voulait se faire plaisir, se la "péter" avec le quad SLI, etc. C'était + de l'esbrouffe qu'autre chose.
 
Si ATI se retrouve OBLIGE de faire une carte bi-GPU pour lutter contre une mono-GPU d'nvidia, c'est très différent, et très mauvais.


Qu'est-ce qui est faux dans ce que j'ai dit? :)


---------------
Ma Golf G60
n°5932303
sasuke87
Posté le 07-10-2007 à 22:54:32  profilanswer
 

asmomo a écrit :


 
Bof, c'était kif kif, avec chacun des points forts et faibles. Et puis c'est très dur de faire du marketing sur "au bout de 6 mois nos drivers nous permettent de passer devant l'autre".
 
La série GF7 était déjà un succès depuis longtemps.


 
à la sortie de la Geforce 7 GTX s'était effectivement kif kif, mais à peine 3 mois plus tard le R580 prenait déjà de l'avance avec filtres et se comportait mieux sur les jeux "lourds". La GX2 n'était pas forcément nécessaire mais tout de même utile pour nvidia.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  460  461  462  ..  477  478  479  480  481  482

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topic Unique] Seasonic M12 / La "M12II" est là !! Nouveau SondageVotre avis -> GeForce 7600 GT + AMD DUAL CORE X2 3800+
Questions fréquence CPU AMD / IntelAti 9700pro HS, par quoi la remplacer ?
passage à AMDje ve savoire une chose avec une carte ATI
Ati depasser les 75 hzPate thermique sur AMD 3800+ x2 -> Origine ou autre ?
Problème ralentissements ATI Radeon 9550 [résolu]Pilotes ATI
Plus de sujets relatifs à : [Topic Unique] R600 - RV630/RV640 : la solution DX10 de AMD / ATI


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR