Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3694 connectés 

 

 

Laquelle pour vous interesse ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  502  503  504  ..  1325  1326  1327  1328  1329  1330
Auteur Sujet :

[Topic Unique] ATI Radeon 4800 Series (RV770 inside)

n°6492543
nans'
Posté le 14-07-2008 à 12:51:10  profilanswer
 

Reprise du message précédent :
SLI de 9800GTX XXX aussi perfs que le SLI de GTX 280 ? :??:
 
C'est possible ca  ?
 
Sinon Crysis aime le caméleon vert, donc bon ... :sweat:

mood
Publicité
Posté le 14-07-2008 à 12:51:10  profilanswer
 

n°6492551
twain2
Posté le 14-07-2008 à 12:53:08  profilanswer
 

car le sli es bc moins bien que le cf il es tres mal obtimiser

n°6492556
Profil sup​primé
Posté le 14-07-2008 à 12:55:14  answer
 

http://images.anandtech.com/reviews/video/ati/4850/amd3.png
 
4850    => 200$ = 140 euros
4870    => 300$ = 210 euros
4870X2 => 500$ = 350 euros ???

Message cité 1 fois
Message édité par Profil supprimé le 14-07-2008 à 12:56:19
n°6492557
kaiser52
Posté le 14-07-2008 à 12:55:23  profilanswer
 

sasuke87 a écrit :


 
pour pas gâcher la fête  :o  
 
non mais plus sérieusement le SLI GTX260 est pas trop comparable parce qu'il faut absolument un chipset de m**** de nvidia et qu'en plus les GTX260 sont plus chers.


 
Ouai mais ils comparent bien à un SLI de GTX280... plus chere qu'un SLI de GTX260.
Et ce n'est pas vraiment à prendre en compte, vue la faible différence entre un SLI de GTX280 et un SLI de 9800GTX XXX.
Je préfère attendre avec des vrai pilotes pour le SLI, y'à quand même + de 40% de différence entre ces deux cartes en mono, et l'écart est réduit à 0 voir dans les négatifs en solution multi GPU  ??
problème en vue ^^.


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°6492586
sasuke87
Posté le 14-07-2008 à 13:19:34  profilanswer
 

kaiser52 a écrit :


 
Ouai mais ils comparent bien à un SLI de GTX280... plus chere qu'un SLI de GTX260.
Et ce n'est pas vraiment à prendre en compte, vue la faible différence entre un SLI de GTX280 et un SLI de 9800GTX XXX.
Je préfère attendre avec des vrai pilotes pour le SLI, y'à quand même + de 40% de différence entre ces deux cartes en mono, et l'écart est réduit à 0 voir dans les négatifs en solution multi GPU  ??
problème en vue ^^.


 
Quand tu prends un SLI de GTX280, tu n'as aucune contraintes budgétaires, donc le prix de la mobo SLI ne te cause aucun problème. Ce n'est pas le cas avec un SLI de GTX260, qui lui a des contraintes budgétaires et n'est pas capable de lutter face à l'offre d'ATI.
 
(ceci ressemble à un troll mais n'en est pas un  :D )

n°6492589
OutCast2
Posté le 14-07-2008 à 13:21:23  profilanswer
 

ou sont les bios 4870 merci

n°6492600
flagadadim
harley quinn fanboy
Posté le 14-07-2008 à 13:25:36  profilanswer
 

OutCast2 a écrit :

ou sont les bios 4870 merci


 
http://www.techpowerup.com/vgabios [...] &memSize=0


---------------
« Quand j'étais jeune, j'étais très con. Je suis resté très jeune. »Jean-Claude Van Damme
n°6492613
aliss
Rhyme the Rhyme Well
Posté le 14-07-2008 à 13:43:34  profilanswer
 

god is dead a écrit :


Ajouté à cela la conso de dingue et la chauffe, ce sont aussi des défauts  :whistle:  
 
Du jamais vu ? C'est du X2 like. Bref, une solution super perf, super gourmande en tout et tout de même chère, donc réservée à un public avertit. Après c'est la solution la plus puissante du moment, réservée aux écrans 30 pouces. De là à être "ébloui"... SLI, CrossFire, X2, GX2 tout ça c'est pas éblouissant à mes yeux au vue de tous les désagréments.
 
La HD 4850, sans sa conso idle toute naze sans doute corrigée via drivers, c'est du "jamais vu" de part son placement tarifaire agressif, ses perf, sa conso maitrisée en full et sa capacité d'o/c. La X2 ça reste du lourd à tous les niveaux et somme toutes du classique (je fous 2 gpu en cf/sli et voilà j'ai un super haut de gamme qui pompe/chauffe un max). Mais c'est bien connu, dés que tu veux jouer sur un 30" à fond tu n'as pas trop de choix.


 
Heu God, tu devrais relire mes posts précédents, je ne parlais pas des perfs mais d'une conso battant des records pour une carte graphique, je n'ai jamais été emballé par les cartes multigpu jusqu'à présent :o  

n°6492614
PyreOfGods
Posté le 14-07-2008 à 13:44:20  profilanswer
 

zwigfox a écrit :

Les perfs sont hallucinantes ! Ati est arrivé à une grande maitrise du multi-gpu quand on compare 4870 contre 4870x2 et 48702x contre cross-fire.  
 
Quand à la question de clubic : "on pourra légitimement se demander si technologiquement AMD n'a pas un souci puisque le fondeur doit réunir sur une même carte deux puces afin de faire mieux que son concurrent direct NVIDIA.", il faudrait comparer le cout de production et de recherche & développement entre les deux puces, pour se rendre compte du choix d'Ati, mais c'est deja un pari largement gagné.


 
Ce sont en effet deux stratégies différentes. Celle d'Ati semble payer.

n°6492628
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 14-07-2008 à 13:55:12  profilanswer
 

Bon ben je crois que c'est plié, je vais m'offrir cet engin, la 4870X2.
 
Sinon cette histoire de mémoire partagée (ou pas), ça a quelle conséquence ?
 
Et on dirait bien que le displayport est absent. Vous pensez qu'une marque peut décider de sortir la carte avec un connecteur displayport ?


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
mood
Publicité
Posté le 14-07-2008 à 13:55:12  profilanswer
 

n°6492632
PyreOfGods
Posté le 14-07-2008 à 13:56:34  profilanswer
 

En tous cas la carte a des perfs hallucinantes.

n°6492640
- gab
Posté le 14-07-2008 à 14:02:46  profilanswer
 


Ca me paraît un poil optimiste... d'autant plus qu'il est indiqué "500+" et pas "500" ;)


Message édité par - gab le 14-07-2008 à 14:04:46
n°6492647
aliss
Rhyme the Rhyme Well
Posté le 14-07-2008 à 14:06:58  profilanswer
 

PyreOfGods a écrit :

En tous cas la carte a des perfs hallucinantes.


 
Un peu moins lorsque l'on regarde les fps minimum.  ;)  
 
http://www.driverheaven.net/review [...] 8&pageid=3

n°6492653
Fssabbagh
Satsui no Hado
Posté le 14-07-2008 à 14:09:47  profilanswer
 

des perfs de oufs oui mais 91° en charge. Pour le bruit perso je m'en contrefiche vu que c'est qu'en charge mais qu'est-ce que ça chauffe grave :pt1cable:


---------------
Messatsu !
n°6492660
vanhoenack​er
Posté le 14-07-2008 à 14:12:45  profilanswer
 

aliss a écrit :


Un peu moins lorsque l'on regarde les fps minimum.  ;)  
http://www.driverheaven.net/review [...] 8&pageid=3


ça a toujours été un souci, min et max FPS ne veulent pas dire grand chose : si les FPS min et max correspondent à une image sur toute la durée du test, pour moi ça ne vaut rien ni en min ni en max  :jap:  


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°6492664
nans'
Posté le 14-07-2008 à 14:13:31  profilanswer
 

Fssabbagh a écrit :

des perfs de oufs oui mais 91° en charge. Pour le bruit perso je m'en contrefiche vu que c'est qu'en charge mais qu'est-ce que ça chauffe grave :pt1cable:


 

Spoiler :

Tfacon toi tu supporte des Slipstream @ 1900trs, rien que ca c'est inhumain :o  :lol:  


 
Ca parait raisonnable je pense 91°C en full vu les autres HD48x0 atteingnent très facilement 100°C tout à stock dans un boitier moyennement ventilés. Mais les cartes sont conçues pour de toute façon.
 
Au fait ca existe pas des ventirad pour le BiGPU sur un seul PCB (comme la HD3870X2 ?) ou si on veut bien refroidir faut direct prendre le watercooling et le waterblock adapté qui coûte 100€+ ? :sweat:

n°6492680
Dakans
pouet pouet
Posté le 14-07-2008 à 14:26:49  profilanswer
 

roscocoltran a écrit :

Et on dirait bien que le displayport est absent. Vous pensez qu'une marque peut décider de sortir la carte avec un connecteur displayport ?

ça je pense que tu peut encore attendre un moment avant de voir débarquer des CG avec cette connectique
suffit de ce rappeler le long chemin parcouru avant de voir des CG équipé de 2 DVI-I Dual Link en standard


---------------
Mieux vaut se taire et passer pour un con que de l'ouvrir et ne laisser aucun doute sur le sujet. (Coluche)
n°6492687
roscocoltr​an
L'enfer c'est les utilisateurs
Posté le 14-07-2008 à 14:31:00  profilanswer
 

Dakans a écrit :

ça je pense que tu peut encore attendre un moment avant de voir débarquer des CG avec cette connectique
suffit de ce rappeler le long chemin parcouru avant de voir des CG équipé de 2 DVI-I Dual Link en standard


 
bon mais là c'est du haut de game. Ca peut se justifier, ça pilote forcément des gros écrans. Sur une carte à 50€ ok, mais sur une carte à 500€ ils pourraient proposer le displayport!


---------------
"Your god is too small", Giordano Bruno, 1548 - 1600
n°6492693
aliss
Rhyme the Rhyme Well
Posté le 14-07-2008 à 14:34:15  profilanswer
 

vanhoenacker a écrit :


ça a toujours été un souci, min et max FPS ne veulent pas dire grand chose : si les FPS min et max correspondent à une image sur toute la durée du test, pour moi ça ne vaut rien ni en min ni en max  :jap:  


 
Si tu le dis...Personnellement après être passé par de l'xfire et du sli c'est bel et bien dans les scènes les plus lourdes d'un titre que ces solutions perdent de leur splendeur et c'est fort dommage car c'est justement là ou le gain de puissance théorique du multigpu devrait être utile.  ;)  

n°6492706
vanhoenack​er
Posté le 14-07-2008 à 14:45:39  profilanswer
 

aliss a écrit :


Si tu le dis...Personnellement après être passé par de l'xfire et du sli c'est bel et bien dans les scènes les plus lourdes d'un titre que ces solutions perdent de leur splendeur et c'est fort dommage car c'est justement là ou le gain de puissance théorique du multigpu devrait être utile.  ;)  


ne me fais pas dire ce que je n'ai pas dit, je parle de comparaison dans les tests, si dans un jeu tu es une fois à 130FPS et le reste du temps à 30FPS, je préfere être à 40FPS  presque en permanence et seulement  à 80FPS max
Dans ce cas certains diront que 130FPS max c'est bien meilleur que 80FPSmax, pas pour moi, c'est juste un exemple, tu peux tenir le même raisonnement pour le FPS min  :jap:  


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°6492711
Profil sup​primé
Posté le 14-07-2008 à 14:48:59  answer
 

vanhoenacker a écrit :

ne me fais pas dire ce que je n'ai pas dit, je parle de comparaison dans les tests, si dans un jeu tu es une fois à 130FPS et le reste du temps à 30FPS, je préfere être à 40FPS  presque en permanence et seulement  à 80FPS max
Dans ce cas certains diront que 130FPS max c'est bien meilleur que 80FPSmax, pas pour moi, c'est juste un exemple, tu peux tenir le même raisonnement pour le FPS min  :jap:


Ce n'est pas un argument
Juste une supposition
Ou n'importe quoi, au choix :d
La logique seule compte
Le minimum est proportionnel au maximum, sur une séquence donnée, einh :whistle:

n°6492729
vanhoenack​er
Posté le 14-07-2008 à 15:04:34  profilanswer
 


tu as sans doute raison, je n'ai jamais vu, ou j'ai mal cherché, dans un test un graphique avec la durée par FPS et c'est dommage  :jap:

Message cité 1 fois
Message édité par vanhoenacker le 14-07-2008 à 15:05:36

---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°6492732
PyreOfGods
Posté le 14-07-2008 à 15:06:58  profilanswer
 

vanhoenacker a écrit :


ça a toujours été un souci, min et max FPS ne veulent pas dire grand chose : si les FPS min et max correspondent à une image sur toute la durée du test, pour moi ça ne vaut rien ni en min ni en max  :jap:  


 
ouaip d'acc c'est vrai qu'en FPS min ça baisse mais bon, l'important c'est que les FPS min soient au dessus de 25 FPS et que l'average soit bon AMHA

n°6492763
Mad Pat
Beaux nénés, bonne sans thé !
Posté le 14-07-2008 à 15:21:20  profilanswer
 

vanhoenacker a écrit :


tu as sans doute raison, je n'ai jamais vu, ou j'ai mal cherché, dans un test un graphique avec la durée par FPS et c'est dommage  :jap:


Hardocp ;)


---------------
[VDS] Rien | [VDS] ThinkPad E320
n°6492772
vanhoenack​er
Posté le 14-07-2008 à 15:26:09  profilanswer
 
n°6492804
overclockp​ro
Posté le 14-07-2008 à 15:37:49  profilanswer
 

Mais attention : Hardocp ont une méthodologie douteuse (test avec fraps -> erreur importante). De plus, sur les sites américains, il est reconnu que le site est pro-Nvidia.

n°6492825
Profil sup​primé
Posté le 14-07-2008 à 15:49:19  answer
 

overclockpro a écrit :

Mais attention : Hardocp ont une méthodologie douteuse (test avec fraps -> erreur importante). De plus, sur les sites américains, il est reconnu que le site est pro-Nvidia.


Et allez, les légendes encore & toujours :/

n°6492880
Gege498
Posté le 14-07-2008 à 16:23:19  profilanswer
 

Salut à tous,
 
Est-ce normal que sous sous Call of Duty 4 j'ai des gros plantages dès que j'overclock ma GPU Clock (sans toucher à la mémoire) au dessus de 680Mhz ?
Je pense que ça ne l'est pas, est-ce possible que je sois tombé sur une mauvaise carte ?
Merci.

n°6492888
vanhoenack​er
Posté le 14-07-2008 à 16:26:47  profilanswer
 


j'ai ce que je voulais, mais tu aurais pu en parler BIERMAN, puisque tu connais.
je ne connaissais pas, j'ai appris quelque chose  :)  


---------------
http://forum.hardware.fr/hfr/Achat [...] 7705_1.htm http://www.flickr.com/photos/vanhoenacker/
n°6492890
Prophet_ch
Posté le 14-07-2008 à 16:29:34  profilanswer
 

Est-ce qqun sait si de prochains drivers permettront aux 4850/4870 de consommer moins en idle ?
Vu qu'il ne s'agit que d'un problème de fréquences on dirait...

n°6492955
Mad Pat
Beaux nénés, bonne sans thé !
Posté le 14-07-2008 à 17:11:22  profilanswer
 

overclockpro a écrit :

Mais attention : Hardocp ont une méthodologie douteuse (test avec fraps -> erreur importante). De plus, sur les sites américains, il est reconnu que le site est pro-Nvidia.


En même temps, il n'y a pas 36 solutions si tu veux un graphe des fps dans le temps [:mrbrelle] et c'est pas l'utilisation de ressources par fraps qui va influer radicalement sur le résultat du bench...


---------------
[VDS] Rien | [VDS] ThinkPad E320
n°6492958
cassoux
Posté le 14-07-2008 à 17:12:21  profilanswer
 

overclockpro a écrit :

Mais attention : Hardocp ont une méthodologie douteuse (test avec fraps -> erreur importante). De plus, sur les sites américains, il est reconnu que le site est pro-Nvidia.


Il est où le pb avec Fraps ?


---------------
\|/A/V\|/FeedBack\|/\|/Ebay\|/\|/
n°6492966
overclockp​ro
Posté le 14-07-2008 à 17:21:06  profilanswer
 

cassoux a écrit :


Il est où le pb avec Fraps ?


 
Ce n'est pas Fraps qui pose problème, c'est  l'erreur importante, inhérente à la méthodologie : http://www.digit-life.com/articles [...] s2-p1.html
 
Quand tu as 10 à 15 % d'erreur avec ce type de test, tu as un regard critique sur la majorité des reviews de cartes graphiques.

n°6492968
Mad Pat
Beaux nénés, bonne sans thé !
Posté le 14-07-2008 à 17:24:43  profilanswer
 

Dans ce cas, il faudrait faire une moyenne de plusieurs mesures avec fraps...


---------------
[VDS] Rien | [VDS] ThinkPad E320
n°6493001
overclockp​ro
Posté le 14-07-2008 à 17:50:48  profilanswer
 

Mad Pat a écrit :

Dans ce cas, il faudrait faire une moyenne de plusieurs mesures avec fraps...


 
Oui, c'est ce que l'article préconise. Mais quand tu as 10 - 15 % d'erreur, même faire 5 mesures va peu diminuer l'erreur. Sans compter la perte de temps, la difficulté de reproduire à l'identique le même chemin, surtout après des centaines de tests (plusieurs cartes graphiques, à plusieurs résolutions sur plusieurs jeux, répétés 5 fois pour chaque) -> la seule méthodolgie fiable et reproductible, c'est une séquence enregistrée que tu lances pour chaque test. Le problème, c'est que benchmarks sont parfois optimisés par ATI et nvidia ce qui fausse la jouabilité réelle.
 
Mais à choisir entre les 2, je préfère la seconde solution : aucun biais, erreur extrêmement réduite, reproductibilité...
 
HardOCP, en plus d'utiliser FRAPS, ne fournit pas leur séquence de test sur chaque jeu, ce qui permettrait de vérifier leurs dires.

Message cité 2 fois
Message édité par overclockpro le 14-07-2008 à 17:51:20
n°6493008
Gege498
Posté le 14-07-2008 à 17:55:43  profilanswer
 

Salut les gars,
j'ai posté un problème avec ma HD4850 à part:
http://forum.hardware.fr/hfr/Hardw [...] 9391_1.htm

n°6493011
alexreunio​n
Posté le 14-07-2008 à 17:57:45  profilanswer
 

overclockpro a écrit :


 
Oui, c'est ce que l'article préconise. Mais quand tu as 10 - 15 % d'erreur, même faire 5 mesures va peu diminuer l'erreur. Sans compter la perte de temps, la difficulté de reproduire à l'identique le même chemin, surtout après des centaines de tests (plusieurs cartes graphiques, à plusieurs résolutions sur plusieurs jeux, répétés 5 fois pour chaque) -> la seule méthodolgie fiable et reproductible, c'est une séquence enregistrée que tu lances pour chaque test. Le problème, c'est que benchmarks sont parfois optimisés par ATI et nvidia ce qui fausse la jouabilité réelle.
 
Mais à choisir entre les 2, je préfère la seconde solution : aucun biais, erreur extrêmement réduite, reproductibilité...
 
HardOCP, en plus d'utiliser FRAPS, ne fournit pas leur séquence de test sur chaque jeu, ce qui permettrait de vérifier leurs dires.


 
Tridam de HFR teste aussi en faisant ce genre de protocole pourtant et je me rappelle avoir eu une discussion virulente avec lui il y a quelques années en reprenant le même type de raisonnement que toi et il m'avait assuré que cette méthode permettait d'avoir des résultats fiables.


---------------
Mon feedback
n°6493021
overclockp​ro
Posté le 14-07-2008 à 18:01:12  profilanswer
 

En tout cas, le lien http://www.digit-life.com/articles [...] s2-p1.html montre clairement l'inconvénient de mesurer avec FRAPS.

n°6493023
tridam
Profil : Equipe HardWare.fr
Posté le 14-07-2008 à 18:01:26  profilanswer
 

Utilisé correctement fraps peut être très précis. Digit-Life a oublié de prendre en compte que les testeurs ne sont pas censés prendre les tests au hasard... La différence qu'ils obtiennent sous Oblivion est ridicule. Moi je peux vous assurer que de notre côté, il n'y a pas 1% de variation lors de nos tests sous Oblivion avec fraps...
 
Bien entendu ça prend du temps de sélectionner la scène représentative et reproductible. Mettre au point un protocole de test ce n'est pas toujours simple. Certains le font peut-être à la va-vite, mais ça n'empêche pas qu'il est possible de le faire correctement, avec ou sans fraps.
 
En ce qui me concerne une mesure avec fraps se fait de manière à ce que le chemin soit toujours identique, ce qui revient à trouver un endroit qui permet de réaliser la mesure en allant toujours tout droit par exemple.

Message cité 3 fois
Message édité par tridam le 14-07-2008 à 18:04:15
n°6493036
alexreunio​n
Posté le 14-07-2008 à 18:05:06  profilanswer
 

tridam a écrit :

Utilisé correctement fraps peut être très précis. Digit-Life a oublié de prendre en compte que les testeurs ne sont pas censés prendre les tests au hasard... La différence qu'ils obtiennent sous Oblivion est ridicule. Moi je peux vous assurer que de notre côté, il n'y a pas 1% de variation lors de nos tests sous Oblivion avec fraps...
 
Bien entendu ça prend du temps de sélectionner la scène représentative et reproductible. Mettre au point un protocole de test ce n'est pas toujours simple. Certains le font peut-être à la va-vite, mais ça n'empêche pas qu'il est possible de le faire correctement, avec ou sans fraps.
 
En ce qui me concerne une mesure avec fraps se fait de manière à ce que le chemin soit toujours identique, ce qui revient à trouver un endroit qui permet de réaliser la mesure en allant toujours tout droit par exemple.


 
Merci de ton intervention  :jap:


---------------
Mon feedback
n°6493050
overclockp​ro
Posté le 14-07-2008 à 18:11:09  profilanswer
 

tridam a écrit :

Utilisé correctement fraps peut être très précis. Digit-Life a oublié de prendre en compte que les testeurs ne sont pas censés prendre les tests au hasard... La différence qu'ils obtiennent sous Oblivion est ridicule. Moi je peux vous assurer que de notre côté, il n'y a pas 1% de variation lors de nos tests sous Oblivion avec fraps...
 
Bien entendu ça prend du temps de sélectionner la scène représentative et reproductible. Mettre au point un protocole de test ce n'est pas toujours simple. Certains le font peut-être à la va-vite, mais ça n'empêche pas qu'il est possible de le faire correctement, avec ou sans fraps.
 
En ce qui me concerne une mesure avec fraps se fait de manière à ce que le chemin soit toujours identique, ce qui revient à trouver un endroit qui permet de réaliser la mesure en allant toujours tout droit par exemple.


 
Un autre problème avec FRAPS : lorsque tu veux une scène reproductible, tu es obligé de ne pas rencontrer d'ennemis, sinon cela va introduire trop de variation d'un test à l'autre. Donc tester sans ennemis, c'est en quelque sorte biaiser le test car les scènes avec ennemis sont souvent des scènes chargées, intéressantes pour solliciter fortement les cartes graphiques.

Message cité 1 fois
Message édité par overclockpro le 14-07-2008 à 18:15:27
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  502  503  504  ..  1325  1326  1327  1328  1329  1330

Aller à :
Ajouter une réponse
 

Sujets relatifs
ATI ou problème d'isolation électrique?[Topic Unique] Gigabyte GA-P31-DS3L
[ATI 1950gt] pas d'image hors mode VGA par défaut RADEON 9600 PRO 256 DDR2 est ce compatible ?
carte AGP - Radeon HD2600XT ou X1950Pro ?[Topic Unique] DFI LANPARTY "DK" : P35 T2RS et X38
[Topic Unique] Timings Mémoire [travail commun][Topic Unique] - Western digital 640 Go et 320Go (plateau(x) de 320Go)
Lire une source video extérieur sur le PC avec ATI control center[Topic Unique] DFI LANParty LT X38-T2R
Plus de sujets relatifs à : [Topic Unique] ATI Radeon 4800 Series (RV770 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)