Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4144 connectés 

 

 

Quelle carte prendrez-vous ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  204  205  206  ..  820  821  822  823  824  825
Auteur Sujet :

[Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)

n°7120260
Dyphen
Pull the trigger
Posté le 17-09-2009 à 22:15:39  profilanswer
 

Reprise du message précédent :
 
 
archi faux   :o  
 
j'avais vu un test la dessus je sais plus sur quel site mais y'a aucune différence entre le 1.0 et 2.0 ou trés trés peu
 
edit: j'ai retrouvé le lien :)
-> http://www.centrale3d.com/?PCI-E-1-1-VS-2-0-le-duel

Message cité 2 fois
Message édité par Dyphen le 17-09-2009 à 22:18:19
mood
Publicité
Posté le 17-09-2009 à 22:15:39  profilanswer
 

n°7120263
Neo_XP
Dawa'z addict
Posté le 17-09-2009 à 22:16:38  profilanswer
 

Bon elles arrivent quand là? La paye est tombée bon sang [:diskobeck] (perso j'irais sur une 5850 bien suffisante :o)
 
Ah oui tient question bête en passant... CPU limited... hmmm mais il calcul quoi le CPU dans une appli 3D en fait? Puisque la 3D est sensé être calculée par la carte 3D? [:neriki]  [:sniperlk]


---------------
Mais ouais
n°7120275
Profil sup​primé
Posté le 17-09-2009 à 22:20:28  answer
 

Dyphen a écrit :


 
archi faux   :o  
 
j'avais vu un test la dessus je sais plus sur quel site mais y'a aucune différence entre le 1.0 et 2.0 ou trés trés peu


 
Ouais, juste une bande passante doublée, trois fois rien en effet. :o
Il date de 3 ans ton test? [:mister_k]
Tu crois pas que les exigences de bande passante ont largement évolué depuis?

n°7120284
Zack38
Posté le 17-09-2009 à 22:21:37  profilanswer
 

Neo_XP a écrit :

Bon elles arrivent quand là? La paye est tombée bon sang [:diskobeck] (perso j'irais sur une 5850 bien suffisante :o)
 
Ah oui tient question bête en passant... CPU limited... hmmm mais il calcul quoi le CPU dans une appli 3D en fait? Puisque la 3D est sensé être calculée par la carte 3D? [:neriki]  [:sniperlk]


 
Attention, je vais essayer de répondre, ne m'incendiez pas, noob inside !  :D  
Je crois que c'est le CPU qui envoie au GPU les éléments qu'il doit calculer . D'où le fait qu'on puisse être CPULimited, puisqu'il suffit que le CPU ne soit pas assez rapide pour envoyer tous les éléments au GPU qui sera alors bridé .
C'est ça ?  :whistle:

n°7120285
Dyphen
Pull the trigger
Posté le 17-09-2009 à 22:21:45  profilanswer
 


 
 :lol:  :lol:  :lol:  
 
la mauvaise foi, sur le test, Crysis warhead, il date de 3 ans PEUT ETRE ??
 

Citation :


PCI-E : 1.1 VS 2.0 le duel.
 
Publié le 29/05/2009 à 12:50.
Par Yann.H  


 
29 mai 2009 :')
 
donc tu dis nawak :)

Message cité 1 fois
Message édité par Dyphen le 17-09-2009 à 22:22:39
n°7120289
Profil sup​primé
Posté le 17-09-2009 à 22:23:02  answer
 

heureusement que j en ai pas ete ces derniers mois... :lol:  
 
 
puatin, a part les conneries sur crysis et les gars qui en rajoute une couche avec le pci express, quelqu un peut mieux faire svp...
 
 
ca vole pas assez bas la... :lol:  
 
 
 
 [:haha baffe]

n°7120292
bloop77
Posté le 17-09-2009 à 22:23:19  profilanswer
 

Dyphen a écrit :


 
archi faux   :o  
 
j'avais vu un test la dessus je sais plus sur quel site mais y'a aucune différence entre le 1.0 et 2.0 ou trés trés peu
 
edit: j'ai retrouvé le lien :)
-> http://www.centrale3d.com/?PCI-E-1-1-VS-2-0-le-duel


 
Intéressant ton lien, il n'y aurait donc quasiment aucun écart entre les deux normes PCI-E-1-1 et 2-0... ne serait ce encore que du marketing ?

n°7120297
Dyphen
Pull the trigger
Posté le 17-09-2009 à 22:25:12  profilanswer
 

c'est bon  
 
je ferme ma gueule sinon je vais encore m'énerver
 
regarder le lien que j'ai foutu , la réponse est dessus
 
et j'ai dis que la différence était minime, preuve sur le lien

n°7120299
Neo_XP
Dawa'z addict
Posté le 17-09-2009 à 22:25:56  profilanswer
 

j'avais cru comprendre qu'a l'époque le passage au pcie 2.0 était surtout une question de Watts supportés par le port nan?
mais bon vu qu'il faut quand même au final des alim externe c'est :dtc:


Message édité par Neo_XP le 17-09-2009 à 22:26:24

---------------
Mais ouais
n°7120300
Ramichou
Posté le 17-09-2009 à 22:26:23  profilanswer
 

Neo_XP a écrit :


Ah oui tient question bête en passant... CPU limited... hmmm mais il calcul quoi le CPU dans une appli 3D en fait? Puisque la 3D est sensé être calculée par la carte 3D? [:neriki]  [:sniperlk]


 
Un jeu ce n'est pas qu'un moteur 3D, il faut également gérer le gameplay, constitué du moteur physiques, des IAs, moteur réseau, gestion du son etc... qui sont gérés par le processeur et accéléré par des accélérateurs dédiés (Rien pour l'IA ni le gameplay, carte réseau, carte son, carte physique (lolz)...) Le CPU a à la fois un rôle de chef d'orchestre et doit effectuer lui même énormément de tâches dédiées au gameplay du jeu. Il faut savoir que le moteur graphique consomme beaucoup de temps CPU également...
 
Pour l'histoire du PCI-E, ca permet aussi de ne pas perdre de perfs avec un port PCI-E 2.0 cablé en 8x :D Faut voir aussi qu'avec le temps, les besoins en bande passante peuvent augmenter. Ceci dit tant que la mémoire graphique est suffisante en quantité, l'écart sera faible.


Message édité par Ramichou le 17-09-2009 à 22:29:17
mood
Publicité
Posté le 17-09-2009 à 22:26:23  profilanswer
 

n°7120301
Profil sup​primé
Posté le 17-09-2009 à 22:26:40  answer
 

Dyphen a écrit :


 
 :lol:  :lol:  :lol:  
 
la mauvaise foi, sur le test, Crysis warhead, il date de 3 ans PEUT ETRE ??
 

Citation :


PCI-E : 1.1 VS 2.0 le duel.
 
Publié le 29/05/2009 à 12:50.
Par Yann.H  


 
29 mai 2009 :')
 
donc tu dis nawak :)


 
Autant pour moi..., sur ce point. :D
Tu n'avais pas encore édité quand je t'ai répondu.... :o

n°7120309
Cizia
Posté le 17-09-2009 à 22:28:59  profilanswer
 

c'est la 4870x2 qui apprécie pas mal le pci 2.0  :)
 
me souviens d'avoir lu des truc la dessus.


---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7120310
Activation
21:9 kill Surround Gaming
Posté le 17-09-2009 à 22:29:00  profilanswer
 

un port pci express 16x 1.0 en mono carte graphique est pas specialement limitant (en tout cas pour le moment)
 
ça commence déjà à influencer si c est un crossfire car il y a plus d echange


Message édité par Activation le 17-09-2009 à 22:30:17
n°7120313
Profil sup​primé
Posté le 17-09-2009 à 22:29:34  answer
 

il y a une difference encore heureux...
 
 
il faut peut etre expliquer avant de dire de la merde...
 
 
la difference se voit surtout si tu as une configuration cross/sli...
 
entre un cross pci 1.0 et 2.0 il y a bien une grosse difference de perfs...
 
on peut dire que la perte de perfs due a la bande passante/rapidite du pci reppresente le gain de perfs qu il y a entre une 4870X2 et un cross de 4870...
 
 
le fait que les puces se trouvent sur la meme carte evite que les infos fassent du chemin sur la cm...
 
donc la qualite du bus influe beaucoups sur les perfs, plus il est rapide moins tu perds...
 
 
... ... ... ... ...  
 
 

Message cité 1 fois
Message édité par Profil supprimé le 17-09-2009 à 22:32:12
n°7120323
Profil sup​primé
Posté le 17-09-2009 à 22:34:13  answer
 

Cizia a écrit :

c'est la 4870x2 qui apprécie pas mal le pci 2.0  :)

 

me souviens d'avoir lu des truc la dessus.

  

Oui, ça c'est logique puisque la BP entre GPU sur un même PCB est bien supérieure n'est-ce pas? Ca je comprends... par contre je comprends moins pourquoi le doublement de BP entre PCI-E 1.1 et 2.0 n'en a pas: si quelqu'un a l'explication.... ;)

Message cité 1 fois
Message édité par Profil supprimé le 17-09-2009 à 22:34:51
n°7120332
Activation
21:9 kill Surround Gaming
Posté le 17-09-2009 à 22:39:37  profilanswer
 

Neo_XP a écrit :

Bon elles arrivent quand là? La paye est tombée bon sang [:diskobeck] (perso j'irais sur une 5850 bien suffisante :o)
 
Ah oui tient question bête en passant... CPU limited... hmmm mais il calcul quoi le CPU dans une appli 3D en fait? Puisque la 3D est sensé être calculée par la carte 3D? [:neriki]  [:sniperlk]


 
 
on va faire une reponse simple et qui coule de source... le drivers de ta carte graphique il tourne grace à quoi sur ton windows
 
il tourne grace au CPU
après j'ai pas regardé si dans dx11 le compute shading peut booster lui même le drivers
il me semble pas cependant (sans une reelle reflection sur la question ça me semble pas très possible... ça reviendrait à un dilemne "qui est venu en premier la poule ou l oeuf" ) par contre sous dx11 le gain du multithread CPU a encore été optimisé comparé à dx10.x
 
qui plus est on est toujours comme avec dx10 des fonctions epuré, corrigé, ... bref du code plus propre que dx9  
donc besoin de moins de temps machine pour effectuer une meme tache

n°7120338
Profil sup​primé
Posté le 17-09-2009 à 22:41:03  answer
 


 
 
car avec une seule carte le gain est minime, surement que le pci 2.0 est un peu plus rapide/meilleures latences...
 
 
vu que de toute facon il est difficile de remplir completement la bande passante d un pci 16X...
 
 
c est bien pour ca aussi que la perte de perfs entre un pci 16X/8X n est pas non plus catastrofique, tu n as pas les perfs divisees en deux... :jap:  
 
 
sur les X2 une puce gere le bus des deux puces et le bus pci, une puce PLX si mes souvenirs sont exactes, qui gere la connection entre les gpu...


Message édité par Profil supprimé le 17-09-2009 à 23:03:05
n°7120342
Activation
21:9 kill Surround Gaming
Posté le 17-09-2009 à 22:42:36  profilanswer
 

certe t as pas les perf divisé par 2 si tu es en PCIe 8x... mais la perte est loin d etre négligeable (après une quantité de mémoire embarqué suffisante sur la CG peut parfois compenser)

Message cité 1 fois
Message édité par Activation le 17-09-2009 à 22:43:43
n°7120344
Neo_XP
Dawa'z addict
Posté le 17-09-2009 à 22:43:19  profilanswer
 

Activation a écrit :


 
 
on va faire une reponse simple et qui coule de source... le drivers de ta carte graphique il tourne grace à quoi sur ton windows
 
il tourne grace au CPU
après j'ai pas regardé si dans dx11 le compute shading peut booster lui même le drivers
il me semble pas cependant (sans une reelle reflection sur la question ça me semble pas très possible... ça reviendrait à un dilemne "qui est venu en premier la poule ou l oeuf" ) par contre sous dx11 le gain du multithread CPU a encore été optimisé comparé à dx10.x
 
qui plus est on est toujours comme avec dx10 des fonctions epuré, corrigé, ... bref du code plus propre que dx9  
donc besoin de moins de temps machine pour effectuer une meme tache


ouais mais de là à nécessiter un core i7 à 5Ghz voilà quoi [:dawao]


---------------
Mais ouais
n°7120353
Profil sup​primé
Posté le 17-09-2009 à 22:51:08  answer
 

Neo_XP a écrit :


ouais mais de là à nécessiter un core i7 à 5Ghz voilà quoi [:dawao]


 
Nan mais après ça dépend du type d'appli/jeu, des autres calculs qui peuvent influencer l'affichage: un jeu comme Civ4, par exemple, est très souvent CPU limited à cause des calculs d'IA, dès la mi-partie... Bon évidemment, celui-là nécessite essentiellement de la puissance CPU.

n°7120356
Activation
21:9 kill Surround Gaming
Posté le 17-09-2009 à 22:52:19  profilanswer
 

Neo_XP a écrit :


ouais mais de là à nécessiter un core i7 à 5Ghz voilà quoi [:dawao]


 
 
j ai jamais dit ça
 
ou alors t as pas lu ce que j ai dit
 
l'idée justement d'optimiser le traitement multithread c'est justement de ne pas avoir recour à des frequence de folie
 
dans l idée si l opti est efficace un jeu en dx11 un Q6600/Q6700 brer à moins de 3Ghz devrait largement suffir sans devoir l'OC
 
problème y a trop de disparité dans la sortie des jeux
 
alors que sur les dernier jeu c est une frequence raisonnable mais plus de core qui interviennent
sur les jeux dx9 c est plus de frequence cpu et moins de core qu'il faut
 
problème aussi qui peut intervenir quand bien même un jeu qui propose dx9 ET dx11 comme mode... c'est pas dit que les devs on fait une rebuild ultra optimisé du jeu comparé à la build dx9  
car c est déjà du boulot de te taper le besoin de fournir en fait le jeu en double et donc y a ptet des partie commune
ou que les devs on un EAgames à la gorge qui les force à sortir le jeu dans X jours et pas 1 de plus
 
vivement des jeux "pure" dx10/11
 
c'est un peu comme les soft hybride 32/64... ils te font des bout de code 64bits pour etre compatible win64 mais derriere 70% du prog tourne en 32
 
un exemple tout con: combien de devs utilisent toujours pas un adressage etendu de memoire pour les jeux qu ils editent (LARGE ADDRESS AWARE)
les mauvaises pratique on souvent la peau dur
combien de fois j en vois faire des bouts de code avec soit pas de controle d erreur soit il y en a mais complètement bidon qui ne controle rien de pertinent


Message édité par Activation le 17-09-2009 à 23:03:56
n°7120384
Profil sup​primé
Posté le 17-09-2009 à 23:07:52  answer
 

ca aussi ca ete discutte moultes fois... :p  
 
 
faut deja que le systeme d exloitation/cpu gere comme il faut les applis lourdement multithread sinon ca sert a rien autant pas les faire...
 
faut que les developpeurs se grattent moins les ouilles et faires des jeux multithread comme il se doit, etc, etc...
 
 
autant dire que l on est pas sortie de l auberge, je vais boire une bierre et je reviens... [:kede]

n°7120428
webzeb
Posté le 17-09-2009 à 23:30:56  profilanswer
 

Activation a écrit :


 
 
oui
 
par contre les ecrans qui supporte ça
 
dans le domaine PC ça reste très cher (et plutot en général sur des modèle haut de gamme viewsonic ou des eizo....)
 
et sur les TV y a qqs marques qui gère en 10bits mais c est loin d etre la majorité (et c est pas la tv à 500€plutot à 2500€)
idem pour les video proj


Mes deux moniteurs supportent le 10-bits sur leur entrée DisplayPort. Mais, effectivement, ce sont des moniteurs d'arts graphiques. ;)  
 
Tu es sûr de ton coup par contre ?
Car les cartes vidéos ATI on des RAMDAC 10-bit depuis belle lurette, mais le support dans les drivers est restreint à quelques modèles pro (FirePro notamment).
 
On a des infos officielles d'ati à ce propos ?

n°7120429
Activation
21:9 kill Surround Gaming
Posté le 17-09-2009 à 23:31:04  profilanswer
 

les kits sont dispo, les moteurs sont dispo, le matos est dispo
 
manque juste un peu de "trolleur" en moins collé à XP pour grossir le parc vista/win7 pour faire risette à des activision, ubisoft, EAgames, square enix, lucas arts,...
afin qu ils sentent l odeur des billets verts frais


Message édité par Activation le 17-09-2009 à 23:31:34
n°7120432
Activation
21:9 kill Surround Gaming
Posté le 17-09-2009 à 23:33:02  profilanswer
 

webzeb a écrit :


Mes deux moniteurs supportent le 10-bits sur leur entrée DisplayPort. Mais, effectivement, ce sont des moniteurs d'arts graphiques. ;)  
 
Tu es sûr de ton coup par contre ?
Car les cartes vidéos ATI on des RAMDAC 10-bit depuis belle lurette, mais le support dans les drivers est restreint à quelques modèles pro (FirePro notamment).
 
On a des infos officielles d'ati à ce propos ?


 
oui je suis sur
 
sur la tete de mon chien  [:- mr white -]


Message édité par Activation le 17-09-2009 à 23:33:17
n°7120435
kaiser52
Posté le 17-09-2009 à 23:35:07  profilanswer
 

Bah y'a des dales 10-bits sur les TV Sony (depuis la 32W4000).  :love:  
Ca coute plus si chére que ca  :o.
 
Et d'apres les numériques, entre la dale 8-bits et la dalle 10-bits il est quasi impossible de voire la différence et cela même avec un oeil d'expert (avec une même source 10-bits sur les 2 types de dalles bien sûre  :pt1cable: )


---------------
Benchmarks du peuple - Crysis War - Vide grenier ! - nVIDIA Tegra
n°7120449
webzeb
Posté le 17-09-2009 à 23:43:19  profilanswer
 

kaiser52 a écrit :

Bah y'a des dales 10-bits sur les TV Sony (depuis la 32W4000).  :love:  
Ca coute plus si chére que ca  :o.
 
Et d'apres les numériques, entre la dale 8-bits et la dalle 10-bits il est quasi impossible de voire la différence et cela même avec un oeil d'expert (avec une même source 10-bits sur les 2 types de dalles bien sûre  :pt1cable: )


Il y a ambiguïté concernant ces TV : on ne sait pas si c'est le traitement interne, la LUT ou la commande de la dalle qui utilise une quantification sur 10 bits.
Si quelqu'un a des informations fiables sur le sujet, je suis preneur.
 
Reste que ma question portait sur un champ différent : les écrans graphiques.
 
Je serait curieux de voir ce que donne celui que j'ai sous les yeux connecté en 10-bit, notamment pour l'épreuvage logiciel.

n°7120522
hifibuff
Posté le 18-09-2009 à 01:14:01  profilanswer
 

Excusez moi, j'ai dû me tromper de fil, je croyais que j'étais sur le thread des futurs cartes graphiques DX11 ATI.

 

Ceci dit, ça tombe bien, j'avais une question : comment change t-on un filtre à air sur un aspirateur Arthur-Martin Electrolux PF-1200, quelqu'un à la doc PDF peut etre?
Sinon, tant qu'on y est, vous me conseillez quoi comme nourriture pour chien pour faciliter le transit intestinal de mon toutou?

Message cité 1 fois
Message édité par hifibuff le 18-09-2009 à 01:14:19
n°7120525
Profil sup​primé
Posté le 18-09-2009 à 01:18:10  answer
 

hifibuff a écrit :

Excusez moi, j'ai dû me tromper de fil, je croyais que j'étais sur le thread des futurs cartes graphiques DX11 ATI.  
 
Ceci dit, ça tombe bien, j'avais une question : comment change t-on un filtre à air sur un aspirateur Arthur-Martin Electrolux PF-1200, quelqu'un à la doc PDF peut etre?
Sinon, tant qu'on y est, vous me conseillez quoi comme nourriture pour chien pour faciliter le transit intestinal de mon toutou?

y'a 3 posts de HS et pas 2 pages comme c'est devenu courant sur hfr, alors tu vas te calmer bonhomme et utiliser ta molette en silence.

n°7120539
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 18-09-2009 à 01:38:43  profilanswer
 

Bon, je vais régler le cas du CPU limited une bonne fois sur toute.
J'ai des infos crouistillante sur la HD 5890 qui vont en étonner plus d'un.
 
Les ingénieurs d'AMD se sont aperçus que la HD 5890 était CPU limited, même avec un Core i7 à 4.6 GHz.
Mais ne vous en faites pas car ils ont contourné le problème avec une idée de génie.
 
Vous avez tous vu le PCB de la HD 5870, mais vous n'avez vu que la coque de la HD 5870-X2.
Mais il y a une bonne raison pour ça, car AMD nous a préparé une surprise incroyable.
 
Les photos de a HD 5870-X2 sont en fait celles de la HD 5890 !
Et moi, avec le plus curieux des hasards, j'ai trouvé la première photo du PCB de la bête.
 
Voici donc, sans plus tarder, la photo de la HD 5890 -> LIEN
C'est donc de cette façon qu'AMD va régler le problème du CPU limited.
 
Maintenant que tout est réglé concernant le CPU Limited, peut-être qu'on pourrait parler des benchs, ou de tout autres trucs plus intéressants ?
 

Message cité 1 fois
Message édité par Wirmish le 18-09-2009 à 01:40:09
n°7120542
hifibuff
Posté le 18-09-2009 à 01:42:39  profilanswer
 

tout s'explique : merci Wirmish ^^

n°7120544
Profil sup​primé
Posté le 18-09-2009 à 01:46:05  answer
 

heu t as vu le dissi stock d amd pour un phenom II qu ils livrent avec le cpu... :o  
 
 
 
 [:bbale]
 
 
 
 [:nicoozz]


Message édité par Profil supprimé le 18-09-2009 à 01:49:03
n°7120545
Dyphen
Pull the trigger
Posté le 18-09-2009 à 01:46:16  profilanswer
 

Wirmish a écrit :

Bon, je vais régler le cas du CPU limited une bonne fois sur toute.
J'ai des infos crouistillante sur la HD 5890 qui vont en étonner plus d'un.
 
Les ingénieurs d'AMD se sont aperçus que la HD 5890 était CPU limited, même avec un Core i7 à 4.6 GHz.
Mais ne vous en faites pas car ils ont contourné le problème avec une idée de génie.
 
Vous avez tous vu le PCB de la HD 5870, mais vous n'avez vu que la coque de la HD 5870-X2.
Mais il y a une bonne raison pour ça, car AMD nous a préparé une surprise incroyable.
 
Les photos de a HD 5870-X2 sont en fait celles de la HD 5890 !
Et moi, avec le plus curieux des hasards, j'ai trouvé la première photo du PCB de la bête.
 
Voici donc, sans plus tarder, la photo de la HD 5890 -> LIEN
C'est donc de cette façon qu'AMD va régler le problème du CPU limited.
 
Maintenant que tout est réglé concernant le CPU Limited, peut-être qu'on pourrait parler des benchs, ou de tout autres trucs plus intéressants ?
 


 
 :ouch:  
 
wow ils vont foutre un Phenom II sur la 5890  :heink:  
énorme
 
mais ca va chauffer a fond un truc pareil ?
et le prix de la carte lol, elle va atteindre 600 euros  
ca me parait bizarre comme idée

Message cité 1 fois
Message édité par Dyphen le 18-09-2009 à 01:50:06
n°7120548
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 18-09-2009 à 01:52:47  profilanswer
 

Heu... Dyphen... dis-moi... tu y as cru ?

n°7120551
Cizia
Posté le 18-09-2009 à 02:04:40  profilanswer
 

Dyphen a écrit :


 
 :ouch:  
 
wow ils vont foutre un Phenom II sur la 5890  :heink:  
énorme
 
mais ca va chauffer a fond un truc pareil ?
et le prix de la carte lol, elle va atteindre 600 euros  
ca me parait bizarre comme idée


 
 
on peut dire que wirmish ta u en beauté toi   :lol:
 
sinon extra ton idée, tout en un la 5890 "955 édition"  :D
 
c'est alexreunion qui va en faire ces choux gras.  :sarcastic:


Message édité par Cizia le 18-09-2009 à 02:07:57

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°7120552
bncjo
Posté le 18-09-2009 à 02:07:22  profilanswer
 

Nan mais c'est n'importe nawak....et dyphen  :fou: .


---------------
"Think of me like Yoda but instead of being little and green I wear suits and I'm awesome. I'm your bro - I'm Broda!"
n°7120555
Dyphen
Pull the trigger
Posté le 18-09-2009 à 02:14:24  profilanswer
 

Wirmish a écrit :

Heu... Dyphen... dis-moi... tu y as cru ?


 
je pensais que t'étais sérieux vu que tu déconnes jamais.. mais ca me paraissait tordu comme truc

n°7120556
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 18-09-2009 à 02:21:55  profilanswer
 

Dyphen a écrit :

je pensais que t'étais sérieux vu que tu déconnes jamais.. mais ca me paraissait tordu comme truc

T'as pas dû lire tout mes posts alors...
 

Cizia a écrit :

sinon extra ton idée, tout en un la 5890 "955 édition"  :D

En fait y'a un nom pour ça -> AMD Fusion
 
 
 
Autre news (vraie) -> ATI Radeon HD 5870 1024 MB PCI-E 2.0 à ... $638.00 US.
 
Parti me suicider ---> []


Message édité par Wirmish le 18-09-2009 à 02:23:52
n°7120557
Misterhand
Posté le 18-09-2009 à 02:25:26  profilanswer
 

Il faut pas oublier que dans le flot d'info que notre cher Wirmish donne , c'est aussi Mister fake . D'ailleurs tu me déçoit sur ton dernier , tu nous a habitué à mieux

n°7120560
Wirmish
¡sıɹdɹns zǝɹǝs snoʌ
Posté le 18-09-2009 à 02:29:06  profilanswer
 

Je sais... fait à la va-vite. Mais je devais préparer le souper en même temps, donc j'ai pas atteint la perfection.
 
J'aurais au moins une phrase collector à ajouter à ma liste : "wow ils vont foutre un Phenom II sur la 5890, énorme"

Message cité 1 fois
Message édité par Wirmish le 18-09-2009 à 02:31:15
n°7120561
Dyphen
Pull the trigger
Posté le 18-09-2009 à 02:30:12  profilanswer
 

le souper a 1h38 du mat ?  
 
 :lol:  :whistle:
 
edit : ENFOIRE ! mdr


Message édité par Dyphen le 18-09-2009 à 02:31:44
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  204  205  206  ..  820  821  822  823  824  825

Aller à :
Ajouter une réponse
 

Sujets relatifs
Configuration (Intel inside) - Est-elle homogène ?Problème overclock Radeon HD4850
Reboot unique au démarrage... Normal ou pas?Radeon HD4870 ou 50 + C2D E6400 = bon ménage ?
Probleme sortie TV sur Radeon 9500 proATI HD3870 vers 4850-4870 ???
[Topic unique] Aide à la présentation de nouvelles configurations PC[Topic Unique] problèmes sur les G84 et G86 de Nvidia [8400 8600]
Plus de sujets relatifs à : [Topic Unique] ATI Radeon HD 5800 et 5900 Series (RV870 inside)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)