Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
4535 connectés 

 

 

Allez-vous sauter sur une 6xxx ou bien attendre les 7xxx et le 28nm ?




Attention si vous cliquez sur "voir les résultats" vous ne pourrez plus voter
Les invités peuvent voter

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  816  817  818  ..  839  840  841  842  843  844
Auteur Sujet :

[Topic Unique] AMD Radeon HD 6800 et 6900 ; 40nm dx11

n°8124074
noobzed
Where is Brian ? DTC !
Posté le 20-11-2011 à 16:03:15  profilanswer
 

Reprise du message précédent :
Une trés jolie 6850, enfin je trouve:
 
http://img8.zol.com.cn/bbs/upload/10960/10959906.JPG  
 
plus de photos:  http://diybbs.zol.com.cn/11/198_106123.html
et:   http://diybbs.zol.com.cn/11/198_107016.html
 
et puis si vous voulez l'acheter:   http://www.dealextreme.com/p/color [...] 4mb-100269
 
voila :)

Message cité 1 fois
Message édité par noobzed le 20-11-2011 à 16:03:31

---------------
FEEDBACK HFR  
mood
Publicité
Posté le 20-11-2011 à 16:03:15  profilanswer
 

n°8124077
l0g4n
Expert en tout :o
Posté le 20-11-2011 à 16:07:28  profilanswer
 


Plus cher qu'une 6970 sur le fofo :o
Nice :o


---------------
Fort et motivé. Sauf parfois.
n°8124122
solid13
Il etait une fois...
Posté le 20-11-2011 à 16:47:50  profilanswer
 

moujet a écrit :

Euuuh avant d'aller chercher des pbs d'alimentation... ce problème ressort avec tous tes jeux? Genre un Metro 2033 ou Crysis 1 voir 2 tu as les même soucis???
Parceque là dans ce cas on pourrait incriminer l'alim, mais ça ne semble pas être ici le cas non?
Théoriquement 650Watts c'est limite mais bon l'ensemble de ta config ne semble pas énergivore non plus... question bête essaye sans ton Oc CPU... On ne sait jamais...

 

Dans crysis 2 et civilization V, mes deux cartes sont à 99% d'utilisation. Et dans ce cas là mon APC m'indique environ 450-460W avec l'Oc cpu.

 

Et 50% dans BF3.

Message cité 1 fois
Message édité par solid13 le 20-11-2011 à 23:01:47

---------------
Realized the life is short, but wide :p
n°8124336
moujet
Chef de Projet
Posté le 20-11-2011 à 19:55:51  profilanswer
 

solid13 a écrit :


 
Dans crysis 2 et civilization V, mes deux cartes sont à 99% d'utilisation. Et dans ce cas là mon APC m'indique environ 450-460W avec l'O cpu.


 
C'est pas un problème d'alimentation si tu veux mon avis... Moi je formaterai tout le Pc car d'une part ca retirerait vraiment définitivement le pb d'alimentation d'une part, d'autre part tu repartirai sur une install propre, y'a certainement un soucis qu'on pourrait règler sans faire tout ça mais tu perdrais à mon avis bp de temps  
 
Décidément BF3 a l'air de poser pas mal de pbs à beaucoup de monde surtout le cadre de solution multi GPU...  :o

n°8124341
moujet
Chef de Projet
Posté le 20-11-2011 à 19:58:56  profilanswer
 

une alim de 650 watt pour un cross de HD6850 ca passe tranquillou normalement  :jap: (je croyais que c'était un cross de 6950 - et même là je pense que ça passe, moins tranquillou certes) va voir le lien vers ma config, depuis j'ai Oc à 1,10ghz les GPU et 4,5 le proco et avec ma 750W Corsair tout se passe bien

Message cité 1 fois
Message édité par moujet le 20-11-2011 à 20:02:30
n°8124357
moujet
Chef de Projet
Posté le 20-11-2011 à 20:09:29  profilanswer
 

BlackSad38 a écrit :

Ah tu as le boitier IL ? IL est superbe aussi . Et oui stop au boitier forme boite à chaussure ...

http://img214.imageshack.us/img214/4373/20111107151515.jpg
 
Vouiii! J'adore mon boitier SFC ^^ il tient sur mon bureau et je l'ai bien moddé surtout, et avec 3x120 de rads j'oc vraiment bien bien (bien sûre pas extrême mais de quoi faire tourner mes jeux à fonds sur 27') tout ça en fraicheur!
 
Sinon pour éviter trop de HS, mon cross d'HD6870 dépasse pas 65° mais pour les HD7xxx je pense repasser en mono GPU non pas que les HD6870 m'ont décues bien au contraire par contre c'est le prix des waterblocks (x2) qui me dissuade un peu désormais je suis obligé d'investir pour chaques changements (mais quand je vois le gain! Je suis plus prêt de changer! Sérieux avant j'avais des ralentissement oC à 980 mhz et 75 degrés de températures de chauffe)


Message édité par moujet le 20-11-2011 à 21:22:51
n°8124432
mastergurt​2
Posté le 20-11-2011 à 21:19:17  profilanswer
 

Skyrim et les bi-gpu c est tout y a rien a faire a part attendre un CAP.  
Je ne retrouve plus le post du type à la 6990 qui disait en gros "en ville moins de 30 fps, en pleine nature 40/60, en interieur pas de soucis c' est le cpu OC votre cpu pour ce jeu" cela n a strictement rien a voir avec le CPU ces chutes de framerates.
J ai exactement les mêmes symptomes avec ma 5970. Sans parler de la premiere scène aprés la selection de son perso qui tourne à 24 fps quelque soit les options graphiques ou la résolution choisie.
 
Sur ce jeu la seule soltion pour les bi-gpu est de renommer le .exe en fallout3.exe
Pour les bi-gpu la solution Radenpro, priorité CPU et profil tweak Oblivion ne sert strictement a rien, 0 gain. Seule la solution fallout3.exe permet un gain de FPS sans pour autant résoudre ces chutes de framerate inexpliquées et surtout encore une fois ça n a r ien a voir avec le cpu.
Un Bi-gpu c est assimilé à un crossfire, ce n est pas un crossfire. La seule solution est d attendre un CAP de ces couleuvres de chez AMD.
 
J ai acheté un bi-gpu en connaissance de cause mais là AMD c est la goutte d eau qui fait deborder le vase.

Message cité 1 fois
Message édité par mastergurt2 le 20-11-2011 à 21:21:45
n°8124449
moujet
Chef de Projet
Posté le 20-11-2011 à 21:40:37  profilanswer
 

mastergurt2 a écrit :

Skyrim et les bi-gpu c est tout y a rien a faire a part attendre un CAP.  
Je ne retrouve plus le post du type à la 6990 qui disait en gros "en ville moins de 30 fps, en pleine nature 40/60, en interieur pas de soucis c' est le cpu OC votre cpu pour ce jeu" cela n a strictement rien a voir avec le CPU ces chutes de framerates.
J ai exactement les mêmes symptomes avec ma 5970. Sans parler de la premiere scène aprés la selection de son perso qui tourne à 24 fps quelque soit les options graphiques ou la résolution choisie.
 
Sur ce jeu la seule soltion pour les bi-gpu est de renommer le .exe en fallout3.exe
Pour les bi-gpu la solution Radenpro, priorité CPU et profil tweak Oblivion ne sert strictement a rien, 0 gain. Seule la solution fallout3.exe permet un gain de FPS sans pour autant résoudre ces chutes de framerate inexpliquées et surtout encore une fois ça n a r ien a voir avec le cpu.
Un Bi-gpu c est assimilé à un crossfire, ce n est pas un crossfire. La seule solution est d attendre un CAP de ces couleuvres de chez AMD.
 
J ai acheté un bi-gpu en connaissance de cause mais là AMD c est la goutte d eau qui fait deborder le vase.

perso j'achėte jamais un jeux à sa sortie sauf de très rares cas, malheureusement le bi GPU c'est souvent ça... mais je pense que plus on va avancer de le temps et mieux ça sera, j'ai confiance! Nvidia n'est pas non plus exempt de pbs avec ses Bi gpu et puis c'est pas les même tarifs aussi

Message cité 1 fois
Message édité par moujet le 20-11-2011 à 21:42:02
n°8124479
ricou13000
Posté le 20-11-2011 à 22:20:44  profilanswer
 

est ce que ttes les 6950 2 go peuvent etre modifiee en 6970? j envisage un modele HIS
 
merci

n°8124481
matthiman
de Gilead
Posté le 20-11-2011 à 22:22:12  profilanswer
 

nan que les design de référence ;)
donc pas les HIS :jap:


---------------
Ventes - Feedback
mood
Publicité
Posté le 20-11-2011 à 22:22:12  profilanswer
 

n°8124482
ricou13000
Posté le 20-11-2011 à 22:23:29  profilanswer
 

ok merci

n°8124505
solid13
Il etait une fois...
Posté le 20-11-2011 à 23:22:16  profilanswer
 

moujet a écrit :

une alim de 650 watt pour un cross de HD6850 ca passe tranquillou normalement  :jap: (je croyais que c'était un cross de 6950 - et même là je pense que ça passe, moins tranquillou certes) va voir le lien vers ma config, depuis j'ai Oc à 1,10ghz les GPU et 4,5 le proco et avec ma 750W Corsair tout se passe bien


 
 :non:  c'est bien des hd6950 2go xD
 
Mon APC m'indique une consommation de 450W (2 écrans et mon ordi), je suis quand même loin des 650W de l'alimentation.
 
L'installation du système d'exploitation n'a même pas trois mois xD.


---------------
Realized the life is short, but wide :p
n°8124514
moujet
Chef de Projet
Posté le 20-11-2011 à 23:40:17  profilanswer
 

solid13 a écrit :

 

:non:  c'est bien des hd6950 2go xD

 

Mon APC m'indique une consommation de 450W (2 écrans et mon ordi), je suis quand même loin des 650W de l'alimentation.

 

L'installation du système d'exploitation n'a même pas trois mois xD.


ouaih bien là je ne vois qu'un pb lié au jeux... bon courage!

n°8124523
l0g4n
Expert en tout :o
Posté le 21-11-2011 à 00:02:51  profilanswer
 

solid13 a écrit :


 
 :non:  c'est bien des hd6950 2go xD
 
Mon APC m'indique une consommation de 450W (2 écrans et mon ordi), je suis quand même loin des 650W de l'alimentation.
 
L'installation du système d'exploitation n'a même pas trois mois xD.


En charge, les deux 6950, le proco, et les écrans, je boufferais que 450w ? Je suis à plus de 400w avec une seule 6970, un X6 1100T, et un seul écran. Ya un problème quelque part.


---------------
Fort et motivé. Sauf parfois.
n°8124539
Fouge
Posté le 21-11-2011 à 00:28:24  profilanswer
 

Le ou les écrans ne comptent pas.

n°8124544
l0g4n
Expert en tout :o
Posté le 21-11-2011 à 00:35:52  profilanswer
 

Si ils sont sur l'onduleur, si.
Entre un écran led récent en 22" et 6 Trinitron 21" catho, je peut te dire qu'il y a une légère différence de conso :D


---------------
Fort et motivé. Sauf parfois.
n°8124546
Fouge
Posté le 21-11-2011 à 00:38:42  profilanswer
 

l0g4n a écrit :

Si ils sont sur l'onduleur, si.
Entre un écran led récent en 22" et 6 Trinitron 21" catho, je peut te dire qu'il y a une légère différence de conso :D

Effectivement :D
Du coup pour l'alim du PC c'est encore plus léger que ça.

n°8124553
Tsubaki57
BMW ///Merguez Performance
Posté le 21-11-2011 à 00:46:15  profilanswer
 

Dites, dans la plupart de mes jeux, j'ai plus ou moins vite des plantages: parfois sans bsod c'est juste l'image qui part en live, parfois avec bsod et c'est toujours un fichier du driver ATI qui est incriminé.

 

Ca me le fait depuis que je suis passé en CF avec une seconde 6870.
Je suis sur les derniers drivers, les réinstaller n'a rien changé.

 

Une idée d'où ca vient? J'ai remis les 2 carte à stock mais rien ne change, ce n'est pas un problème lié a la stabilité des GPU ou de la Gddr, ca m'a l'air logiciel.

 

(Voir ma config en cliquant sur le bouton approprié.)


Message édité par Tsubaki57 le 21-11-2011 à 00:46:26

---------------
Oui
n°8124607
solid13
Il etait une fois...
Posté le 21-11-2011 à 03:08:39  profilanswer
 

l0g4n a écrit :


En charge, les deux 6950, le proco, et les écrans, je boufferais que 450w ? Je suis à plus de 400w avec une seule 6970, un X6 1100T, et un seul écran. Ya un problème quelque part.

 

Mes 2 écrans (206BW et PX2370) font 40W d'après l'APC. (Calcul)

 

J'arrive à 520W dans Furmark (preset 1080p)

 

PS: J'ai jamais entendu mes cartes aussi fort que ca xD (77 et 72 degrée au bout d'une minute)

 

Edit: 615W avec Furmark et OCCT

Message cité 1 fois
Message édité par solid13 le 21-11-2011 à 05:05:00

---------------
Realized the life is short, but wide :p
n°8124741
mastergurt​2
Posté le 21-11-2011 à 11:20:42  profilanswer
 

moujet a écrit :

perso j'achėte jamais un jeux à sa sortie sauf de très rares cas, malheureusement le bi GPU c'est souvent ça... mais je pense que plus on va avancer de le temps et mieux ça sera, j'ai confiance! Nvidia n'est pas non plus exempt de pbs avec ses Bi gpu et puis c'est pas les même tarifs aussi


 
 
Oui moi non plus mais je pensais que que AMD ferait un effort pour Skyrim. Encore on parle des bi-gpu mais les crossfire ce n est pas mieux les joueurs ne devraient pas être obliger de tweaker, de bidouiller, de perdre du temps dans les forums. AMD pousse à acheter du neuf.
Ok Nvidia les cartes sont plus chères mais au niveau du suivi y a pas de comparaison avec AMD qui sont beaucoup moins reactifs.
Je ne pense pas que plus on va aller dans le temps mieux ce sera justement, le pc va mal quoiqu on en dise.  
 
Il suffit de regarder les ventes de Battlefield 3 qui sont derisoires sur pc par rapport aux chiffres sur console alors que je vous rappelle que le pc est la plate-forme de jeu la plus répandue.
 
Bon c est sur que le bi-gpu quand ça fonctionne bien c est un plaisir et une claque de voir tourner Metro 2033 a plein réime ou The Witcher 2.

n°8124842
pop-pan
yay!
Posté le 21-11-2011 à 12:41:23  profilanswer
 

solid13 a écrit :


 
Mes 2 écrans (206BW et PX2370) font 40W d'après l'APC. (Calcul)
 
J'arrive à 520W dans Furmark (preset 1080p)
 
PS: J'ai jamais entendu mes cartes aussi fort que ca xD (77 et 72 degrée au bout d'une minute)
 
Edit: 615W avec Furmark et OCCT


 
2600k@4.6 + 4*4Go + 3*SSD + 5970@800/1100 + pompe et 6 ventilos
machine idle => ~130W
burn gpu + cpu => ~500W
 
+ 80W/ecran mais ca compte pas dans le calcul de l'alim, seulement dans le dimensionnement de l'onduleur.
 
apres faut bien voir qu'une alim perd en efficacité en vieillissant, en general je dimensionne l'alim a +20%/30% de ma conso en burn. ca permet d'avoir de la marge (accessoirement eviter le probleme des puissances annoncées "en crete" ) et me permet de pas m'inquieter sur la durée (ah et une alim garantie 7 ans c'est bien aussi)
 
sinon les apc j'ai eu que des releves merdiques avec, du coup j'ai achete des wattmetre
genre ca tire 270W a la prise et l'onduleur m'affiche 225W, meme en prenant en compte les 10w qu'il pompe lui meme ca colle pas
 
 
 

mastergurt2 a écrit :


Oui moi non plus mais je pensais que que AMD ferait un effort pour Skyrim. Encore on parle des bi-gpu mais les crossfire ce n est pas mieux les joueurs ne devraient pas être obliger de tweaker, de bidouiller, de perdre du temps dans les forums. AMD pousse à acheter du neuf.
Ok Nvidia les cartes sont plus chères mais au niveau du suivi y a pas de comparaison avec AMD qui sont beaucoup moins reactifs.
Je ne pense pas que plus on va aller dans le temps mieux ce sera justement, le pc va mal quoiqu on en dise.  
 
Il suffit de regarder les ventes de Battlefield 3 qui sont derisoires sur pc par rapport aux chiffres sur console alors que je vous rappelle que le pc est la plate-forme de jeu la plus répandue.
 
Bon c est sur que le bi-gpu quand ça fonctionne bien c est un plaisir et une claque de voir tourner Metro 2033 a plein réime ou The Witcher 2.


 
nan mais le cross amd c'est trop bien, ca t'oblige a acheter les jeux 1 a 2 mois apres la sortie. du coup t'economise plein de sous. suffit de partir de ce principe et tout roule, genre tw2 2 mois apres il coutait 15e avec le patch 1.2 deja sorti, puis c'est bien pour les jeux online, si t'attends 2 mois tu sais deja ou il y aura des joueurs en plus d'avoir des reequilibrages :)
 
sinon faut arreter de deconner, le pc c'est la plateforme la plus repandue peut etre mais c'est pas la plateforme la plus repandue pour jouer, pas tout le monde lache 500e dans une UC pour jouer a des jeux developés pour console  
 
j'ai meme pas joué plus de 10mn a rage tellement c'est honteux et pourtant je l'ai achete tres recemment en esperant des perf drivers rapides et des fix (artefacts et textures moches/pop sur ma 5970, n'importe quoi sur ma 6950 jusqu'au 11.11)


---------------
Plop !
n°8125406
Krysmo28
Posté le 21-11-2011 à 20:43:48  profilanswer
 

mastergurt2 a écrit :


 
 
Oui moi non plus mais je pensais que que AMD ferait un effort pour Skyrim. Encore on parle des bi-gpu mais les crossfire ce n est pas mieux les joueurs ne devraient pas être obliger de tweaker, de bidouiller, de perdre du temps dans les forums. AMD pousse à acheter du neuf.
Ok Nvidia les cartes sont plus chères mais au niveau du suivi y a pas de comparaison avec AMD qui sont beaucoup moins reactifs.
Je ne pense pas que plus on va aller dans le temps mieux ce sera justement, le pc va mal quoiqu on en dise.  
 
Il suffit de regarder les ventes de Battlefield 3 qui sont derisoires sur pc par rapport aux chiffres sur console alors que je vous rappelle que le pc est la plate-forme de jeu la plus répandue.
 
Bon c est sur que le bi-gpu quand ça fonctionne bien c est un plaisir et une claque de voir tourner Metro 2033 a plein réime ou The Witcher 2.


Pour the witcher 2 tu n'as pas besoin d'un multi gpu pour jouer en full.
Metro 2033, je n'ai jamais essayé. Mais vu sa réputation de jeu hyper mal optimisé, je ne claquerai sûrement pas de tunes pour un crossfire histoire de jouer à un jeu mal conçu. (metro, BF3, etc)

n°8125575
moujet
Chef de Projet
Posté le 21-11-2011 à 23:07:06  profilanswer
 

mastergurt2 a écrit :


 
 
Oui moi non plus mais je pensais que que AMD ferait un effort pour Skyrim. Encore on parle des bi-gpu mais les crossfire ce n est pas mieux les joueurs ne devraient pas être obliger de tweaker, de bidouiller, de perdre du temps dans les forums. AMD pousse à acheter du neuf.
Ok Nvidia les cartes sont plus chères mais au niveau du suivi y a pas de comparaison avec AMD qui sont beaucoup moins reactifs.
Je ne pense pas que plus on va aller dans le temps mieux ce sera justement, le pc va mal quoiqu on en dise.  
 
Il suffit de regarder les ventes de Battlefield 3 qui sont derisoires sur pc par rapport aux chiffres sur console alors que je vous rappelle que le pc est la plate-forme de jeu la plus répandue.
 
Bon c est sur que le bi-gpu quand ça fonctionne bien c est un plaisir et une claque de voir tourner Metro 2033 a plein réime ou The Witcher 2.


Je ne peux qu'être d'accord avec toi, mais je ne suis pas sûre que le bi-gpu soit quelques chose à mettre entre toutes les mains, et ceux qui optent pour cette solution doivent s'attendre malheureusement à se prendre la tête.
 
Pour ma part la dernière en date est la désactivation de l'ULPS pour mes hd 6870...  
 
Concernant le jeux Pc et le Pc en générale lorsque je discute avec des personnes jusqu'à 50 piges c'est drôle mais ils ont tous bidouillés mobylette, modélisme etc... il faut déjà être passionné et pas trop fainéant sinon y'à les consoles hein?
 
Mais il est vrai que de la simplification permettrait de garder qques joueurs dans le giron Pc (et là je ne suis toujours pas sûre) tu sais je ne suis pas aussi fort que certains ici mais tenace pour assembler et régler les pbs des nbx configs que j'ai assemblé..
 
 J'ai  essayé de convertir bp de joueurs consoles mais ça n'a pas marché, non pas qu'ils avaient des Bsod lol beaucoup ne savent même pas que Steam leur permet d'acheter des jeux en ligne et préfère acheter des jeux 70 boules, bien je me prends plus la tête qu'ils se dém..!  
 
Jouer sur Pc ça se mérite et comme tu le disais quel plaisir de voir tourner Métro 2033 à fond ce qui est mon cas aussi! Mais quel plaisir aussi d'avoir une machine qui est un énorme Jukebox, boite à image, et une mobylette "kitée" :whistle:


Message édité par moujet le 21-11-2011 à 23:33:23
n°8125882
saian78
Dyslexics have more fnu!
Posté le 22-11-2011 à 12:12:41  profilanswer
 

:hello:

 

je m’apprête a acheter une CG HD 6870 de chez Sapphire, et j'hesite encore Entre les version FLEX et VAPOR'X !

 

l'idée d'avoir l'eventualité de  faire a moindre frais et complication une config 3 ecrans  avec la FLEX, me seduit bien, mais j'aimerais savoir si l'on gagne beaucoup en temperature et bruit a prendre la version VAPOR'X plutot que la FLEX :??:

 

je precise que je ne joue que peut souvent et tres souvent moins d'une heure !
 

 

pour infos :

 

Technologie Sapphire FleX

 

Avec une flexibilité maximale pour prix réduit, la technologie Sapphire FleX simplifie le déploiement de la solution multi-écrans Eyefinity d’AMD en permettant de connecter facilement trois moniteurs DVI SANS DEVOIR INVESTIR dans des écrans DisplayPort ou des adaptateurs actifs additionnels. La technologie Sapphire FleX permet de connecter jusqu’à quatre moniteurs à partir d’une seule carte graphique via le mode SLS (Single Large Surface).

 


SAPPHIRE FleX HD 6870 1GB GDDR5  http://www.sapphiretech.com/presen [...] id=3&leg=0

 


Vapor-X Technology

 

Vapor-X, la technologie de refroidissement innovante développée par SAPPHIRE, réduit le niveau sonore et thermique de votre système. Les produits Vapor-X vous permettent d’obtenir une expérience de jeu quasi-silencieuse et d’optimiser vos performances !

 

SAPPHIRE Vapor-X HD 6870 1GB GDDR5   http://www.sapphiretech.com/presen [...] id=3&leg=0

  

:jap:

Message cité 2 fois
Message édité par saian78 le 22-11-2011 à 12:15:22
n°8125910
Tsubaki57
BMW ///Merguez Performance
Posté le 22-11-2011 à 12:32:31  profilanswer
 

saian78 a écrit :

:hello:  
 
je m’apprête a acheter une CG HD 6870 de chez Sapphire, et j'hesite encore Entre les version FLEX et VAPOR'X !  
 
l'idée d'avoir l'eventualité de  faire a moindre frais et complication une config 3 ecrans  avec la FLEX, me seduit bien, mais j'aimerais savoir si l'on gagne beaucoup en temperature et bruit a prendre la version VAPOR'X plutot que la FLEX :??:
 
je precise que je ne joue que peut souvent et tres souvent moins d'une heure !
 
 
pour infos :  
 
Technologie Sapphire FleX
 
Avec une flexibilité maximale pour prix réduit, la technologie Sapphire FleX simplifie le déploiement de la solution multi-écrans Eyefinity d’AMD en permettant de connecter facilement trois moniteurs DVI SANS DEVOIR INVESTIR dans des écrans DisplayPort ou des adaptateurs actifs additionnels. La technologie Sapphire FleX permet de connecter jusqu’à quatre moniteurs à partir d’une seule carte graphique via le mode SLS (Single Large Surface).
 
 
SAPPHIRE FleX HD 6870 1GB GDDR5  http://www.sapphiretech.com/presen [...] id=3&leg=0
 
 
Vapor-X Technology
 
Vapor-X, la technologie de refroidissement innovante développée par SAPPHIRE, réduit le niveau sonore et thermique de votre système. Les produits Vapor-X vous permettent d’obtenir une expérience de jeu quasi-silencieuse et d’optimiser vos performances !
 
SAPPHIRE Vapor-X HD 6870 1GB GDDR5   http://www.sapphiretech.com/presen [...] id=3&leg=0
 
 
 
:jap:


 
Sauf qu'une 6870 est tout juste sur certains jeux en 1920*1080, alors pour une config 3 écrans mieux vaut oublier.
 
Du coup prends la Vapor X, le silence et un bon refroidissement c'est quelque chose qu'on regrette souvent de ne pas avoir.


---------------
Oui
n°8125939
moujet
Chef de Projet
Posté le 22-11-2011 à 13:09:13  profilanswer
 

saian78 a écrit :

:hello:  
 
je m’apprête a acheter une CG HD 6870 de chez Sapphire, et j'hesite encore Entre les version FLEX et VAPOR'X !  
 
l'idée d'avoir l'eventualité de  faire a moindre frais et complication une config 3 ecrans  avec la FLEX, me seduit bie
 
Avec une flexibilité maximale pour prix réduit, la technologie Sapphire FleX simplifie le déploiement de la solution multi-écrans Eyefinity d’AMD en permettant de connecter facilement trois moniteurs DVI SANS DEVOIR INVESTIR dans des écrans DisplayPort ou des adaptateurs actifs additionnels. La technologie Sapphire FleX permet de connecter jusqu’à quatre moniteurs à partir d’une seule carte graphique via le mode SLS (Single Large Surface).
 
 
SAPPHIRE FleX HD 6870 1GB GDDR5  http://www.sapphiretech.com/presen [...] id=3&leg=0
 
 
Vapor-X Technology
 
Vapor-X, la technologie de refroidissement innovante développée par SAPPHIRE, réduit le niveau sonore et thermique de votre système. Les produits Vapor-X vous permettent d’obtenir une expérience de jeu quasi-silencieuse et d’optimiser vos performances !
 
SAPPHIRE Vapor-X HD 6870 1GB GDDR5   http://www.sapphiretech.com/presen [...] id=3&leg=0
 
 
 
:jap:

par contre les Vapor X ne s'oc pas? J'ai eu 2 modeles (4870 rev2 et 5770) et l'Etage d'alimentation ne permettait pas l'Oc... il faudrait que tu regardes ça

n°8125947
Cizia
Posté le 22-11-2011 à 13:15:24  profilanswer
 

on pouvais bien sur les oc,c'est la tension que l'on ne pouvais pas modifier  :jap:


Message édité par Cizia le 22-11-2011 à 13:15:30

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°8125951
MonGalak2
Posté le 22-11-2011 à 13:18:33  profilanswer
 

heuuu des Vapor-X qui ne montent pas en frequence !!! jamais vu
 
t'as peut etre un peu trop forcer [:aia] et [:yamusha]
 
ou alors mauvaises series, non pas possible la 4870 montait bien [:al zheimer]
 
edit: avec ATT, je pouvais modifier la tension de la 4870 a la hausse  :jap:


Message édité par MonGalak2 le 22-11-2011 à 13:20:02
n°8125957
Krysmo28
Posté le 22-11-2011 à 13:22:25  profilanswer
 

Tsubaki57 a écrit :


 
Sauf qu'une 6870 est tout juste sur certains jeux en 1920*1080, alors pour une config 3 écrans mieux vaut oublier.
 
Du coup prends la Vapor X, le silence et un bon refroidissement c'est quelque chose qu'on regrette souvent de ne pas avoir.


La 6870 fait passer tous les jeux bien optimisés et dont les moteurs graphiques ont été bien conçus par les développeurs.

n°8125959
Fouge
Posté le 22-11-2011 à 13:24:49  profilanswer
 

Krysmo28 a écrit :

La 6870 fait passer tous les jeux bien optimisés et dont les moteurs graphiques ont été bien conçus par les développeurs.

Donc une minorité de jeux ? :whistle:  

n°8125960
Cizia
Posté le 22-11-2011 à 13:24:54  profilanswer
 

MonGalak2 a écrit :

heuuu des Vapor-X qui ne montent pas en frequence !!! jamais vu
 
t'as peut etre un peu trop forcer [:aia] et [:yamusha]
 
ou alors mauvaises series, non pas possible la 4870 montait bien [:al zheimer]
 
edit: avec ATT, je pouvais modifier la tension de la 4870 a la hausse  :jap:


 
 
oui mais avec les V1 qui avais un étage d'alim semblable au CG de référence  :)

Message cité 2 fois
Message édité par Cizia le 22-11-2011 à 13:25:09

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°8125977
Krysmo28
Posté le 22-11-2011 à 13:42:00  profilanswer
 

Fouge a écrit :

Donc une minorité de jeux ? :whistle:  


Non mais je met l'accent sur des jeux comme bf3 que vous mettez en référence pour les CG.
A l'époque il y avait un certain crisis qui mettait à terre toutes les CG, y compris les hauts de gamme. Résultat, certains ont claqué presque 1000€ pour les SLI ou crossfire afin de jouer à donf.
La bonne blague.
Moi des jeux comme ça je les met au placard, ou j'attend que des patchs sortent ....


Message édité par Krysmo28 le 22-11-2011 à 13:42:38
n°8125984
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 22-11-2011 à 13:47:11  profilanswer
 

Si tous les krysmo28 du monde pouvaient aider les développeurs à optimiser ou ne serait-ce que bien concevoir leurs moteurs, ca serait magique.


---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8125988
Krysmo28
Posté le 22-11-2011 à 13:49:11  profilanswer
 

darkstalker a écrit :

Si tous les krysmo28 du monde pouvaient aider les développeurs à optimiser ou ne serait-ce que bien concevoir leurs moteurs, ca serait magique.


C'est pas moi qui sort des jeux non finis, pour te balancer un patch d'un giga deux mois plus tard hein ....
Ils pensent qu'au fric, et le consommateur se fait bien entuber.

n°8125997
darkstalke​r
Saturn NTSC-J, What Else ?
Posté le 22-11-2011 à 13:58:16  profilanswer
 

Krysmo28 a écrit :


C'est pas moi qui sort des jeux non finis, pour te balancer un patch d'un giga deux mois plus tard hein ....
Ils pensent qu'au fric, et le consommateur se fait bien entuber.


 
Join the force, le monde a besoin de toi !
 
Utilise le krysmo book of 3D, dans lequel tous les algo d'optimisation et conception existent déjà (c'est bien connu que la 3D n'est pas un domaine de recherche)
Trouve l'auto financement pour te passer des editeurs et ainsi sortir des jeux finis à 100% (et trouver le Graal)
 
Et après viens nous subjuguer en nous disant que BF3 et crysis sont des exemples de mauvaise conception, nous serons tes éternels disciples.

Message cité 1 fois
Message édité par darkstalker le 22-11-2011 à 13:58:39

---------------
Cyrix 5x86 120MHz, Tseng Labs ET4000/W32p VLB, Doom@45FPS <3
n°8126106
ludovic629​60
Posté le 22-11-2011 à 15:23:10  profilanswer
 

bonjour à tous  
possesseur d'une AMD 6950 1GB, j'ai lu sur différents site qu'il été possible d'install" le Physx de chez Nvida pour une carte graphique ATI...  
est ce vraiment possible?  
ça apporte réellement quelque chose?

n°8126142
pop-pan
yay!
Posté le 22-11-2011 à 15:48:27  profilanswer
 

BF3 et crysis 2 font partie du programme twimtbp de nvidia.
en gros des ingé de chez nvidia specialisés regardent une partie des routines du moteur avec les devs pour les optimiser sur LEUR plateforme.
 
chez amd ca se fait un peu (genre vraiment un peu) et mollement.
faut pas s'etonner que pas mal de jeux soient pas optimisés amd et encore moins crossfire du coup.
 
sinon pour les soft sortis en post beta a patcher 1 mois plus tard c'est a peu pres le cas de TOUS les softs actuels (meme sur de l'embarqué genre ampli audio hein), je cite au hasard windows/ubuntu/ios/firefox...
je pourrais citer la plateforme sandy bridge aussi.
 
et comme on dit, personne t'oblige a acheter un jeu/os/carte graphique des sa sortie, t'achetes un mois plus tard, c'est moins cher et ca marche mieux en plus.


---------------
Plop !
n°8126156
LeKeiser
Appelez moi Marcel.
Posté le 22-11-2011 à 16:06:14  profilanswer
 

darkstalker a écrit :


 
Join the force, le monde a besoin de toi !
 
Utilise le krysmo book of 3D, dans lequel tous les algo d'optimisation et conception existent déjà (c'est bien connu que la 3D n'est pas un domaine de recherche)
Trouve l'auto financement pour te passer des editeurs et ainsi sortir des jeux finis à 100% (et trouver le Graal)
 
Et après viens nous subjuguer en nous disant que BF3 et crysis sont des exemples de mauvaise conception, nous serons tes éternels disciples.


ben quelque part (et pas loin) il n'a pas tort
sortir un jeu qui met à genoux les plus grosses cartes graphiques lorsqu'on souhaite jouer en "hautes résolutions", c'est ballot... Et après sortir moultes patches pour gagner des fps, ça veut quand même dire que l'optimisation n'était pas de rigueur.
Tout comme Krymos28, ces deux jeux là ne sont jamais passés par mon portemonnaie, en tout cas pas avant quelques années lorsqu'ils seront oubliés et que les cartes d'alors pourront les passer à +10fps :)


---------------
Et je regarde passer les jours comme les pages blanches d'un livre qui touche à sa fin.
n°8126186
Tsubaki57
BMW ///Merguez Performance
Posté le 22-11-2011 à 16:34:02  profilanswer
 

Quelqu'un saurait pourquoi j'ai une image immonde sur BF3 qui rappelle un peu du 800*600 upscalé ?

 

Je mets 1680*1050 60hz dans les options et j'applique, je retrouve une image nette mais a peine sorti du menu l'image redeviens immonde et si je reviens dans le menu video je suis pourtant sur la bonne réso. Si je re clique sur appliquer rebelote.

Message cité 1 fois
Message édité par Tsubaki57 le 22-11-2011 à 16:34:56

---------------
Oui
n°8126229
pop-pan
yay!
Posté le 22-11-2011 à 17:06:04  profilanswer
 

LeKeiser a écrit :


ben quelque part (et pas loin) il n'a pas tort
sortir un jeu qui met à genoux les plus grosses cartes graphiques lorsqu'on souhaite jouer en "hautes résolutions", c'est ballot... Et après sortir moultes patches pour gagner des fps, ça veut quand même dire que l'optimisation n'était pas de rigueur.
Tout comme Krymos28, ces deux jeux là ne sont jamais passés par mon portemonnaie, en tout cas pas avant quelques années lorsqu'ils seront oubliés et que les cartes d'alors pourront les passer à +10fps :)


 
c'est pas balo c'est de l'extrapolation,  il est deja difficile de jauger des capacites hard dispo reelement a la sortie d'un jeu vu que le dev d'un moteur et des outils prend facile 5 ans, si il faut y rajouter les contraintes multiplateforme on arrive a des machines cibles qui divergent forcement de ce a quoi on s'attendait.
 
en plus, le dev de moteur etant long et couteux, on doit delayer le prix des upgrades/maj sur la durée et rentabiliser ce dernier avec des licenses, on estime donc sa duree de vie "exploitable" sur les 5-10 ans qui suivent, d'ou forcement des MAJ specifiques qui vont dans le sens du hardware. ca a l'air facile d'optimiser des trucs en roue libre mais des qu'il s'agit d'integrer ca a un workflow de prod ca fait de suite intervenir beaucoup plus de gens.
 
Je pense par exemple au patch dx11 pour crysis2, ben mine de rien il a fallu retravailler les assets, rajouter des couches, les faire prendre en compte par le moteur sans effet de bord et sans pourrir le pipeline, debogguer, faire la QA, la distri...
 
apres tu as des trucs plus "simple" comme des optims sur certains shaders (ahhh splinter cell ou on pouvait modifier soit meme les shaders et leur complexité :) ) mais une vraie optim qui marche partout ca prends ENORMEMENT de temps, donc ca coute, donc faut rentabiliser un minimum et souvent les préco ca suffit pas.


---------------
Plop !
n°8126695
moujet
Chef de Projet
Posté le 22-11-2011 à 23:50:59  profilanswer
 

Cizia a écrit :

 


oui mais avec les V1 qui avais un étage d'alim semblable au CG de référence  :)


ahhhh bien je savais bien que je disais pas des couneries! (jai pris le soin de mentionner rev.2 ds mon commentaire initiale, y'en a un au moins qui me comprend!  Je parlais des tensions bien sûre! :whistle: )


Message édité par moujet le 23-11-2011 à 00:05:04
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  816  817  818  ..  839  840  841  842  843  844

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Topik Unik] Les AMD Radeon™ XFX HD 5870 ─ 587X ● mini BDD ● Sondage ●probleme d'affichage radeon 4870 : affichage surface réduite
[Topic Unique ?] Lian Li PC-8FI : Moyen tour 2010 !! Coming soon !![topic unique] Silverstone SG05 / SG06 / SG07
radeon 3650-3850-4650 agpATI 5750 ou 5770 ?
Probleme ATI HD 5850 POwercolor ati2dvag.dll 
Plus de sujets relatifs à : [Topic Unique] AMD Radeon HD 6800 et 6900 ; 40nm dx11


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)