Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2065 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  652  653  654  ..  985  986  987  988  989  990
Auteur Sujet :

OCCT - v16 stable, v17 beta : new test mémoire ou VOUS êtes le héros !

n°1888902
kozzi
Posté le 23-05-2009 à 19:49:10  profilanswer
 

Reprise du message précédent :
Oui c'est clair qu'il consomme beaucoup en idle et de manière injustifiée mais pour le problème de black screen c'est la conso totale qui fait planter.
 

mood
Publicité
Posté le 23-05-2009 à 19:49:10  profilanswer
 

n°1888904
Yoyo_5
Posté le 23-05-2009 à 19:52:58  profilanswer
 

Gigathlon a écrit :

Oublie pas qu'en idle il bouffe encore 50% du total du GPU... :o
 
A 500/450 1.1v j'ai un courant de 12.19A, à 500/900 1.1v ça passe quand même à 20.32A, et à priori le contrôleur mémoire est tout sauf stressé là...


J'ai aussi songé au contrôleur mémoire qui consommerait trop, mais on aura du mal à le prouver dans tous les cas... :/
Et le soucis qui fait planter la CG, c'est bien l'OCP. :jap:


---------------
¤ Paix et félicité ¤

n°1888910
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 20:05:28  profilanswer
 

kozzi a écrit :

Oui c'est clair qu'il consomme beaucoup en idle et de manière injustifiée mais pour le problème de black screen c'est la conso totale qui fait planter.


Pour ça que je vais pousser un peu les tests ;)
 
A ce sujet, y'a pas une version de l'AMD GPU Clock Tool qui fonctionne avec le RV770? J'ai testé la dernière dispo chez TechPowerUp mais il refuse de me baisser le core à 250 le saligaud :o


Message édité par Gigathlon le 23-05-2009 à 20:07:23
n°1888935
jaffax
no one shall pass
Posté le 23-05-2009 à 21:25:06  profilanswer
 

drapal! ;)


---------------
Partir, c'est mourir un peu... mourir, c'est partir beaucoup!
n°1888937
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 21:32:35  profilanswer
 

Bon, y'a un vrai souci quand même...
 
375/900 1.26v idle -> 25.74A
375/900 1.26v shader 3 -> 25.74A
 
[:gratgrat]
 
Ca voudrait dire qu'OCCT ne consomme rien, y'a un truc qui cloche :o

n°1888939
Profil sup​primé
Posté le 23-05-2009 à 21:34:55  answer
 

Fréquences 2D & 3D identiques :??:

n°1888940
yo59
OCBoy
Posté le 23-05-2009 à 21:46:31  profilanswer
 

Gigathlon a écrit :

Bon, y'a un vrai souci quand même...
 
375/900 1.26v idle -> 25.74A
375/900 1.26v shader 3 -> 25.74A
 
[:gratgrat]
 
Ca voudrait dire qu'OCCT ne consomme rien, y'a un truc qui cloche :o


 
Essaye avec un consomètre à la prise de courant. C'est quand même le meilleur moyen.

n°1888962
papillon59​771
Posté le 23-05-2009 à 22:35:33  profilanswer
 

pour info,
 
hd4870 version de ref rouge (3 vrm), avec back plate, vf1000, et un 80 sur les vrm. 790/900
 
avec les shaders à 3, plantage au bout d'1mn , à 79A , temp gpu 60°et  80° en température vrm.
 
Mon régul coupe à 79, alors que d'autres , cela oscille entre 80 et 83A.  
 
Défaut de conception du VTec???


---------------
un homme qui n'a plus rien à perdre, a tout à gagner.
n°1888966
Gigathlon
Quad-neurones natif
Posté le 23-05-2009 à 22:42:11  profilanswer
 

Bon, c'était le VT11xx qui foirait... le GPU était bloqué en mode 3D et ne répondait même plus à Voltage Factory.
 
Résultats de mes tests:


GPU/RAM -  Idle |  Load
 
375/450 - 14.90 | 47.42
375/675 - 20.32 | 52.16
375/900 - 25.74 | 56.90
562/450 - 14.90 | 53.52
562/675 - 20.32 | 67.74
562/900 - 25.74 | 73.16
750/450 - 14.90 | 57.58
750/675 - 20.32 | 79.94


Outre l'envolée de la conso idle avec la fréquence de la GDDR5, rien de particulier en fait.
 
Monter la RAM de 50/100% fait monter la conso de 10/20%.
Monter le GPU de 50/100% fait monter la conso de 13/22%.
 
A 750/675 on est déjà bien proche de la limite.


Message édité par Gigathlon le 23-05-2009 à 22:42:19
n°1888978
burn2
Pour ceux qui viendront après
Posté le 23-05-2009 à 23:39:03  profilanswer
 

Tetedeiench a écrit :

J'ai eu PCInpact au téléphone : ca va bouger, AMD est sur le coup, ils étudient le problème, ca bouge énormément :o
 
Aliss : les fréquences exactes de ta 4890 qui faisaient planter Stalker Clear sky s'il te plait (GPU et mémoire)? Tensions ?Et dans quelle scène ? Un bench particulier ? C'est très intéressant :) Merci énormément :jap:


Me revoilà, j'ai raté le dénouement. Je suis en train de tout lire. Bravo pour le pavé dans la mare. :D
:hello: à tout le monde. :)


Message édité par burn2 le 23-05-2009 à 23:41:28

---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
mood
Publicité
Posté le 23-05-2009 à 23:39:03  profilanswer
 

n°1888988
Wilfried28​_2
Posté le 24-05-2009 à 00:07:32  profilanswer
 

OCCT marche pour overclocker les "vieux" Barton 2600+ en Socket A ?


---------------
Ex HFR : Wilfried2828 -->>  Wilfried28_2  le retour...
n°1888990
SynE
Agri du dessert
Posté le 24-05-2009 à 00:10:21  profilanswer
 

oui

n°1889001
Gigathlon
Quad-neurones natif
Posté le 24-05-2009 à 00:56:40  profilanswer
 

J'y pense depuis tout à l'heure, mais Wirmish a pas forcément (totalement) tort dans son commentaire sur presence pc...
 
La GTX285 elle donne réellement moins de fps qu'une 4870/4890? Si oui ça pourrait expliquer le problème, sachant que l'archi du RV770 est clairement moins efficace en temps normal, et donc consomme moins... sauf que là, manque de pot, OCCT charge le shader core à donf et fait péter les watts.
 
A 83A pour 1.2625v sur la 4870, on est quand même déjà à 105w rien que pour le GPU, ce qui est énorme et doit dépasser les specs calculées par AMD, qui pour rappel donne la carte pour 160w...
 
160w ça nous laisserait à peine 55w pour:
 
- le convertisseur DC/DC, dont le rendement avoisine les 90% (16w)
- la RAM
- le convertisseur DC/DC propre à la RAM
- le ventilo (si ça a pas changé, 13w...)
 
Sachant qu'on a déjà vu des conso de malade avec furmark (200w), c'est même pu du sous-dimensionnement mais clairement un calcul trop péssimiste sur le cumul des conso.
 
Le GT200 n'a pas ce souci car la conso annoncée et donc calculée est de plus de 200w (240w pour la GTX280 de mémoire), et comme les unités de calcul sont plus efficaces l'écart est moindre...

Message cité 1 fois
Message édité par Gigathlon le 24-05-2009 à 00:59:12
n°1889009
sixpack
Posté le 24-05-2009 à 01:58:34  profilanswer
 

Y'a pas moyen de faire un test power supply avec le test OCCT + GPU?
 
Je peux faire des heures et des heures de OCCT, de prime SP2004, de CPUStressMT et n'importe quoi d'autre.
 
Mais des que je lance tat ou linpack j'explose la temperature et j'ai un reboot...
 
http://img8.imageshack.us/img8/8133/2009052322h34cpu1.png
 
80° c'est limite bcp pour une C2D mais le tjmax du E4300 est à 100° (un peu plus que les autres).
Si je diminue le Vcore j'ai des erreurs.
 
Je suis conscient que ma config est pas rockstable mais pour l'instant ca me suffit pour jouer en encodant une video dernière sans planter.
 
 

n°1889012
Gigathlon
Quad-neurones natif
Posté le 24-05-2009 à 02:12:40  profilanswer
 

Plantage au delà des 84A, et j'ai même eu droit à une image [:dawa]
 
Sinon, ça a pris moins de 50ms... [:yamusha]


Message édité par Gigathlon le 24-05-2009 à 02:17:32
n°1889016
Cizia
Posté le 24-05-2009 à 02:22:57  profilanswer
 

trouve très dommage cette nouvelle histoire qui ternie l'image de ces carte graphique,alors que ces soucies ce rencontrerons jamais "in games".
 
 
 
j'ai tester 5*4870 qui on bien connue l'oc et qui on bien bosser en jeux et jamais u ce genre de phénomène...   :sol:  
 
 
après qu'un nouveau logiciel disent "non",je vois pas ce qu'on s'en tape franchement...   :sarcastic:

Message cité 3 fois
Message édité par Cizia le 24-05-2009 à 02:25:16

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°1889017
sixpack
Posté le 24-05-2009 à 02:25:15  profilanswer
 

Bien si tu achètes une voiture qui peut rouler à 220Km/h mais qui s'éteint à 180km/h t'es pas content, meme si c'est limité à 130km/h max sur les routes.

n°1889018
Cizia
Posté le 24-05-2009 à 02:27:12  profilanswer
 

oui enfin j'appelle ça "en"""é les mouches " moi...  :whistle:  
 
c'est vraiment chercher des soucies ou il n'y en a pas...   :sarcastic:


Message édité par Cizia le 24-05-2009 à 02:30:00

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°1889019
majuto
Agadou Clan Fondator
Posté le 24-05-2009 à 02:29:47  profilanswer
 

Le probleme arrive aussi sous Stalker CS avec AA et je sais plus quoi, donc dans les jeux ca va venir ;)


---------------
Mon FeeD-BacK <|>  Mon topic
n°1889020
Cizia
Posté le 24-05-2009 à 02:32:16  profilanswer
 

ah bon?
 
je l'ai pourtant fini sans soucie moi.  (with aa of course)
 
pourtant avec une 4870 pcs+ grimper a 870/1075.
 
je dois avoir des 4870 "spéciale" alors...  :whistle:

Message cité 1 fois
Message édité par Cizia le 24-05-2009 à 02:32:55

---------------
Un Ami ? C'est quelqu'un à qui on peut téléphoner à trois heures du matin en disant qu'on vient de commettre un crime et qui vous répond seulement : " Où est le corps ?! " ~/~ Alain Delon
n°1889021
kozzi
Posté le 24-05-2009 à 02:40:27  profilanswer
 

Cizia a écrit :

ah bon?
 
je l'ai pourtant fini sans soucie moi.  (with aa of course)
 
pourtant avec une 4870 pcs+ grimper a 870/1075.
 
je dois avoir des 4870 "spéciale" alors...  :whistle:


 
Ben ce n'est pas une au design de ref la tienne donc pas de soucis.
 
Sinon j'ai une HD4890 de ref qui est concernée.
Et même si en effet in game je n'ai pas de soucis, je trouve quand même limite cette histoire.
Pour comparer, tu serais d'accord d'avoir un cpu qui se vautre @ stock sous linpack? (même si linpack ne représente en rien un utilisation courante)

n°1889025
Gigathlon
Quad-neurones natif
Posté le 24-05-2009 à 03:01:43  profilanswer
 

Cizia a écrit :

trouve très dommage cette nouvelle histoire qui ternie l'image de ces carte graphique,alors que ces soucies ce rencontrerons jamais "in games".


Le problème n'est pas que ça se rencontre sous OCCT, mais que ça soit possible.
 
Aujourd'hui c'est avec OCCT, mais demain?
 
AMD annonce ses 4870 pour 160w, Furmark les montait déjà à 210w selon je ne sais plus quel test, OCCT semble les monter encore au delà, déjà ça c'est pas normal car la conso annoncée ne doit en aucun cas être une conso typique.
 
Ajoute à ça que visiblement la majorité des fabricants ont mis en place une sécurité en tablant sur ces mêmes 160w et t'obtiens un tableau pas bien rose...
 
 
Derniers tests de cette soirée:
 
- GPU 750 RAM 775 -> VRM à 127/127/130°C, tenu 5 minutes avec des pointes à 83.32A
- GPU 750 RAM 785 -> blank screen en 2 secondes, pas assez pour voir à quel niveau ça montait
 
Les VRM sont clairement insuffisamment refroidis.


Message édité par Gigathlon le 24-05-2009 à 03:11:30
n°1889032
Xixou2
Posté le 24-05-2009 à 08:00:27  profilanswer
 

Pas de réponse de teteiench, aurais-t'il déjà valsé en prison ? ^^

n°1889043
Yoyo_5
Posté le 24-05-2009 à 09:36:02  profilanswer
 

Cizia a écrit :

trouve très dommage cette nouvelle histoire qui ternie l'image de ces carte graphique,alors que ces soucies ce rencontrerons jamais "in games".
 
j'ai tester 5*4870 qui on bien connue l'oc et qui on bien bosser en jeux et jamais u ce genre de phénomène...   :sol:  
 
après qu'un nouveau logiciel disent "non",je vois pas ce qu'on s'en tape franchement...   :sarcastic:


T'aurais été le premier à condamner nVidia si cela leur était arrivé... :ange:


---------------
¤ Paix et félicité ¤

n°1889045
juju251
Posté le 24-05-2009 à 09:44:33  profilanswer
 

Cizia a écrit :

trouve très dommage cette nouvelle histoire qui ternie l'image de ces carte graphique,alors que ces soucies ce rencontrerons jamais "in games".


Ouais, enfin, il faut relativiser aussi, là on est vraiment dans un cas extreme, je doute fortement que les jeux (même à venir) puissent exiger autant des cartes graphiques au point de les faire planter comme le fait OCCT dans sa dernière version.
 
En tout cas, perso ce n'est pas ça qui va me faire dire du mal des Radeon... Et puis bon, des problèmes de conception il y en a eu aussi chez Nvidia par le passé (et il y en aura toujours chez n'importe quel constructeur).

n°1889046
alexreunio​n
Posté le 24-05-2009 à 09:53:08  profilanswer
 

juju251 a écrit :


Ouais, enfin, il faut relativiser aussi, là on est vraiment dans un cas extreme, je doute fortement que les jeux (même à venir) puissent exiger autant des cartes graphiques au point de les faire planter comme le fait OCCT dans sa dernière version.
 
En tout cas, perso ce n'est pas ça qui va me faire dire du mal des Radeon... Et puis bon, des problèmes de conception il y en a eu aussi chez Nvidia par le passé (et il y en aura toujours chez n'importe quel constructeur).


 
Et c'est une raison pour ne pas les soulever?
 
Si des CG Nvidia étaient touchés, tu aurais dit quoi? Réfléchis y.


---------------
Mon feedback
n°1889047
burn2
Pour ceux qui viendront après
Posté le 24-05-2009 à 09:53:43  profilanswer
 

Une petite question, maintenant qu'on connait à peut près le palier, pouvez vous lancer certains jeux courrant et qui sont assez lourd graphiquement pour voir à combien vous êtes niveau A sur les vrm voir si on est loin ou pas du palier???
N'hesitez pas à varier les jeux et voir
 
juju251, tu ne sais pas de quoi est fait le futur, on en a déjà parlé précédemment, et surtout avec le gpgpu qui est un gros flou technologique, rien ne dit qu'on arrivera pas à une telle charge en calcul via le gpu...

Message cité 2 fois
Message édité par burn2 le 24-05-2009 à 09:54:34

---------------
"C'est vrai qu'un type aussi pénible de jour on serait en droit d'espérer qu'il fasse un break de nuit mais bon …"
n°1889051
Tetedeienc​h
Head Of God
Posté le 24-05-2009 à 10:03:40  profilanswer
 

Gigathlon a écrit :

J'y pense depuis tout à l'heure, mais Wirmish a pas forcément (totalement) tort dans son commentaire sur presence pc...
 
La GTX285 elle donne réellement moins de fps qu'une 4870/4890? Si oui ça pourrait expliquer le problème, sachant que l'archi du RV770 est clairement moins efficace en temps normal, et donc consomme moins... sauf que là, manque de pot, OCCT charge le shader core à donf et fait péter les watts.
 
A 83A pour 1.2625v sur la 4870, on est quand même déjà à 105w rien que pour le GPU, ce qui est énorme et doit dépasser les specs calculées par AMD, qui pour rappel donne la carte pour 160w...
 
160w ça nous laisserait à peine 55w pour:
 
- le convertisseur DC/DC, dont le rendement avoisine les 90% (16w)
- la RAM
- le convertisseur DC/DC propre à la RAM
- le ventilo (si ça a pas changé, 13w...)
 
Sachant qu'on a déjà vu des conso de malade avec furmark (200w), c'est même pu du sous-dimensionnement mais clairement un calcul trop péssimiste sur le cumul des conso.
 
Le GT200 n'a pas ce souci car la conso annoncée et donc calculée est de plus de 200w (240w pour la GTX280 de mémoire), et comme les unités de calcul sont plus efficaces l'écart est moindre...


 
Effectivement, le coup du nombre d'image/s inférieur sur les GT200 est intriguant. Ca chauffe assez pour être un bon test de stabilité, mais on peut se demander si il est aussi efficace.
 
Sur les GT200, j'essaie d'isoler le "pourquoi" du nombre d'image/s inférieur.
 
Pour l'instant, je n'y suis pas arrivé. Ca n'a pas l'air d'être un blem de shader. Je travaille dessus en ce moment même.


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1889053
juju251
Posté le 24-05-2009 à 10:05:38  profilanswer
 

alexreunion a écrit :


 
1) Et c'est une raison pour ne pas les soulever?
 
2) Si des CG Nvidia étaient touchés, tu aurais dit quoi? Réfléchis y.


1) Surement pas, mais ce n'est pas non plus une raison pour dire qu'ATI (enfin dans ce cas, mais ça aurait pu être nvidia ou n'importe qui d'autre) fait des produits daubiques.
 
2) La même chose (enfin à condition que j'aie eu une nvidia pour tester :D )
Je n'ai pas habitude de "défoncer" un constructeur sous prétexte que je n'aime pas leurs produits ou leur politique commerciale, de même je ne minimise pas les conséquences (ou même les problèmes) sur des produits de constructeurs que j'apprécie.

n°1889054
juju251
Posté le 24-05-2009 à 10:07:21  profilanswer
 

burn2 a écrit :

juju251, tu ne sais pas de quoi est fait le futur, on en a déjà parlé précédemment, et surtout avec le gpgpu qui est un gros flou technologique, rien ne dit qu'on arrivera pas à une telle charge en calcul via le gpu...


Oui, c'est sûr, mais une fois encore, est ce que le shader utilisé par Tetedeiench est un shader que l'on peut retrouver (ou du moins une structure comparable) dans un cas courant?

n°1889055
alexreunio​n
Posté le 24-05-2009 à 10:07:56  profilanswer
 

juju251 a écrit :


1) Surement pas, mais ce n'est pas non plus une raison pour dire qu'ATI (enfin dans ce cas, mais ça aurait pu être nvidia ou n'importe qui d'autre) fait des produits daubiques.
 
2) La même chose (enfin à condition que j'aie eu une nvidia pour tester :D )
Je n'ai pas habitude de "défoncer" un constructeur sous prétexte que je n'aime pas leurs produits ou leur politique commerciale, de même je ne minimise pas les conséquences (ou même les problèmes) sur des produits de constructeurs que j'apprécie.


Je quote, on ne sait jamais, un jour ça pourrait servir :o


---------------
Mon feedback
n°1889056
juju251
Posté le 24-05-2009 à 10:09:43  profilanswer
 

alexreunion a écrit :


Je quote, on ne sait jamais, un jour ça pourrait servir :o


Tu peux quoter, pas de soucis, je sais rester objectif quand même, j'ai passé l'age des "XXXX cay que de la daube" et surtout, je sais argumenter mes avis. :jap:

n°1889059
Fouge
Posté le 24-05-2009 à 10:24:34  profilanswer
 

Moi je trouve ça normal d'essayer de faire du bruit (surtout après avoir contacté le fabricant sans succès) à chaque fois qu'il y a un problème, surtout sur du matériel haut de gamme où l'on s'attend à une qualité supérieur au matériel bas de gamme (où l'on aurait été un peu plus compréhensible si le design avait été trop "léger", quoique par principe...).
CanardPC avait fait la même chose sur une alim Corsair de très bonne qualité : c'était une alim de référence mais elle possédait un défaut et le test l'avait bien mis en évidence. Corsait fut contacté, a répondu et a même sorti une V2 corrigeant le problème. C'est comme ça que ça devrait à chaque fois se passer.

 

Concernant leur design de référence, la 4ème phase était prévu (il y a l'emplacement), je ne pense pas que le surcout soit important (surtout que certains fabricant l'ont ajouté par eux-même cette 4ème phase, voire ont complètement redesigné la carte). Le moins que l'on puisse attendre d'eux, c'est que le design de ref soit modifié afin que les prochaines HD4870/4890 proposent un niveau de qualité identique aux autres modèles d'ATI/nVidia.

Message cité 1 fois
Message édité par Fouge le 24-05-2009 à 10:27:49
n°1889060
Tetedeienc​h
Head Of God
Posté le 24-05-2009 à 10:24:45  profilanswer
 

juju251 a écrit :


Oui, c'est sûr, mais une fois encore, est ce que le shader utilisé par Tetedeiench est un shader que l'on peut retrouver (ou du moins une structure comparable) dans un cas courant?

 

Le problème n'est pas là. Le problème, c'est de se dire que du coup, la carte d'ATI n'est pas compatible DirectX (j'exagère un peu à dessein, mais on pourrait arriver à cette conclusion). Car là, franchement, ca la fout mal. J'ai pondu une petite scene DirectX qui te fout la carte en sécurité, et pas n'importe laquelle.

 

Si encore c'était un bug des pilotes, passe encore. Limite, le bas de gamme, on pourrait dire "boah, spa trop grave. La, on est dans le haut de gamme ATI, et on touche les limites matérielles, la mise en sécurité pour avoir frôlé les limites matérielles des cartes.

 

Alors, qu'en déduire de ce problème ?

  • Qu'on le rencontrera dans des jeux ? probablement pas. Sauf si dans FFXXV on rencontrera le dieu "donut poilu" du destin qui te donne ton futur et qu'ils décident de pas tester sur les cartes ATI, y aura pas de problème.
  • Que la carte est limite ? Oui. C'est bien beau  de produire du haut de gamme, de dire "c'est de la bombe", mais si tu as déjà une appli qui arrive à la mettre en sécurité @stock, je te raconte pas les capacités d'overclocking de la carte en question...
  • Que le support d'AMD est pas super ? C'est peut-être ca la chose à en retenir. J'ai jamais eu de mails de leur part, jamais eu de réponse, la seule fois où ils m'ont écrit, c'est quand le blem a été détecté, et finalement ca leur pète à la tronche. J'ai même pas cherché à les contacter suite à ce souci. Ils m'ont toujours ignoré. Alors quand je me ramène avec "votre haut de gamme part en sécu sur mon soft", ils auraient même pas lu le mail.


Alors oui, le truc chiant dans l'affaire, c'est que cela arrive à celui qui fait figure, dans l'imaginaire des gens, au petit poucet rouge face au grand géant vert. Maintenant, c'aurait été le grand géant vert qui aurait eu une pustule sur la joue droite, j'aurai fait pareil... et ca m'aurait coûté les deux cartes que j'ai en prêt, de manière quasiment certaine...

 

Que le problème ne soit pas grave, ne justifie pas de jeter les cartes ATI dans la poubelle, on en est tous convaincus. Maintenant, journalistiquement parlant et éthiquement parlant, c'est ma ligne de conduite que de mettre une carte dans ses derniers retranchements, de voir son comportement, et quand tu détecte un défaut, de le signaler. Là, on a détecté quelque chose de grave, j'ai été obligé de faire du bruit pour être entendu (la prochaine fois, à mon avis, plus la peine de faire autant de bruit, on me croira plus facilement après une réussite pareille, grâce à vous les mecs), je l'ai fait, j'ai joué gros (je me serai planté, OCCT, c'était fini, 6 ans de taff aux chiottes), et on a réussi.

 

Voilà l'histoire. Tu sais, ca me fait pas particulièrement plaisir que ca soit AMD. Pas plus que ca soit Nvidia. Je comprends que ceux qui aient une HD4870 aient les boules. Mais c'est pas moi le responsable. Moi, j'ai soulevé le lièvre. Celui qui a fait le terrier et mis la bête, c'est AMD et les fabricants, pas moi.

Message cité 1 fois
Message édité par Tetedeiench le 24-05-2009 à 10:25:55

---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1889061
Yoyo_5
Posté le 24-05-2009 à 10:27:05  profilanswer
 

Fouge a écrit :

Moi je trouve ça normal d'essayer de faire du bruit (surtout après avoir contacté le fabricant sans succès) à chaque fois qu'il y a un problème, surtout sur du matériel haut de gamme où l'on s'attend à une qualité supérieur au matériel bas de gamme (où l'on aurait été un peu plus compréhensible si le design avait été trop "léger", quoique par principe...).
CanardPC avait fait la même chose sur une alim Corsair de très bonne qualité : c'était une alim de référence mais elle possédait un défaut et le test l'avait bien mis en évidence. Corsait fut contacté, a répondu et a même sorti une V2 corrigeant le problème. C'est comme ça que ça devrait à chaque fois se passer.
Concernant leur design de référence, la 4ème phase était prévu (il y a l'emplacement), je ne pense pas que le surcout soit important (surtout que certains fabricant l'ont ajouté par eux-même cette 4ème phase, voire ont complètement redesigné la carte). Le moins que l'on puisse attendre d'eux, c'est que le design de ref soit modifié afin que les prochaines HD4870/4890 proposent un niveau de qualité identique aux autres modèles d'ATI/nVidia.


Powercolor a rajouté cette 4ième phase au design de ref d'ATI, mais sur peu de 4870, ça lui revenait "trop cher" (il ne margeait pas assez sur le prix de vente), du coup ils ont refait un tout nouveau PCB, nettement moins coûteux, vendu aussi cher... :/


---------------
¤ Paix et félicité ¤

n°1889062
Fouge
Posté le 24-05-2009 à 10:29:48  profilanswer
 

Et ce nouveau design de PowerColor pose lui aussi problème ? Si c'est le cas... :/

Message cité 1 fois
Message édité par Fouge le 24-05-2009 à 10:30:02
n°1889063
Yoyo_5
Posté le 24-05-2009 à 10:33:11  profilanswer
 

Fouge a écrit :

Et ce nouveau design de PowerColor pose lui aussi problème ? Si c'est le cas... :/


Non toujours 4 phases, donc ne devrait pas poser de soucis sauf sur la durée du test où les VRM chaufferont beaucoup et probablement qu'ils planteront la CG pour cause de chauffe exceessive sans ventilation adéquate. ;)


Message édité par Yoyo_5 le 24-05-2009 à 10:33:48

---------------
¤ Paix et félicité ¤

n°1889064
astrojojo
Editeur compulsif
Posté le 24-05-2009 à 10:35:16  profilanswer
 

Yoyo_5 a écrit :


Powercolor a rajouté cette 4ième phase au design de ref d'ATI, mais sur peu de 4870, ça lui revenait "trop cher" (il ne margeait pas assez sur le prix de vente), du coup ils ont refait un tout nouveau PCB, nettement moins coûteux, vendu aussi cher... :/

 

Les PCS+ ont toujours 4 phases même sur les V2, tu parles de quel modèle  :??: ?

 

edit : ah ok tu parle de réduire le coup de fabrication sur les V2.

Message cité 1 fois
Message édité par astrojojo le 24-05-2009 à 10:35:54
n°1889065
Yoyo_5
Posté le 24-05-2009 à 10:37:24  profilanswer
 

astrojojo a écrit :

Les PCS+ ont toujours 4 phases même sur les V2, tu parles de quel modèle  :??: ?
 
edit : ah ok tu parle de réduire le coup de fabrication sur les V2.


Oui elles ont toujours 4 phases, mais elles sont analogiques et non numériques sur les V2... :jap:


---------------
¤ Paix et félicité ¤

n°1889066
Tetedeienc​h
Head Of God
Posté le 24-05-2009 à 10:40:18  profilanswer
 

Pourquoi j'ai une GTX285 et pas une 280 :cry: J'ai pas le monitoring du VRMA :cry:


---------------
L'ingénieur chipset nortiaux : Une iFricandelle svp ! "Spa du pâté, hin!" ©®Janfynette | "La plus grosse collec vivante de bans abusifs sur pattes" | OCCT v16 OUT !
n°1889068
Yoyo_5
Posté le 24-05-2009 à 10:49:17  profilanswer
 

Ouais, diminution des coûts toussa... :/
EDIT: Au pire propose un échange temporaire avec quelqu'un du fofo qui aurait une GTX280, quelqu'un de confiance. :jap:


Message édité par Yoyo_5 le 24-05-2009 à 10:50:16

---------------
¤ Paix et félicité ¤

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  652  653  654  ..  985  986  987  988  989  990

Aller à :
Ajouter une réponse
 

Sujets relatifs
Pkoi mon PC devient tres lent des que le disque dur travailleMoi j'appelle ça du travaille d'orfèvrerie ...
Plus de sujets relatifs à : OCCT - v16 stable, v17 beta : new test mémoire ou VOUS êtes le héros !


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)