Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2413 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  6  7  8  ..  27  28  29  30  31  32
Auteur Sujet :

Core 2 Duo : avez-vous raison de craquer ?

n°4958250
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 15:34:45  profilanswer
 

Reprise du message précédent :
Si vous saviez la puissance des XP... :love:
 
EDIT :D : A coeur Barton, les autres c'est très moyen :o
 
Je sais qu'avec une 9200, on fait tourner WoW...

Message cité 1 fois
Message édité par K-TrazZ le 31-07-2006 à 15:37:35
mood
Publicité
Posté le 31-07-2006 à 15:34:45  profilanswer
 

n°4958255
C501
ID PSN : Ur-501
Posté le 31-07-2006 à 15:37:01  profilanswer
 

...... topic Core 2 Duo : la puissance des XP
?????????????????????????????????  
 
?


---------------
Sleep is overrated...
n°4958258
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 15:38:50  profilanswer
 

Ok, c'est bon^^ :D  
 
Donc on disait, que les bonne cartes mères Core 2 Duo ne seraient pas dispo' avant septembre très probablement :whistle:

n°4958262
fandango_b​dr
Posté le 31-07-2006 à 15:39:30  profilanswer
 

K-TrazZ a écrit :

Evidemment, y a un bug dans l'installation, tant pis... :sweat:  
 
Mais, je sais ce que je sais :o


 
 
C'est normal qu'il y ait un bug à l'install, BF2 necessite une carte graphique DX9.0
Hum hum....

n°4958265
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 15:40:41  profilanswer
 

Non, je parlais de Vice City là, quant à BF², crois ce que tu veux...
 
M*rde, c'était pas BF²!!!
 
C'était San Andreas mdrrrrrrr
 
Excusez-moi!! :fou:


Message édité par K-TrazZ le 31-07-2006 à 15:42:55
n°4958268
god is dea​d
Demain, j'arrête de poster.
Posté le 31-07-2006 à 15:41:52  profilanswer
 

K-TrazZ a écrit :

Si vous saviez la puissance des XP... :love:
 
EDIT :D : A coeur Barton, les autres c'est très moyen :o
 
Je sais qu'avec une 9200, on fait tourner WoW...


Mouarf, on voit que t'as rien touché d'autre que ton barton, tu sais que maintenant t'as des cpu 3/4 fois plus puissant?
 
Enfin on s'en tape des barton là, Conroe roulez :o


Message édité par god is dead le 31-07-2006 à 15:42:32

---------------
Donner ce qu’on n’a pas, et promettre ce qu’on ne peut pas donner.
n°4958272
C501
ID PSN : Ur-501
Posté le 31-07-2006 à 15:43:00  profilanswer
 

y a dj l P5WDH et la DQ6 donc il y a dj de très bonnes mobo en vente


---------------
Sleep is overrated...
n°4958274
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 15:43:30  profilanswer
 

Lol, si, j'ai un pote qui a le X²3800+, ça change... :)

n°4958278
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 15:44:56  profilanswer
 

Oui, mais, la P5WDH était conçue avant, j'en déduis donc, qu'on perd un peu de puissance, nan? :o  
 
Mais, la DQ6 a pas l'air mal c'est bien vrai :sol:

n°4958297
C501
ID PSN : Ur-501
Posté le 31-07-2006 à 15:51:13  profilanswer
 

non on perd pas de puissance puisqu'elle est tj devant la DQ6 dans les test !


---------------
Sleep is overrated...
mood
Publicité
Posté le 31-07-2006 à 15:51:13  profilanswer
 

n°4958305
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 15:54:56  profilanswer
 

T'as un test, tu peux passer stp? :jap:

n°4958328
K-TrazZ
Le Conroe, câÿ hleuh mäÂhl
Posté le 31-07-2006 à 16:05:41  profilanswer
 

Oui oui, autant pour moi, j'avais confondu c'était San Andreas :(

n°4958341
C501
ID PSN : Ur-501
Posté le 31-07-2006 à 16:11:51  profilanswer
 

att je dois chercher un peu...
la je fais mon boitier HM donc ma présence c'est les temps de séchage de colle lol


---------------
Sleep is overrated...
n°4958437
jose112
Posté le 31-07-2006 à 16:57:41  profilanswer
 

Salut à tous,
Je prends la conversation en route, juste pour demander un complement d'information.
Etes-vous sur que le conroe est compatible avec la DDR1? Car, je vous explique mon dilemme: pour l'instant je possède un barton 3200+ avec une AGP 7800GS overcklokee par la fabriquant XFX, et je suis trés content de cette carte video et mon processeur commence à donner des signes de faiblesse.
J'aimerai passer au conroe avec une asrock dual en consservant ma carte graphique et mes barettes mémoire 2X512 DDR1.
 
Mais je pensai que le conroe n'acceptait que de la DDR2. Alors, je suiis étonné.
 
Merci de me confirmer cela.  
 
Surtout, que quelqu'un ne vienne pas me dire que Asrock c'est nul, car je connais un tas de copain qui en possèdent que ce soit AMD ou INTEL, ils en sont trés content.
 
Je ne comprend pas la critique qui est faite autour de ces cartes.

n°4958440
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 17:00:06  profilanswer
 

Le Conroe supporte tout simplement n'importe quelle RAM, tout vient du chipset.

n°4958447
johnbroot
n00b Inside
Posté le 31-07-2006 à 17:01:04  profilanswer
 

Et concretement y'a une mobo qui gere le conroe+ddr1?

n°4958449
Goranak
Posté le 31-07-2006 à 17:02:55  profilanswer
 

johnbroot a écrit :

Et concretement y'a une mobo qui gere le conroe+ddr1?


 
non. yen a 4 ou 5 au moins :).
 
http://forum.hardware.fr/hardwaref [...] 5329-1.htm

n°4958450
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 17:03:00  profilanswer
 

Asrock à base d'XPress 200 mais pas d'AGP...
 
La seule qui le gère autrement est à base d'i865 mais ce chipset ne gère officiellement pas le FSB 1066 du Conroe.

n°4958455
johnbroot
n00b Inside
Posté le 31-07-2006 à 17:05:08  profilanswer
 

merci pour vos réponses. :)
M'enfin je sens quand même que je vais rester avec ma config encore qqs mois le temps que les prix se tassent. Si je passe au conroe de toute façon ça va etre changement de mobo proco ram et carte gfx. Arf je vais devoir revendre mes 2 Go de Gskill :/


Message édité par johnbroot le 31-07-2006 à 17:06:44
n°4958469
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-07-2006 à 17:11:05  profilanswer
 

Millenius a écrit :

Gros joueur = besoin de fps
Donc le GPU est + important que le CPU


 
Franchement ce type de raccourci c'est vraiment n'importe quoi, c’est usant de le relire à longueur de forum alors que les choses ont été expliquées maintes et maintes fois.
 
Il n’y a pas de vérité absolue, tout ceux qui croient la détenir, que ce soit dans un sens ou dans l’autre, peuvent aller se rhabiller. Les mix de charge CPU/GPU sont très variable et dépendant de beaucoup de paramètres : le jeu bien sûr, mais aussi la scène dans laquelle on se trouve dans le jeu, les réglages du jeu, et ceux de la carte graphique.
 
Après bien entendu si c’est pour jouer en 2560*1600 AA 4x sur une GeForce 7300 GT peu importe d’avoir un Duron ou un Core 2 Duo. De même pour jouer en 1280*1024 à Quake 2 peu importe d’avoir une 7950 GX2 ou une 6600 GT.
 
Etant donné que la charge GPU est facilement modulable, tous ceux qui ont déjà une configuration digne de ce nom (ex : Socket 939) peuvent bien voir par eux-mêmes sans passer par des pages de débat inutile si ils ont intérêt à changer leur carte graphique ou leur CPU : si ca rame dans leurs jeux, ils essaient de jouer en 800*600 par exemple. Si c’est fluide il faut changer de CG. Si ça ne l’est toujours pas assez il faut changer de CPU, voir ensuite de CG.
 
Pour le reste étant donné les capacités du Core 2 Duo à ses fréquences d’origine et sa marge d’overclocking, la question ne se pose pas vraiment, sauf à hésiter avec de l’A64 mono core qui a un rapport perfs / prix pas mal pour des applis mono thread (jeux par ex.).
 
Pour en revenir au raccourci initial, je dirais qu’étant donné que la charge GPU est plus facilement modulable que la charge CPU, avoir un gros CPU est plus nécessaire à quelqu’un qui a besoin de fps ... quitte à jouer en résolution moisie :whistle: . Mais bon.

n°4958473
jose112
Posté le 31-07-2006 à 17:13:39  profilanswer
 

OK merci pour votre confirmation en ce qui concerne la DDR1 et le conroe.
 
Du coup, je pense que je vais acheter la Asrock 775 dual VSTA et le E6600.  
 
Plus tard j'acheterai de la DDR2 et si ma carte graphique devient trop juste je pourrai toujours passer au PCIE dernière génération.
 
C'est l'avantage de cette carte Asrock dual.

n°4958486
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 17:18:54  profilanswer
 

Marc a écrit :

Etant donné que la charge GPU est facilement modulable, tous ceux qui ont déjà une configuration digne de ce nom (ex : Socket 939) peuvent bien voir par eux-mêmes sans passer par des pages de débat inutile si ils ont intérêt à changer leur carte graphique ou leur CPU : si ca rame dans leurs jeux, ils essaient de jouer en 800*600 par exemple. Si c’est fluide il faut changer de CG. Si ça ne l’est toujours pas assez il faut changer de CPU, voir ensuite de CG.


 
La meilleure méthode est quand même de modifier tantôt la fréquence gpu, tantôt la fréquence cpu, tantôt la fréquence RAM (éventuellement), par exemple si on a un X2 3800+ on peut le passer à 1GHz pour voir les dégats, puis tester à 2GHz avec la RAM en DDR266 (la RAM joue plus qu'elle en a l'air au premier abord), et enfin en remettant tout à fréquence normale mais en baissant ce coup-ci le gpu (par exemple, une X1900XT à 400/500 au lieu de 621/724 d'origine).
 
Personnellement, j'ai testé sur un jeu donné, ça donnait qu'à 1.8GHz on perd pas mal par rapport à 2.4-2.6 alors que passer d'une 6600gt à une x1900xt ne change quasiment rien (si ce n'est une image bizarrement plus belle à réglages identiques et un texte sans antialiasing moisi, on passe peut-être de 30 à 35fps de moyenne). Ce cas est assez spécifique puisqu'en prime il a l'air d'être largement dépendant du ping (codé avec les pieds? [:dawa]) mais bon :o

n°4958506
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-07-2006 à 17:23:32  profilanswer
 

Gigathlon a écrit :

La meilleure méthode est quand même de modifier tantôt la fréquence gpu, tantôt la fréquence cpu, tantôt la fréquence RAM (éventuellement), par exemple si on a un X2 3800+ on peut le passer à 1GHz pour voir les dégats, puis tester à 2GHz avec la RAM en DDR266 (la RAM joue plus qu'elle en a l'air au premier abord), et enfin en remettant tout à fréquence normale mais en baissant ce coup-ci le gpu (par exemple, une X1900XT à 400/500 au lieu de 621/724 d'origine).
 
Personnellement, j'ai testé sur un jeu donné, ça donnait qu'à 1.8GHz on perd pas mal par rapport à 2.4-2.6 alors que passer d'une 6600gt à une x1900xt ne change quasiment rien (si ce n'est une image bizarrement plus belle à réglages identiques et un texte sans antialiasing moisi, on passe peut-être de 30 à 35fps de moyenne). Ce cas est assez spécifique puisqu'en prime il a l'air d'être largement dépendant du ping (codé avec les pieds? [:dawa]) mais bon :o

Changer la résolution c'est bien plus simple, ca se fait in game. Et passer de 1600*1200 à 800*600 ca divise la charge GPU par 4 ... chose qui n'est pas forcément faisable via la fréquence dans ces proportions.

n°4958515
fandango_b​dr
Posté le 31-07-2006 à 17:26:17  profilanswer
 

Gigathlon a écrit :

passer d'une 6600gt à une x1900xt ne change quasiment rien (si ce n'est une image bizarrement plus belle à réglages identiques et un texte sans antialiasing moisi, on passe peut-être de 30 à 35fps de moyenne).


 
Pardon ? et c'est quoi le jeu en question ?

n°4958517
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 17:26:57  profilanswer
 

Ca peut aussi changer la charge CPU selon le jeu, ça complique la chose... :/
 
Enfin dans tous les cas on peut voir assez facilement avec une baisse de 30% du gpu.

n°4958523
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-07-2006 à 17:28:41  profilanswer
 

Tu as un exemple, parce que là euh ... :D

n°4958553
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 17:40:51  profilanswer
 

Déjà la dépendance vis-à-vis de la BP/latance RAM qui change, moins de mipmaps doivent être utilisés en 640x480 qu'en 1280x1024 par exemple (bon, ok, avec 512Mo de VRAM c'est pas primordial non plus :p), après il doit aussi y avoir des calculs géométriques en moins côté cpu.
 
Concernant l'histoire de la BP/latence RAM c'est ce que j'avais conclu sur les chiffres bizarrement incohérents dans les benchs C2D vs X2 sur je sais pu quel site, en basse résolution le C2D mettait une taule, en résolution élevée il s'en prenait pour ainsi dire une (il se retrouvait 1-4% derrière), ce qui peut s'expliquer par la latence plus faible de la liaison PCI-E -> RAM sur K8 plutôt que le passage par le northbridge sur la plateforme C2D.


Message édité par Gigathlon le 31-07-2006 à 17:46:26
n°4958566
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-07-2006 à 17:45:13  profilanswer
 

Ce n'est pas vraiment un exemple ça. En pratique les différences c'est keudalle, de ce que j'en ai vu, donc si tu as un jeu particuler ... :)

n°4958574
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 17:48:57  profilanswer
 

Disons Doom 3.
 
Il me semble que quelle que soit la résolution il utilisera pas loin de 500Mo de RAM en mode ultra, ce qui avec une carte 256Mo mettra en évidence la qualité des appels RAM directs.
 
Edit: ah oui j'oubliais le fait que la géométrie ne suit pas le fillrate dans ton exemple, le gpu ne doit pas vraiment avoir 75% de géométrie en moins à calculer.


Message édité par Gigathlon le 31-07-2006 à 17:55:32
n°4958603
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 31-07-2006 à 18:00:19  profilanswer
 

Je n'ai pas de score avec une 256 Mo, faudrait voir mais franchement je doute d'un écart. En plus D3 c'est le jeu typiquement pas trop CPU limited en timedemo. Quand je te demandais un exemple c'était des chiffres :D
 
Sinon oui les écarts (de là à parler de taule euh ... :D ) dans l'autre sens sont certainements dû à la vitesse PCI-E => RAM.
 
Pour la géométrie, a part 3DMark il n'y a pas de jeu vertex shader limited, on s'en fout un peu :D


Message édité par Marc le 31-07-2006 à 18:03:18
n°4958608
Gigathlon
Quad-neurones natif
Posté le 31-07-2006 à 18:02:52  profilanswer
 

Quand on est nettement au dessus initialement et qu'on passe même légèrement en dessous, quelque part, c'en est une, d'où le "pour ainsi dire".

n°4975102
Profil sup​primé
Posté le 08-08-2006 à 21:06:09  answer
 

up ;)

n°4975871
C501
ID PSN : Ur-501
Posté le 09-08-2006 à 08:39:37  profilanswer
 

C'est vrai qu'il faut le réanimmer ce topic : traitement de choc !
 
 
http://img459.imageshack.us/img459/8221/fairyod3.gif


---------------
Sleep is overrated...
n°4975933
LeKeiser
Appelez moi Marcel.
Posté le 09-08-2006 à 09:20:57  profilanswer
 

Je pense avoir eliminer mes freezes aleatoires, donc je suis content de mon x2 4400.
Pas overclocke pour le moment, je n'ai pas voulu me prendre la tete avec le Freezer 64 Pro, j'ai laisse la pate d'origine ;)
L'est deja tres rapide de toute facon :)
 
Par contre, l'histoire des drivers a installer est assez chiante. Surtout qu'ils me faisaient planter ma config au debut :O


---------------
Et je regarde passer les jours comme les pages blanches d'un livre qui touche à sa fin.
n°4975979
mrdoug
Posté le 09-08-2006 à 09:50:46  profilanswer
 

Ayant une config à base de 754, c'est clair que je passe au core 2 duo mais c'est vrai que si j'avais acheté un 939 à l'époque (il a déjà 2 ans mon PC !), j'aurais pris un X2 sans hésitation mais là je monte pour la première fois une machine Intel (dès dispo de introuvables Core 2 duo :D)


Message édité par mrdoug le 09-08-2006 à 09:51:01
n°4976029
Yoyo62
Posté le 09-08-2006 à 10:14:39  profilanswer
 

Moi je suis encore avec un amd 2400+ 1go de pc133 et je joue beaucoup. Pourtant je tourne encore bien dans les jeux mais je pense changé contre  un c2, est ce utile? :)

n°4976040
saturator
Born to be relou
Posté le 09-08-2006 à 10:21:15  profilanswer
 

Yoyo62 a écrit :

Moi je suis encore avec un amd 2400+ 1go de pc133 et je joue beaucoup. Pourtant je tourne encore bien dans les jeux mais je pense changé contre  un c2, est ce utile? :)


 
Ca dépends de ta carte graphique et de ton budget.
Si tu tourne avec une 6800Gt, je pense qu'elle tient encore la route, dans ce cas là tu peux attendre jusqu'à la fin de l'année.
Si t'as le budget, alors fonce car les C2D sont d'excellentes affaires!!

n°4976107
LeKeiser
Appelez moi Marcel.
Posté le 09-08-2006 à 10:56:10  profilanswer
 

Je dirai qu'attendre n'est pas un mauvais choix. Voir ce que vont donner les chipsets NVidia et consorts pour les conroe. Ca fera peut etre baisser les tarifs.


---------------
Et je regarde passer les jours comme les pages blanches d'un livre qui touche à sa fin.
n°4976384
Profil sup​primé
Posté le 09-08-2006 à 12:41:04  answer
 

+1 pour toutes ces raisons
Je suis moi même concerné avec mon XP-M @2606 et une 7800GS @466/685
Largement suffisant pour tous les jeux et il y en a beaucoup même récents !
De quoi faire ;)
Hormis pour une utilisation bien précise un changement n'est pas nécessaire (pour l'utilisation que j'en ai)
La carte graphique est l'élément déterminant ainsi que la quantité de mémoire installée.
J'ai 1.5Go et çà m'a changé le comportement de pas mal de jeux récents

n°4976391
C501
ID PSN : Ur-501
Posté le 09-08-2006 à 12:45:14  profilanswer
 

HS/ j'avais lu qu'il faut 4x la quantité de RAM sur sa carte graphique en DDR/DDR2 sur sa mobo
(256 Mo = 1 Go minim pour l'utiliser à fond / 512Mo = 2GO ....
 
est-ce vrai ?
 
Dans ce cas il me faudrait 4Go de RAM DDR2 Gskill avec ma GX2 !


---------------
Sleep is overrated...
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  ..  27  28  29  30  31  32

Aller à :
Ajouter une réponse
 

Sujets relatifs
avis sur config dual coreIntel Core 2 Duo E6700
Meilleur carte mere pour core 2 duoType d'alim requise pour core 2 duo
dual coreValidation de config core 2 duo
Atlhon 64 X2 ou Core 2 Duo ?Asus P5ND2-SLI compatible Core 2 Duo?
Plus de sujets relatifs à : Core 2 Duo : avez-vous raison de craquer ?


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)