Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
3072 connectés 

 

 

 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  632  633  634  ..  1004  1005  1006  1007  1008  1009
Auteur Sujet :

Graphical open bar (des infos, des intox, aux extraits de TheInq)

n°4173776
asmomo
Modérateur
Posté le 01-07-2005 à 00:42:43  profilanswer
 

Reprise du message précédent :
Parce que Linux n'est pas assez mal foutu pour que l'iRam apporte un gain significatif ?


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
mood
Publicité
Posté le 01-07-2005 à 00:42:43  profilanswer
 

n°4174598
bothary
pas barbare, tasmanien !!
Posté le 01-07-2005 à 13:52:31  profilanswer
 

y'a un article sur les écrans tft dans PC ASSEMBLAGE de ce mois, un poil léger mais l'auteur à l'air de s'y connaitre  :o


---------------
...Tuco Benedictio Pacifico Juan Maria Ramirez "dit LE PORC"...
n°4174627
syntaxx_er​ror
Posté le 01-07-2005 à 13:59:53  profilanswer
 

Zeross a écrit :

Les dev critiquent pas le multicore, ils critiquent surtout le fait que le core PowerPC qui se trouve à la base du Xenon et du Cell est moisi :D forcément on les as habitués à du bon gros proc superscalaire OoO à la génération précédente (Gekko, PIII) et là on les ramène a du in order et à placer des hints pour la prédiction de branchement, c'est un retour dix ans en arrière. Bref tout ce que faisait le hard pas trop mal va maintenant leur incomber(à eux et aux compilos) alors forcément ça râle. Surtout quand MS et Sony présentent leurs trucs comme des monstres de puissance (en se basant sur la performance en virgule flottante) ce qui fait que les joueurs vont avoir des attentes irréalistes. Ajoutez à ça le fait que les cache sont petits et la mémoire est far far away (plus de 500 cycles) et le tableau est pas reluisant.
 
Mais bon ils s'en sont sortis avec l'EE qui était pas mieux (in order et en plus contrairement à ces nouveaux CPU n'étais pas cadencé trés rapidement et n'avait pas de cache de niveau 2) donc je me fais pas de souci.

Pourquoi un tel choix d'IBM si c'est une régression aussi importante ?  :??:
 
PS : je pense que MS/Sony/Tendo vont galérer avec IBM. Quand on voit les problemes de production qu'on a eu avec les 6800 (gravés par ibm), y a de quoi flipper pour les next gen :/


Message édité par syntaxx_error le 01-07-2005 à 14:03:12
n°4174649
YodaNC
Posté le 01-07-2005 à 14:06:28  profilanswer
 

syntaxx_error a écrit :

Pourquoi un tel choix d'IBM si c'est une régression aussi importante ?  :??:
 
PS : je pense que MS/Sony/Tendo vont galérer avec IBM. Quand on voit les problemes de production qu'on a eu avec les 6800 (gravés par ibm), y a de quoi flipper pour les next gen :/


pke pour le grand publique ca sort des spec marketing :o


---------------
[VDS] Pentax: Grip K10/K20, accessoires ...
n°4174683
Zeross
Posté le 01-07-2005 à 14:22:29  profilanswer
 

syntaxx_error a écrit :

Pourquoi un tel choix d'IBM si c'est une régression aussi importante ?  :??:
 
PS : je pense que MS/Sony/Tendo vont galérer avec IBM. Quand on voit les problemes de production qu'on a eu avec les 6800 (gravés par ibm), y a de quoi flipper pour les next gen :/


 
Parce que c'est un chip prêvu pour une console. Sur console les coûts de revient sont trés importants (pas question de rentabiliser en vendant 3 fois plus cher un chip avec 200MHz de plus ou 1Mo de cache supplémentaire) que sur console les développeurs ne ciblent qu'un hardware et peuvent donc minimiser ces problèmes. En plus tout ce que tu économises à ce niveau tu peux le remplacer par de la logique d'exécution et donc avoir plein de FPU/VMX qui te permettent de dire que tu fais ouatmilliards d'opérations en virgule flottante par seconde ;)

n°4175028
magic-sim
Attention, pougnat radioactif
Posté le 01-07-2005 à 16:49:14  profilanswer
 

Me demande à quoi ressembleront le CPU et le GPU de la Revo, n'empêche.... :/


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4175052
syntaxx_er​ror
Posté le 01-07-2005 à 17:02:14  profilanswer
 

Zeross a écrit :

Parce que c'est un chip prêvu pour une console. Sur console les coûts de revient sont trés importants (pas question de rentabiliser en vendant 3 fois plus cher un chip avec 200MHz de plus ou 1Mo de cache supplémentaire) que sur console les développeurs ne ciblent qu'un hardware et peuvent donc minimiser ces problèmes. En plus tout ce que tu économises à ce niveau tu peux le remplacer par de la logique d'exécution et donc avoir plein de FPU/VMX qui te permettent de dire que tu fais ouatmilliards d'opérations en virgule flottante par seconde ;)

OK. Pi bon les kit de dev doivent bien aider à faire du "in order" de toute façon donc bon...

n°4175110
viGnoS
..tu n'auras pas mes impôts !
Posté le 01-07-2005 à 17:23:14  profilanswer
 

ForceWare Release 80 leaked
 
G72 ("7600"?), G72GL, C51 (nForce5?) and C51GL (nF Professional Quadro?)
 
http://www.theinquirer.net/?article=24334 :o


---------------
P@F deathlist
n°4175320
tridam
Profil : Equipe HardWare.fr
Posté le 01-07-2005 à 18:39:02  profilanswer
 

syntaxx_error a écrit :

OK. Pi bon les kit de dev doivent bien aider à faire du "in order" de toute façon donc bon...


 
Pour le moment ils aident pas tant que ça...

n°4177796
blazkowicz
Posté le 03-07-2005 à 05:24:00  profilanswer
 

eh oui, les CPU des nouvelles consoles sont nuls :D
 
http://groups-beta.google.com/grou [...] 8ea9?hl=en
(source : anandtech, mais l'article a été retiré)
 
un court extrait :  


Each individual core is extremely small, making the 3-core Xenon CPU in the
Xbox 360 smaller than a single core 90nm Pentium 4.  While we don't have
exact die sizes, we've heard that the number is around 1/2 the size of the
90nm Prescott die.
 
IBM's pitch to Microsoft was based on the peak theoretical floating point
performance-per-dollar that the Xenon CPU would offer, and given Microsoft's
focus on cost savings with the Xbox 360, they took the bait.
 
While Microsoft and Sony have been childishly playing this flops-war,
comparing the 1 TFLOPs processing power of the Xenon CPU to the 2 TFLOPs
processing power of the Cell, the real-world performance war has already
been lost.
 
Right now, from what we've heard, the real-world performance of the Xenon
CPU is about twice that of the 733MHz processor in the first Xbox.
Considering that this CPU is supposed to power the Xbox 360 for the next 4 -
5 years, it's nothing short of disappointing.  To put it in perspective,
floating point multiplies are apparently 1/3 as fast on Xenon as on a
Pentium 4.  
 
The reason for the poor performance?  The very narrow 2-issue in-order core
also happens to be very deeply pipelined, apparently with a branch predictor
that's not the best in the business.  In the end, you get what you pay for,
and with such a small core, it's no surprise that performance isn't anywhere
near the Athlon 64 or Pentium 4 class.  
 
 
The Cell processor doesn't get off the hook just because it only uses a
single one of these horribly slow cores; the SPE array ends up being fairly
useless in the majority of situations, making it little more than a waste of
die space.  
 


 
:ouch:


Message édité par blazkowicz le 03-07-2005 à 05:29:39
mood
Publicité
Posté le 03-07-2005 à 05:24:00  profilanswer
 

n°4177799
asmomo
Modérateur
Posté le 03-07-2005 à 05:58:23  profilanswer
 

Article retiré, ça veut un peu tout dire.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°4178689
Profil sup​primé
Posté le 03-07-2005 à 18:54:04  answer
 

surtout sachant que anandtech est tres influencable avec un cheque :o

n°4178818
magic-sim
Attention, pougnat radioactif
Posté le 03-07-2005 à 19:41:09  profilanswer
 

Ouais, mais Ars Technica, moins :o


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4183245
moggbomber
War, war never changes
Posté le 05-07-2005 à 19:15:59  profilanswer
 

http://www.hardware.fr/html/news/?date=05-07-2005#7669
 
ah parce qu'en plus il te faut des fps visibles a toi??  :D  
 
tsss cte mauvaise fois :o hfr ils zaiment que nvidia [:dawa]  
 
 :ange:

n°4183340
mimychatmi​aou
Building Better Worlds
Posté le 05-07-2005 à 19:59:02  profilanswer
 

Heureusement que tu as chargé ton post de smiley :o
 
 
 
 
 
 
N'empeche je trouve qu'ATI a fait une belle erreur avec sa methode de crossfire. Quite a avoir que 75% de perfs en plus et tout faire passer par le PCI express :o


---------------
Le Luxembourg c'est comme le Mordor, plus tu t'en approches plus le ciel s'assombrit.
n°4183377
moggbomber
War, war never changes
Posté le 05-07-2005 à 20:12:52  profilanswer
 

nan va y avoir plein de nostalgiques des voodoo qui vont aimer rien qu'a cause du cable :D
 
(nan mais comme c vide depuis qqtemps hein :whistle: )

n°4183429
Oxygen3
Tears from the moon
Posté le 05-07-2005 à 20:33:42  profilanswer
 

mimychatmiaou a écrit :

Heureusement que tu as chargé ton post de smiley :o
 
 
 
 
 
 
N'empeche je trouve qu'ATI a fait une belle erreur avec sa methode de crossfire. Quite a avoir que 75% de perfs en plus et tout faire passer par le PCI express :o


 
va surtout falloir voir comment marche le crossfire dans la prochaine gen :)


---------------
Metro-PoleRéseau A Suivre...: Annuseries|LeVillage|pErDUSA
n°4183582
magic-sim
Attention, pougnat radioactif
Posté le 05-07-2005 à 21:40:55  profilanswer
 

M'ouais, pas folichon tout ça :/


---------------
Recueille pougnats islandais suite à éruption volcanique.
n°4184525
Fouge
Posté le 06-07-2005 à 11:54:25  profilanswer
 

http://www.presence-pc.com/tests/T [...] GTX-322/2/

Citation :

Pour ce test, outre les divers benchmarks synthétiques et annexes, nous avons retenu les 10 jeux parmi les plus populaires actuellement, en privilégiant avant tout le gameplay. Se répartissant dans la plupart des catégories [...], le but va être d’étudier la manière dont la GeForce 7800 GTX va permettre d’améliorer l’expérience offerte par ces jeux. Et non de choisir les jeux/benchmarks les plus à même de montrer des gains importants sur cette nouvelle architecture.
Par ailleurs, la majorité des framerates indiqués sont mesurés lors de l’exécution classique du jeu, et non via les modes Timedemo ou replay qui donnent des valeurs plus élevées (mais qui sont quelque fois inévitables).

:love:

n°4184641
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-07-2005 à 12:26:12  profilanswer
 

Faut arrêter de mettre systématiquement les timedemo au bûcher et de mettre systématiquement le ingame au dessus :sleep:
 
Premièrement, l’écart entre timedemo et ingame n’est pas vraiment lié à la carte graphique, mais au processeur. Il n’est pas forcément énorme en plus, ça dépend vachement des jeux.
 
Deuxièmement, quand tu fait du ingame que tu veux reproductif (c’est tout de même le minimum pour un test), il te faut donc faire des choses qui le seront. Donc généralement tu évites de faire un truc qui dure trop longtemps, sur trop de scènes différentes, avec des ennemis qui peuvent avoir des comportements trop différents.
 
Le cas typique du ingame qui m’a toujours fait marrer ce sont certains mecs qui benchaient sous Quake 2 : genre tu lance le premier niveau, tu bouge pas, tu fait la commande qui permet au mec de tourner sur lui-même et de donner le framerate moyen : super :D. Ah mais oui mais c’est du ingame, attention, ca rox, c'est mieux qu'un timedemo :D
 
Le ingame n’est pas forcément mieux qu’un timedemo qui te permettra d’avoir des situations reproductibles tout en étant plus variées. De notre côté nous utilisons du in game sous NFSU 2, Colin Mc Rae Rally 05, Act Of War. Mais franchement j’échangerais volontiers ce ingame contre un timedemo bien fait.
 
Le cas idéal serait un soft qui tournerait en fond qui permettrait d’exécuter une suite préétablie de commandes claviers pour chaque jeu, ce qui permettrais d’avoir sauf dans les cas ou il y’a des choses aléatoires un « timedemo ingame ». Si quelqu’un est volontaire ... ;)


Message édité par Marc le 06-07-2005 à 12:27:05
n°4184718
Fouge
Posté le 06-07-2005 à 12:55:04  profilanswer
 

Comme cela a été dit (et par moi il me semble), ça dépend des timedemos. Et je préfère un "bon" timedemo (le timedemo est géré différemment d'un jeu à un autre) à un ingame mal fait. C'est au concepteurs de jeux de proposer un timedemo le + réaliste possible, le + proche du ingame.
Présence-PC n'a pas donné de précision concernant ce "in game" et en particulier sur la fiabilité du résultat à cause de leur difficile reproductivité. Je ne sais pas coment ils ont fait, mais je pense que ya moyen de critiquer :D


Message édité par Fouge le 06-07-2005 à 13:57:45
n°4184721
Propane
Posté le 06-07-2005 à 12:55:48  profilanswer
 

Le débat entre TimeDemo et Ingame reprend pour partie un autre : celui de savoir si il faut tester les jeux en conditions réelles (ie. comme les joueurs) ou dans des conditions permettant de mettre plus l'accent sur la carte graphique, afin d'avoir des résultats plus sensibles aux différentes cartes et plus reproductibles. A ce niveau, dans la partie "perfs partiques" je penche clairement plus du premier côté comme précisé page 2.  
 
Maintenant il est clair que dans certains cas l'utilisation de TimeDemo auraient permis d'obtenir des résultats plus logiques, plus différenciés et faciles à interpréter. C'est un choix, cela étant quand tu précèdes les tests jeux par un partie synthétique conséquente, je pars du principe qu'on sait déjà pas mal de chose sur la carte et que donc il peut être intéressant de se mettre dans un point de vue un poil plus concret, quitte à dire : "Ok, ce moteur est vraiment moisi, on est CPU limited". Ca apporte une autre information.  
 
En outre, la plupart des modes TimeDemo donnent des framerates sensiblement plus élevés que ce qu'on constate en pratique : le risque est alors de faire passer certaines cartes comme fluides pour un jeu, alors qu'elles ne le sont pas forcément.
 
Concernant la faible représentativité du jeu nécessaire pour obtenir des résultats reproductible en fonctionnant en Ingame, elle est indéniable, maintenant les Timedemo ne montrent également qu'une fraction des environnements/ennemis/effets/niveaux du jeux également. Certe, le problème est atténué, mais quand on voit les différences de performances qu'on peut obtenir entre des TimeDemo effectuées sur le même jeu, mais sur des niveaux différents...
 
Donc au final, Ingame/TimeDemo ca reste un choix, je pense pas qu'on puisse dire que l'un soit meilleur que l'autre dans l'absolu, ils répondent simplement à deux problématiques sensiblement différentes, le but étant d'en être conscient et de le préciser.  
 
Sinon +1 pour le TimeDemo Ingame, j'en avais parlé à Futuremark il y a longtemps. :D

n°4184725
Propane
Posté le 06-07-2005 à 12:58:08  profilanswer
 

Fouge > La plupart des modes TimeDemo ne sont pas faits pour être le plus proches du ingame, mais pour mettre en avant la charge GPU. C'est comme ca qu'ils sont vu par pas mal d'éditeurs

n°4184867
Fouge
Posté le 06-07-2005 à 14:13:02  profilanswer
 

Propane> A mon avis, ils choisissent la solution de facilité surtout. :D
Personnellement, je préfèrerai un timedemo "réaliste" qui donnerai une idée très proche des résultat qu'on obtiendrai en ingame.
Je suis tout à fait contre le fait de bencher de manière à créer artificiellement des situations non rencontrable dans la nature pour mettre en avant une différence de performance qui n'existe pas en réalité.
Si 2 CG offrent les meme perf, il ne faut pas hésiter à le dire, c'est ça que nous (les joueurs) voulons savoir. Quel interet de savoir qu'une carte est 10% + perf dans un cas qui n'arrivera jamais? On paye pour du ingame pas pour de la théorie.
C'est comme bencher les CPU dans des jeux en 640*480. Certes ça met en évidance des différence mais c'est complètement artificiel. Ca me ferait chier de prendre un CPU 100€ + cher pour me rendre compte qu'en 1280*1024/4x/8x c'est pas plus perf que le CPU moins cher alors que dans le comparatif que j'avais vu, il y avait ue différence de 20%.
Il faut assumer le fait que certains jeux (in game) donnent le meme résultat quelque soit le CPU ou au contraire quelque soit le GPU. Ce qu'il faut faire c'est montrer quels jeux sont CPU limited et GPU limited et montrer quelles sont les différences réelles dans des conditions réelles.
Et donner une moyenne est très insuffisant.
 
P'tet que certaines de mes exigeances sont injustifiée ou très difficile à mettre en oeuvre (voire meme fausses :D) mais j'aimerai pouvoir voir ce genre de test.
 
J'vais finir par m'acheter un Sempron3100+ avec une 7800GTX (et rien a battre de ceux qui me disent que c'est pas équilibré comme config) :o


Message édité par Fouge le 06-07-2005 à 14:19:59
n°4184890
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-07-2005 à 14:20:11  profilanswer
 

Propane a écrit :

Fouge > La plupart des modes TimeDemo ne sont pas faits pour être le plus proches du ingame, mais pour mettre en avant la charge GPU. C'est comme ca qu'ils sont vu par pas mal d'éditeurs

Au fait c'est quoi cette manie d'appeller RightMark "prototypes et d’applications réelles et écrit en HLSL", c'est pas beau comme nom RightMark ? :D
 

n°4184892
MEI
|DarthPingoo(tm)|
Posté le 06-07-2005 à 14:20:55  profilanswer
 

L'ideal reste d'avoir un GPU et un CG qui dépotent grave, c'est tout. :o


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°4184901
Fouge
Posté le 06-07-2005 à 14:24:10  profilanswer
 

Et un porte monnaie qui dépote grave aussi :o


Message édité par Fouge le 06-07-2005 à 14:24:58
n°4184920
le_noob
Posté le 06-07-2005 à 14:32:35  profilanswer
 

Fouge a écrit :

On paye pour du ingame pas pour de la théorie.


Ben moi ce qui m'intéresse c'est la théorie, avec les résultats obtenu tu peux approximer toutes les situations. Tu ne seras jamais surpris par les perfs de ce que t'as acheté, tu sais à quoi t'en tenir.

n°4184930
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-07-2005 à 14:35:43  profilanswer
 

Fouge a écrit :

C'est comme bencher les CPU dans des jeux en 640*480. Certes ça met en évidance des différence mais c'est complètement artificiel.


 
Ca n'a rien d'artificiel, ce qui est artificiel c’est de faire croire que tester dans d’autres conditions est forcément mieux. Comme je l’ai déjà répété x fois, il existe des milliers de charges différentes entre CPU et GPU, et ce en fonction :
 
- Du CPU
- DU GPU
- Du jeu
- Des réglages graphiques
- De l’endroit du jeu
 
A partir de là il y’a deux point de vue : soit on se concentre sur l’objet du test à savoir le matériel testé, soit on essaie de faire croire à quelque chose qui est censé être « pratique » mais qui ne l’est pas vraiment puisque toutes les paramètres suscités ne sont pas testés.
 
Dans le premier cas, on aura quels sont les gains de performances liés au matériel testé, en dehors d’autre limitation (enfin de grosse limitation tout du moins). Dans le second cas, on obtiendra des performances dont on ne pourra pas tirer grand-chose car :
 
- Ce qui est vrai avec un couple CPU/GPU n’est pas forcément vrai avec un autre
- Ce qui est vrai avec un réglage graphique n’est pas forcément vrai avec un autre
- Ce qui est vrai avec un jeu n’est pas forcément vrai avec un autre
- Ce qui est vrai avec un endroit du jeu n’est pas forcément vrai avec un autre
 
Alors bien entendu je ne dis pas que c’est impossible. Il est toujours faisable de prendre un jeu X, et de le regarder et de proposer des résultats sous toutes ses coutures avec tout un tas de réglages et de matériel. Mais ceci mériterait un articlé dédié par jeu, pourquoi pas, mais il faudrait demander ça à un type de site hybride entre matériel et jeux vidéo.
 

Fouge a écrit :

J'vais finir par m'acheter un Sempron3100+ avec une 7800GTX (et rien a battre de ceux qui me disent que c'est pas équilibré comme config) :o


 
Avec un XP à 2.5 GHz et une 6800 à peu près GT ce serait quand même triste de ne pas pouvoir identifier qui du CPU ou de la CG te fait ramer quand tu rame dans les jeux et donc d’acheter en conséquence :D


Message édité par Marc le 06-07-2005 à 14:39:12
n°4184946
Fouge
Posté le 06-07-2005 à 14:41:11  profilanswer
 

En conclusion (et ça rejoint que qu'à dit Mei), il faut prendre un gros CPU une grosse CG et ne pas se poser de question métaphysique sur ce sujet, ni perdre du temps à lire les nombreux test de CPU/GPU/jeux et autre combinaisons différente de la sienne.
Ya pas à dire, quand on a de l'argent c'est beaucoup plus facile et c'est moins prise de tête :D

n°4184950
Fouge
Posté le 06-07-2005 à 14:44:41  profilanswer
 

Marc a écrit :

Avec un XP à 2.5 GHz et une 6800 à peu près GT ce serait quand même triste de ne pas pouvoir identifier qui du CPU ou de la CG te fait ramer quand tu rame dans les jeux et donc d’acheter en conséquence :D

Je suis d'accord, dans mon cas c'est plutôt simple (et j'ai pas à me plaindre pour l'instant donc pas d'achat en vue) ;)
 
J'essai juste de me mettre à la place d'un gars qui n'a pas de PC de jeux et qui veux en assembler un. Et bien, sauf solution citée au post précédant, c'est pas si simple et il y a plus de questions que de réponses.


Message édité par Fouge le 06-07-2005 à 14:46:48
n°4184963
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-07-2005 à 14:47:26  profilanswer
 

Il prends une Xbox :D

n°4185009
Fouge
Posté le 06-07-2005 à 15:06:47  profilanswer
 
n°4185020
le_noob
Posté le 06-07-2005 à 15:10:48  profilanswer
 

Fouge a écrit :

Je suis d'accord, dans mon cas c'est plutôt simple (et j'ai pas à me plaindre pour l'instant donc pas d'achat en vue) ;)
 
J'essai juste de me mettre à la place d'un gars qui n'a pas de PC de jeux et qui veux en assembler un. Et bien, sauf solution citée au post précédant, c'est pas si simple et il y a plus de questions que de réponses.


Il fait comme tout le monde, il apprend.

n°4185076
Propane
Posté le 06-07-2005 à 15:29:15  profilanswer
 

Marc a écrit :

Au fait c'est quoi cette manie d'appeller RightMark "prototypes et d’applications réelles et écrit en HLSL", c'est pas beau comme nom RightMark ? :D

Mettons que l'une des deux propositions a un caractère plus informatif, tout simplement. [:anathema]


Message édité par Propane le 06-07-2005 à 15:29:29
n°4185169
Fouge
Posté le 06-07-2005 à 16:09:50  profilanswer
 

le_noob a écrit :

Il fait comme tout le monde, il apprend.

Comme tout le monde DEVRAIT faire, non? Car s'il fait comme tout le monde, il est mal barré. Et qui pour l'enseigner (sachant qu'il n'a pas de PC ni de connexion à internet et aucune connaissance en informatique)?
J'ai pas envie de devenir mécanicien pour choisir ma voiture. Donc pourquoi ce serait différent pour un PC? (question que se poserait une telle personne)

Spoiler :

Par contre il faut un permis pour conduire une voiture mais c'est un autre débat. :D


 
Si quelqu'un me demande, je lui dis : "Prend un gros CPU + une grosse CG et si t'as un pb compte pas sur moi." Finalement, pas content de la réponse, il va aller à Carrefour, écouter le vendeur et prendre un P4 5xx et une FX5200. Et je me moquerai de lui car j'suis méchant :o

n°4185183
tridam
Profil : Equipe HardWare.fr
Posté le 06-07-2005 à 16:13:26  profilanswer
 

Tu en connais beaucoup des gens qui n'ont jamais touché à un PC, qui n'en ont jamais eu, qui ne lisent pas le presse PC et qui se disent "Tiens je vais en assembler un!" ?

n°4185349
Fouge
Posté le 06-07-2005 à 17:26:49  profilanswer
 

En choisir un préassemblé si tu préfères, ça collerait mieux à l'exemple que j'ai pris.
 
Aucune réaction au sujet de l'overclocking "automatique" des GF7, j'suis étonné :o

n°4185360
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 06-07-2005 à 17:33:07  profilanswer
 

Je crois qu'il va falloir que tu révise ta définition de l'overclocking ;)

n°4185398
MEI
|DarthPingoo(tm)|
Posté le 06-07-2005 à 17:55:36  profilanswer
 

C'est clair, j'ai jamais compris les mecs qui parlent d'overclocking constructeur :heink: ...
 


---------------
| AMD Ryzen 7 7700X 8C/16T @ 4.5-5.4GHz - 64GB DDR5-6000 30-40-40 1T - AMD Radeon RX 7900 XTX 24GB @ 2680MHz/20Gbps |
n°4185417
YodaNC
Posté le 06-07-2005 à 18:03:59  profilanswer
 

c plus un downclocking en 2d (pas besoin de toute cette frequenc) qu un overclocking

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  632  633  634  ..  1004  1005  1006  1007  1008  1009

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Demande infos] Top AchatComment imprimer les infos du bios ?
Quel carte Open Gl la mieux adapte a 3dsMAXBesion d'infos sur les Graveur de DVD chui perdu
couldn't load open glNEC ND-1300: cherche infos
Mise a jour bios KT7A, prob direct x et open gl geforce 2 pro!!Salut je voudrait des infos sur l'instalation d'un processeur
Rech infos sur le nouveau graveur de DVD liteon multiformat !!!![INFOS a la con] si vous avez des PB avec votre ABIT NF7-S REV2.0
Plus de sujets relatifs à : Graphical open bar (des infos, des intox, aux extraits de TheInq)


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)