alexreunion a écrit :
L'optimisation PC a toujours été un probleme et a toutes les epoques.
il faut blamer qui? les programmeurs?
j'en sais rien personnellement mais le fait est que c'est quelque chose de recurrent depuis plus de 15 ans.
|
il y a peu j'ai entendu par un type de la société madmonkey (bordeaux)
que la playstation 2 n'avait que 1 Mo de VRAM pour stocker les textures.
et alors j'ai halluciné et je me suis dit mais merde alors pourquoi avec 64 Mo ma geforce4 à t-elle du mal à faire tourner half life 2 ?
pourquoi il faudrait un PC 10 fois plus puissant qu'une PS2 dans l'absolu pour avoir à peu près le même résultat à far cry ?
et puis pourquoi la Zlib peut changer de 100% ses performances entre telles ou telles options de compilation ?
pourquoi personne ne veut entendre parler d'une remise à zero de l'héritage x86, on pourrait faire comme power PC effacer l'ardoise et repartir sur une super base comme l'IA64 ISA.
pourquoi AMD ont il pondu cette stupide AMD64 ISA APRES l'IA64 pour en faire un truc bien moins intérressant (8 registres au lieu de 256, toujours la tonne de fetching/pre-fetching a se taper au lieu d'une belle architecture orthogonale...)
si ils ont réussi à intégrér un legacy mode ?
qui d'ailleur fait que personne n'utilise les 50% de transistors de leur processeur qui leur permet de travailler en 64 bits.
quitte à changer d'archi comme c'est le cas finalement, alors pourquoi pas l'IA64 bon sang.
pourquoi microsoft tarde autant à releaser win 64, c'est quand même pas compliqué de rajouter un "-amd46" dans les options de compilation BORDEL DE MERDE.
(fallait que je le dise, pardon)
quand on regarde l'histoire de l'informatique, on croit rêver, on dirait que chaque choix qui a été fait a un moment ou l'autre à été mal fait.
et en fait en regardant plus loin, on se rend compte que ce n'est que des histoires de "telle société est déja plus présente sur le marché alors..."
et voila une belle utopie d'ingénieur n'est pas acceptée par le marché et hop on l'oublie (voir architecture DEC alpha, la plus époustouflante que j'ai rarement vue, elle aurait du prendre le marché des supercalculateurs il y a 10 ans mais c'est ces stupides NEC et autres qui sont utilisés, et maintenant c'est pire que ca, au lieu de powerPC ou bien CRAY, ya 80% d'itaniums pourris à la place ! non mais c koi ce délire ?).
et puis, aussi, j'ai mon mot à dire a propos de SPARC et RISC, on pourrait croire que c'est une super architecture load/store 64 bits toussa un truc superpuissant, qui à 500 Mhz éclate un x86 a 1.5 Ghz.
et bien que neni, j'ai rarement vu des stations aussi lentes, je sais pas comment SUN vends encore, mais c'est fou à quel point ca se traine ces trucs la.
à une époque chai pas quelle université avait établi que le RISC irait 5 fois plus vite à même fréquence que le CISC mais bon c'est pas trop ca...
la bonne idée à mon avis c'est de mettre des gros gros bus partout, genre 128 bits bi-directionnels. et comme ca on pourrait fixer la taille des instructions comme dans le paradigme RISC, et hop fini le fetching et toussa.
et aussi faut arreter ces stupides idées de prédiction de branchement, il n'y à qu'a raccourcir les pipelines à 5 niveaux tout le monde ne s'en portera que mieux.
voir la différence entre une netburst et une P6 !!!
hou netburst, la honte, moins puissant à 5 Ghz qu'une vielle architecture qui date de 1997 mise à 2Ghz.
la seule chose qu'intel à fait avec le PM c'est de ressortir les shémas du pentium pro (gravé a 600 nanomètres à l'époque) et dire, aller on grave a 90 nanomètres et on passe le tout à 1.5 Ghz, ca nous fera bien une bête de course.
réponse effectivement ca marche, super pi 1M en 22 secondes à 2.6 Ghz, bravo P6 !
---------------
http://projets.6mablog.com/