Le vice de conception du proc c'est sa propension à se gourer dans ses prédictions de branchement et donc de remettre trop souvent son (trop long) pipeline à zero, lui faisant du coup perdre jusqu'à 13 cycles d'horloge. Le fait de simuler un deuxième processeur permet, en entrelaçant les instructions de deux processus, de reduire statistiquement le nombre de resets.
Si Intel perdait l'habitude de monter des pipelines à ralonge (on voit ce que ça donne sur le prescott) ou ameliorait considerablement le système de prédiction de branchement (et son compilateur pour creer des binaires optimisées, actuellement trop peu polyvalent pour compiler le kernel linux par exemple), l'hyperthreading n'aurait pas d'utilité car le processeur ne perdrait plus autant de temps à faire des erreurs...
---------------
#NetOp. T'as pas 10G ?