Je me suis lancé dans 2-3 calculs hier soir et je voulait votre avis.
Prenons une carte graphique quelconque 128Mo 128bit DDR 200MHz réel. Son débit théorique est de 6400Mo/s (128*200*2/8).
Maintenant prenons un jeu quelconque qui utilise 64Mo de texture par image et tourne a 60 images par seconde, il a donc besoin d'une bande passante de 3840Mo/s (64*60)
La carte actuel est suffisante (6400>3840) pour afficher sans problème le jeu. C'est le GPU qui limite le nombre d'image par sec (ici 60).
Mais avec un jeu qui utilise 128Mo de texture par image et tourne a 60 images par seconde, la carte sera insuffisante car sont debit de 6400Mo/s sera inférieur à ce que demande le jeu (7680Mo/s). La mémoire limitera le jeu a 50fps (6400/128) et le GPU se tournera les pouces. Pour obtenir 60fps, il faudra o/c la mémoire à 240MHz (7680*8/128/2).
Tout ça pour dire que l'o/c de la mémoire n'est pas obligatoirement nécessaire et que des fois c'est le GPU qui limite les performances.
Que pensez-vous de ces hypothèses ?
Message édité par gaff le 17-03-2004 à 10:49:43