Bonjour,
J'aurai besoin de savoir pourquoi les GPU sont en 256 bits, et quelles sont les parties de celui-ci qui sont concernées quand on dit que c'est un processeur 256 bits (un étage de registres d'un G7x est large de 512 bits par exemple...). Les premiers étaient des processeurs 128 bits, et j'ai pas vu ce que ça apportait de passer à 256. De même, le Parhelia 512 exprime encore mieux ma pensée
.
Il y a aussi le fait que pour les premières cartes 3D, qui avaient des processeurs de 128 bits et avaient un fillrate d'1 pixel/cycle, avaient une bande passante de 128 bits/cycle. Je sais bien qu'un processeur de 128 bits et avec un bus mémoire de 128 bits on ne pouvait écrire dans la mémoire que par bloc de 128 bits, mais il y avait besoin de tout ça pour un pixel codé avec 16 bits de couleur ? Si oui, avec quoi on remplis le reste ?
De même, encore maintenant, j'ai lu que les ROPs écrivent 160 bits en mémoire par pixel pour un rendu 32 bits, et 192 pour un rendu HDR 64 bits. Donc en gros sans les bits de couleur, il reste 112 bits dont je ne comprends pas l'utilité
.