melba a écrit :
Non, oui mitigé sur les premier disque IDE
[citation=3267367,2200,38][nom]melba a écrit[/nom]
As-tu du SCSI actuelle, utilise tu des application qui demande beaucoup d'accés I/O ?
Au vu de cette réponse non
|
J'envoie ce message depuis une machine avec 2 Seagate 10,000 RPM sur lesquels je fais de temps en temps tourner des applis scientifiques ...
En revanche je ne suis pas administrateur système.
melba a écrit :
je le voit pratiquement tous les jour de part mon boulot
entre passer 1heures à regarder sont P4 3Ghz ou son XP3200+ calculer 5 secondes, puis swapé 512mo pendant 2 minutes sur le disque IDE 7,2k tout récent de l'OS, pendant que le DD IDE 7,2k aussi récent écrit une broutille toutes les 3minutes
et faire la même opération en 15minutes total (ç'ta dire bien moins qu'une minute en swap) avec juste 2 DD SCSI 10K sans raid pas au top en plus, y'a pas photo les gain du SCSI sont toujours d'actu et pas seulement à cause des 10K. si non cette interface aurait était abandonnée depuis longtemps, et on utiliserait pas des carte RAID SCSI pour gérer des baies de disques dur IDE avec un adaptateur IDE>SCSI par souci d'économie
|
OK mais je pense que c'est davantage dû aux performances intrinsèques des disques (50Mo/s, 6ms) que dû au protocole SCSI. Il vaudrait mieux comparer des SCSI 7200 à des IDE 7200 ou des SCSI 10000 à des Raptor ...
melba a écrit :
Dans la théorie oui, dans la pratique non. Le temps d'avoir la commande suivante en file d'attente, la tête peu se retrouver à n+2 voire n+4 avec de trés petit fichiers ou les perfs disques chute rapidement à 3/5mo/s sur les débits constants
|
Je suis d'accord avec toi dans le principe: le scenario serait
- accès à n+1
- sleep 1ms
- accès à n+2
- sleep 1ms
- accès à n+3
- etc.
auquel cas, à supposer que 1ms = temps pour passer de n+1 à n+2, il vaudrait mieux demander n+3 après n+1 car la tête est juste au-dessus.
Mais ça n'arrive jamais car l'OS envoie ses requêtes par salves, car il a un cache. Bien entendu, si l'OS fait des accès explicitement synchronisés (sans cache), alors oui forcément le cache intégré tout autant que le NTQ sont utiles.
melba a écrit :
vois pas le rapports, quand le têtes loupe un secteur , les têtes reviennent légérement en arriere et les disques font quelques tours de plus (réduit généralement à un tour car performance de latence oblige)
Donc le transfert DMA, benh quoi ?
l'ordre de lecture n'est pas changer. et si le transfert DMA n'avait aucune tolerance aux débits non constant, benh "marcherai pas trés bien le PC !"
|
Dans ce cas les performances chutent dramatiquement. L'agencement des secteurs logiques sur les plateaux est prévu pour que l'accès aux secteurs n,n+1,n+2,etc. soit le plus rapide possible, donc en particulier qu'il n'y ait aucune latence entre l'accès à n et à n+1. C'est la raison pour laquelle je dis qu'il n'y a pas de meilleure façon de demander à accéder à 100,101,102,etc. que de les demander dans cet ordre. Donc que si les requêtes sont déjà triées, le TCQ ne sert à rien.
melba a écrit :
Ensuite c'est bien 255 commandes en simultané en SCSI, IDE 8 (ça à peut êtres évoluer depuis à vérifier)
|
J'avais cru lire plus haut que le TCQ de Seagate en avait 256 mais peu importe
melba a écrit :
benh entre la 8éme (150) et la 9éme (151), paf la tête est à (152)
hop rebelotte, retour en arrière. avec le TCQ le 151 est laissé de coté puis relus lorsque la têtes repasse dans le coin
|
Non. Juste après avoir fini de lire le 8ième (secteur n°150), la tête et le DSP sont prêts à traiter immédiatement la 9ième (secteur n°151).
melba a écrit :
bah oui j'ai répondu à t'es arguments "précis", L'optimisation logiciel comme le dit Mei est interressante, mais n'à rien à voir avec celle du TCQ même si y'a des similitude Le TCQ ne peut absolument pas êtres réalisable coté logiciels sans de trés gros ralentissement et utilisations de bande passante pou rien.
|
Pas d'accord. C'est tellement possible de réorganiser les accès aux secteurs à moindre coût qu'il y a au moins 3 algos différents qui le font dans le noyau 2.6. Ca ne coûte rien, tu ne réordonne pas les données elles-mêmes mais juste les pointeurs vers les données. 300 cycles à tout casser, et même pas 4ko de données en RAM pour 100 requêtes à réorganiser ...
melba a écrit :
tu persiste à contredire des arguments qui effectivement ne sont pas nouveau car la technologie est approuvé depuis le SCSI2 et finalisé, normé et n'a pas à changer puisqu'elle fonctionne impect !
|
Je regrette de paraître désagréable, mais j'ai beau retourner le problème dans tous les sens, je ne comprends toujours pas à quoi ça sert. Ca fonctionne peut-être très bien, mais ça ne sert plus à rien. Tout comme les cartes ISA de compression de données que vendait Stac à l'époque où compresser des données était coûteux en temps (aujourd'hui le CPU compresse du Zip à 5Mo/s).
melba a écrit :
oui, c'est assez commerciale
enfin le PCI est à 133Mo/s, c'est plus valable maintenant mais à une époque ça permettait d'avoir moins de latence sur les echange PCI/IDE. mais pour ce que ça changer en pratique.
|
Exact. Mais je pense que ces latences sont largement masquées (facteur 1000) par celles des disques ...
melba a écrit :
IBM voulait appellé l'UDMA100, l'UDMA 66+ et il avait pas tout à fait tord non plus à cause des timming et cycle des différents bus...
|
Je l'ignorais - lien ?
melba a écrit :
pffff un cache mémoire et un tampon bien que basé sur le même principe ne fait pas appelle à la même optimisation.
|
Il est un peu cavalier de balayer comme ça 12 pages de topic ...
melba a écrit :
Pour ce qui est de la méthode de réorganisation, voir les multiples réponses répéter au dessus !
les deux permettent plus de perfs, moins de latence et d'autant plus si il sont combinées
|
Non. L'OS n'envoie que des requêtes triées au contrôleur, donc le TCQ n'a jamais à réordonner les requêtes, donc il ne fait jamais rien, donc il ne sert à rien.
melba a écrit :
non sans blague et nous non peut être ?
Enfin je m'excuse aussi pour le ton agressif de mes réponses.
|
[grandpas] a écrit :
Je prétends qu'au-delà de 2Mo c'est strictement pour des questions de marketing.
faudrait peut-être que l'on m'explique pourquoi les versions 2Mb sont sans exceptions moins performantes que leur homologue 8Mb.
Au fait ... le prochain seagate ne sortira pas en version 2Mb de cache ... uniquement 4 ou 16.
|
Si tu fais un test bas niveau, forcément le cache aide. Maintenant la question est de savoir si, dans la vraie vie, il va jamais arriver que l'OS fasse des requêtes qu'il n'a pas trouvé dans son propre cache de 300Mo mais que pourtant le disque aurait bien au chaud dans son cache de 4 ou 16Mo ...
[grandpas] a écrit :
NCQ c'est le TCQ?
Si oui, là encore, pas la peine de tergiverser. Faut voir dans les tests. Les disques intégrant la fonction TCQ sont un cran au dessus notamment pour les applis serveur. A ce sujet, Storagereview a en prépération un article sur l'intérêt (éventuel) du TCQ
[g]De toute façon, je n'ai pas dit que l'OS allait toujours parvenir à tout mettre en cache, je dis juste qu'il fera quoiqu'il arrive toujo
|
Très bien. Je suis complètement d'accord qu'un test à la hdtach / hdparm -T va te dire que le TCQ/cache intégré 16Mo sont utiles. Maintenant regardons ce qui se passe dans la vraie vie: arrivera-t-il une seule fois que le TCQ réordonne les requêtes de l'OS qui arrivent toujours déjà triées ? ou que l'OS demande au cache intégré de 8Mo (150Mo/s) du disque ce qu'il n'avait pas dans son cache de 300Mo (4Go/s) ?
Je prétends que non. Sinon, je voudrais bien qu'on m'explique, avec un exemple, dans quel cas ça pourrait se produire.