Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2697 connectés 

  FORUM HardWare.fr
  Hardware
  Disque dur

  Le Short Stroking?

 


 Mot :   Pseudo :  
 
 Page :   1  2
Page Précédente
Auteur Sujet :

Le Short Stroking?

n°6894564
lba_gege
Posté le 23-03-2009 à 19:25:50  profilanswer
 

Salut
Quelqu'un a essayer le Short Stroking expliqué sur ce site :
http://www.presence-pc.com/tests/s [...] hdd-23040/
Sa peut marcher sur un hdd de marque WD ?
Merci


Message édité par lba_gege le 23-03-2009 à 19:27:55
mood
Publicité
Posté le 23-03-2009 à 19:25:50  profilanswer
 

n°6894632
c_planet
Posté le 23-03-2009 à 20:13:37  profilanswer
 

salut,
 
lis les commentaires (ok, il y a bcp de réflexions fausses).
 
bref, au final, c'est le même principe que de limiter windows (par exemple) dans une partition en début de disque. sauf que tu n'utilises plus le reste du hd.


Message édité par c_planet le 24-03-2009 à 18:35:51
n°6897640
Mki2268
Posté le 25-03-2009 à 22:49:46  profilanswer
 

Perso je trouve que cela fait perdre beaucoup de place !
Je garde ma méthode: partitionner intelligemment:
les 1eres partitions au début du DD pour le système avec un bon débit, et en fin de DD, les partitions pour le stockage ou le débit et temps d'accès est moins important !

n°6897853
starduck
Posté le 26-03-2009 à 08:55:50  profilanswer
 

Mki2268 a écrit :

Perso je trouve que cela fait perdre beaucoup de place !
Je garde ma méthode: partitionner intelligemment:
les 1eres partitions au début du DD pour le système avec un bon débit, et en fin de DD, les partitions pour le stockage ou le débit et temps d'accès est moins important !


Il faudrait un mix des 2, un outil de partitionnement qui prenne en compte le nombre de plateaux (1ere partition de 100go = 50go par plateau pour un double plateau, 3x33go pour un triple plateau etc...)
Ca existe peut-être déja...

n°6897863
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-03-2009 à 09:04:32  profilanswer
 

starduck a écrit :


Il faudrait un mix des 2, un outil de partitionnement qui prenne en compte le nombre de plateaux (1ere partition de 100go = 50go par plateau pour un double plateau, 3x33go pour un triple plateau etc...)
Ca existe peut-être déja...

Euh ... :D
 
Si tu fait une partition de 100 Go :
 
- Si il n'y a qu'un plateau, les 100 Go seront dessus
- Si il y'a deux plateaux, il y'aura 50 Go par plateau
- Si il y'a 4 plateaux, il y'aura 25 Go par plateau
 
Le "Short Stroking" c'est juste ... inutile. Comme l'indique c_planet, si tu veux réduire le déplacement des têtes de lecture sur le disque un simple partitionnage suffit ... et permet de ne pas perdre complètement l'espace supplémentaire.
 
Rien de neuf sous le soleil donc.
 

Message cité 2 fois
Message édité par Marc le 26-03-2009 à 09:08:03
n°6897944
pit-bronso​n
Posté le 26-03-2009 à 11:15:45  profilanswer
 

De toute façon si vous voulez lever le doute, il y a toujours la manière empirique :D
 
Vous faites des benchs avec les mêmes disques, avec le Short Stroking puis en partitionnant la même taille en début de disque.
 
Après il suffit de comparer, non ?
 
Moi ce qui m'interpelle dans cette histoire, c'est pourquoi le constructeur fournirait un logiciel spécifique pour faire du "Short Stroking", si cela n'apportait rien ??
Ou alors leur demander directement ce que cela apporte de plus celons eux ?
 
A si en y réfléchissant, la possibilité de le faire sur des grappes de disque RAID, ce qui n'est pas possible car dans les contrôleurs raid on initialise les disques entier en Raid, puis on partitionne les disque logiques, et non physique.


Message édité par pit-bronson le 26-03-2009 à 11:20:44
n°6897966
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 26-03-2009 à 11:34:27  profilanswer
 

Le soft Hitachi n'est pas spécifique pour faire du Short Stroking, c'est un logiciel qui permet entre autre de formater en indiquant le nombre de blocs à utiliser ... et donc de faire du "Short Stroking".
 
Pour le RAID ca n'apporte rien non plus. Si tu partitionne un RAID logique ca reviendra au même ... quand tu fait une partition de 30 Go sur un RAID de 2x30 Go les 30 Go ne sont évidement pas sur le premier disque mais sur les 50% les plus rapide des deux disques :D

n°6898038
starduck
Posté le 26-03-2009 à 12:38:41  profilanswer
 

Marc a écrit :

Euh ... :D
 
Si tu fait une partition de 100 Go :
 
- Si il n'y a qu'un plateau, les 100 Go seront dessus
- Si il y'a deux plateaux, il y'aura 50 Go par plateau
- Si il y'a 4 plateaux, il y'aura 25 Go par plateau
 
Le "Short Stroking" c'est juste ... inutile. Comme l'indique c_planet, si tu veux réduire le déplacement des têtes de lecture sur le disque un simple partitionnage suffit ... et permet de ne pas perdre complètement l'espace supplémentaire.
 
Rien de neuf sous le soleil donc.
 


Ok, donc je ne vois effectivement pas l'intérêt ;)

n°6898081
bjone
Insert booze to continue
Posté le 26-03-2009 à 13:14:22  profilanswer
 

C'est assez pipo je suis d'accord (vs partoche système de taille équivalente).
 
Et même si redéfinir la taille max LBA peut peut-être permettre au firmware d'avoir plus de secteurs en spare, c'est un peu tiré par les cheveux (vu que du coup ça interdirait de revenir à la taille LBA d'origine).
Pour moi si le firmware doit remapper plus que son pool d'orgine possible, il fera une erreur SMART avec ou sans limitation de l'espace LBA.
 
De plus coté ATA, le SET MAX LBA est plus ou moins normalisé.
 
Donc tout ça pour ça quoi.
 
Je me pose la question si ça ressemble pas un peu a un publi-reportage pour hitachi leur truc (mais bon là je suis en mode médisant).


Message édité par bjone le 26-03-2009 à 13:22:00
n°6898104
c_planet
Posté le 26-03-2009 à 13:28:08  profilanswer
 

à noter que ça me remémore les tests des premiers raptors (et des suivants) où quasiment personne ne pensait à comparer les perfs moyennes (transferts bruts et temps d'accès) des 7200rpm classiques sur le même nombre de blocs.

mood
Publicité
Posté le 26-03-2009 à 13:28:08  profilanswer
 

n°6899460
merill
Posté le 27-03-2009 à 14:16:20  profilanswer
 

Disons que l'interet est de réduire al latence, en limitant la surface de déplaement de tes tetes de lecture.
Par rapport aux systeme de partitions, si ta tete etait en train de lire des données en bout de disque et qu'elle doit ensuite revenir lire des données windows, ba il mettera un peu plus de temps que s'il était deja dessus.
 
Je suis néanmoins d'accord sur le fait que diviser la latence par deux en divisant les capacité par 5 (je sais plus exactement), autant prendre un bon ssd, qui coutera autant pour le meme capacité réele pour une latence largement plus faible.

n°6899480
bjone
Insert booze to continue
Posté le 27-03-2009 à 14:42:01  profilanswer
 

"Par rapport aux systeme de partitions" : y'a pas de différences.
Partition de n Go = SET MAX LBA de n Go

n°7047700
Gugus2000
Profil : Rien
Posté le 24-07-2009 à 09:47:12  profilanswer
 

bjone a écrit :

"Par rapport aux systeme de partitions" : y'a pas de différences.
Partition de n Go = SET MAX LBA de n Go


 
tu es sur de cela ?


---------------
Je décline toute responsabilité potentielle pour le contenu de mes propos et contenu multimedia (images, videos et sons) + miroir magic.
n°7047863
bjone
Insert booze to continue
Posté le 24-07-2009 à 11:39:21  profilanswer
 

Gugus2000 a écrit :


 
tu es sur de cela ?


 
Jusqu'à preuve du contraire c'est le comportement le plus logique.
 
Pour le prouver:
 
1 - Tu laisses le disque à sa capacité max.
2 - Tu crées une partition qui fait n Go, tu y mets des données.
3 - Tu fais un SET MAX LBA qui englobe les n Go de la partition
4 - Si la partition et ses fichiers sont toujours lisibles, le mapping LBA n'a pas bougé d'un iota.
 
Après ça peut être du cas par cas suivant les fabricants, mais le SET MAX LBA est plus là pour permettre une certaine rétro-compatibilité avec un vieux OS dont le code crasherai si il rencontre une trop grande capacité: certains systèmes industriels et militaires fonctionnent depuis 20 ans avec du vieux code, et du matériel récent peut des fois poser problème (d'où l'importance de pouvoir émuler du matériel vieux de 20 ans, si le système crashe au delà de 2Go de secteurs LBA pour son HD, et que tu as que des disques de 80+ Go dans le commerce).


Message édité par bjone le 24-07-2009 à 11:41:20
n°7049302
Durabrite
zat is ze question
Posté le 25-07-2009 à 17:25:28  profilanswer
 

Salut,
 
j ai un dd ide hitachi de 80 go,et un vieu pc pentium 2,je crois qu il n accepte que les disque dur de 8 giga et quelque ,a votre avis avec le short stroke,il va etre reconnue si je diminue la capacité du 80 en 8 go??
comme mon p2 est en panne (alim hs) j aimerais bien savoir si cela marcherait pour savoir si je prend une nouvelle alim ou pas :D

n°7049653
Durabrite
zat is ze question
Posté le 25-07-2009 à 22:48:49  profilanswer
 

:bounce:  [:ziiio]  [:karochky]


Message édité par Durabrite le 25-07-2009 à 22:49:26
n°7050266
Durabrite
zat is ze question
Posté le 26-07-2009 à 17:17:02  profilanswer
 

:bounce:

n°7051563
bjone
Insert booze to continue
Posté le 27-07-2009 à 16:40:57  profilanswer
 

Durabrite a écrit :

Salut,
 
j ai un dd ide hitachi de 80 go,et un vieu pc pentium 2,je crois qu il n accepte que les disque dur de 8 giga et quelque ,a votre avis avec le short stroke,il va etre reconnue si je diminue la capacité du 80 en 8 go??
comme mon p2 est en panne (alim hs) j aimerais bien savoir si cela marcherait pour savoir si je prend une nouvelle alim ou pas :D


 
Le SET MAX LBA tu veux dire.
Tu peux essayer, mais normalement c'est le but.
Maintenant difficile de deviner comment le bios va se comporter.

n°7052038
Durabrite
zat is ze question
Posté le 27-07-2009 à 23:38:48  profilanswer
 

bjone a écrit :


 
Le SET MAX LBA tu veux dire.
Tu peux essayer, mais normalement c'est le but.
Maintenant difficile de deviner comment le bios va se comporter.


 
 
Merci pour la reponse   :jap:  ,oui je voulais parler du set max lba  :) ,je vais donc essayer c'est jours si ,et je vous dirais le resultat  :bounce:

n°7083759
Gerophil
Posté le 23-08-2009 à 21:11:09  profilanswer
 

Désolé de faire un UP mais...
 
Je pense que certains d'entre vous n'ont vraiment rien compris au short strocking (c_planet et marc en tete) :
Ce n'est pas un simple partionnage, on supprime l'accès à une partie du disque, ce qui a pour effet, contrairement au partionnage normal de changer la position "par défaut" de la tete de lecture vers le centre du nouvel espace de stockage. Et cela, ça n'arrive pas quand vous partitionner, vous pouvez essayer vos super solutions de partionnage, vous aurez toujours le même temps d'accès pourri (test powered inside et pas simplement de la pataphysique comme vous le faites. Voir plus bas). Le seul moyen de gagner en temps d'accès est justement de condamner l'accès à une partie du disque... Sinon comment expliquer les gains observés sur une config "fraiche" qui dans les deux cas n'a aucune raison de faire plus déplacer la tete de lecture vu qu'elle contient les mêmes données, au même endroit ? (cad au début du disque)
 
 
"Je suis néanmoins d'accord sur le fait que diviser la latence par deux en divisant les capacité par 5 (je sais plus exactement), autant prendre un bon ssd, qui coutera autant pour le meme capacité réele pour une latence largement plus faible."
Il y a une erreur quand même dans ce que tu dis, mon raid 0 de WD blue 640 Go rabaissés à 128 Go chacun m'a couté environ 100 € (temps d'accès de 8 ms), un SSD de cette taille te couterait minimum 500 €. On pourrait plutot comparer à un raptor (qui a tout de même un temps d'accès légèrement inférieur) qui aura toujours un prix plus élevé bien qu'une consommation plus faible que le raid 0. Enfin, l'interet de cette solution réside surtout dans le fait que cela permet d'attendre un éventuelle baisse du prix des SSD en ayant un disque système performant et d'ensuite s'en servir comme disque de stockage lorsque vous acheterez un SSD  
 
Pour ceux qui sont interessés par le short strocking j'ai fais deux trois test que j'ai posté sur PPC :  
 
"Hello tout le monde, j'arrive un peu après la guerre. Mais ayant commandé cet été deux WD blue 640 Go j'ai voulu faire le test en fesant un RAID 0 de 256 Go (short strocké donc).
Je suis passé de 12.5 ms de temps de réponse pour le raid à 8.5 ms. (au mieux j'ai reussi a avoir du 7,3ms de temps de réponse en faisant un raid 0 de 32 Go lol)
Pour ce qui est des test j'ai fait la même chose à chaque fois : Install de windows 7 RC > Install des drivers de la carte mere > Install de crysis > Tests
 
Pour le temps de démarrage de windows on est passé de 1min15 à 1min05 grace au short strocking.
Pour ce qui est du chargement du premier niveau de crysis on passe de 25s à 24s.
Je n'ai pas fait plus de test ça montre un peu les limites du short strocking bien que les gains puissent etre appréciables sur le long terme. (le HDD va surement plus perdre en perf en se remplissant sans le short strocking) On peut cependant voir l'interet du short strocking comme une "solution d'attente". C'est à dire l'utiliser tant que les prix des SSD restent élevés et une fois que ceux ci deviennent abordable utiliser les disques en tant que disque de stockage ;)
 
Notes : La config est : - Carte mère gigabyte ud4p am3
- AMD phenom II x3 720 @ 3,6Ghz
- 4 Go de ram Gskill Pi series
- Radeon HD 4850
- 2 x WD Caviar blue 640 Go en RAID 0
 
On remarque qu'en activant l'option multicoeur dans le boot de seven on gagne encore une vingtaine de sec sur le démarrage."

n°7083925
skieur14
Posté le 23-08-2009 à 23:52:28  profilanswer
 

Je serais plutôt de l'avis de gerophil. j'ai fait du short stroking. Mon samsung 300 go transformé en 40 go. Les changements étaient incontestables. Malheureusement, je ne me rappelle plus qu'elle était la taille de ma partition OS avant le short stroking. Mais proche de  40 Go(comme après la manip).

 


Je n'ai pas étudié le problème d'assez près,mais ça devrait pas être dur de savoir qui a raison quand même ds cette histoire...


Message édité par skieur14 le 23-08-2009 à 23:55:35
n°7084072
starduck
Posté le 24-08-2009 à 09:27:38  profilanswer
 


Post intéressant mais ton condescendant "nul à chier"

n°7084435
T3K
Berserk Overkill Certified
Posté le 24-08-2009 à 14:20:34  profilanswer
 

Petite précision quand même avec le short stroking sur les disques IDE (PATA et SATA) : ça marche bien sous windows
par contre avec linux, c'est une autre affaire, le kernel arrive toujours à "voir" et utiliser toute la capa du disque, malgré le short stroking, et ce quelque soit le lba max.
Alors quand on voit ça, comment déduire la position par défaut des têtes de manière sûre ?


Message édité par T3K le 24-08-2009 à 14:22:05
n°7084489
c_planet
Posté le 24-08-2009 à 15:01:05  profilanswer
 

Gerophil a écrit :

changer la position "par défaut" de la tete de lecture vers le centre du nouvel espace de stockage. .... vous aurez toujours le même temps d'accès pourri


 
Pendant un bench de temps d'accès, je donne très peu de chance aux têtes de revenir un instant dans un position d'attente quelle qu'elle soit.
 
Au fait, quel bench as-tu utilisé pour obtenir un temps d'accès moyen sur une partition seule cantonnée en début de disque ?
 
Par contre, si tu as des informations sur les disques qui modifieraient l'endroit par défaut de placement des têtes en standby (suivant les valeurs lba max) je suis preneur.
 
ps : attention aux 'réactions' des soft de bench de temps d'accès en raid 0, le mieux est de partir sur des bench de hd seuls.
 

Gerophil a écrit :


Pour ce qui est des test j'ai fait la même chose à chaque fois : Install de windows 7 RC > Install des drivers de la carte mere > Install de crysis > Tests


 
Si tu veux démontrer un gain en temps d'accès, ce n'est pas comme cela qu'il faut procéder. Il ne faut pas réinstaller à chaque fois les fichiers, il faut les écrire une fois et ne plus les bouger (et encore ça ne suffit même pas, le mieux serait de les réécrire façon ghost raw à chaque fois, entre chaque test, pour éviter les modifications en préfetch, en fichiers temp, etc.).
 
Donc en gros, il faut short stroker au plus bas, installer les fichiers puis pour les tests suivant augmenter la taille du short stroke (ou débridage totale) sans toucher aux fichiers (ou les réécrire à l'identique secteur par secteur)
 
EDIT : je ne suis pas sûr que Marc réponde. moi même je réponds par hasard, le drapeau bleu associé n'ayant pas été réactivé suite au déterrage  (je suppose) du topic.


Message édité par c_planet le 24-08-2009 à 16:18:50
n°7085399
Gerophil
Posté le 25-08-2009 à 09:00:52  profilanswer
 

Pour les bench j'ai utilisé HD tune/Tach, les deux donnant le même temps d'accès. En fait pour les temps d'accès, j'ai fais les mesures sur mon ancien PC (sous windows XP) avec un seul disque sur lequel j'ai testé pas mal de configurations de short strocking pour trouver un bon rapport Perte d'espace/temps d'accès donc je le faisais sur un seul disque car oui après j'ai essayé de mesurer le temps d'accès du raid, un coup j'avais 8.2ms l'autre 8.9ms ;)
 
Après je suis d'accord qu'il faudrait etre dans les mêmes conditions exactes pour pouvoir comparer, on pourrait aussi parler de l'état quantique des atomes constituant le disque dur.... Mais quand même, en refaisant les mêmes opérations on ne peut pas avoir 10s de différence sur le démarrage de windows seven ou alors il y a de gros problème d'optimisation chez eux ;)
Mais ta méthode en strockant de moins en moins ne doit pas fonctionner car pour moi, j'ai commencé les tests sans short strocking et avec : quand j'ai redimensionné mon raid à 256 Go, l'ordi ne bootait plus windows, donc j'imagine que les données n'étaient plus lisibles (ou en tout cas considérées comme effacées)
Par contre je suis d'accord qu'il faudrait faire un cliché parfait du disque et retester dessus à chaque fois, mais perso j'avais pas le temps de le faire ;) (et puis 10s c'était suffisamment conséquent pour que ce soit simplement une histoire de fichiers temporaires / prefetch ou mauvais placement des fichiers)
 
PS : pour l'histoire du déplacement de la position par défaut, faut que je retrouve l'article ou j'ai vu que ça en parlait, après c'est sur le net donc ça peut etre facilement mis en doute, faudrait ouvrir un hdd en marche pour voir si c'est réellement le cas :/

n°7085400
Gerophil
Posté le 25-08-2009 à 09:01:27  profilanswer
 

--- Double post désolé ---


Message édité par Gerophil le 25-08-2009 à 09:01:55
n°7085760
c_planet
Posté le 25-08-2009 à 13:50:17  profilanswer
 

Gerophil a écrit :

Pour les bench j'ai utilisé HD tune/Tach


 
donc tu n'as pas pu bencher la différence entre un espace short stroké à X gigas  et un espace partitionné à X gigas.
 

Citation :

le HDD va surement plus perdre en perf en se remplissant sans le short strocking


 
Pas dans un premier temps, c'est d'abord le contraire qui va se passer, moins d'espace de stockage va engendrer plus vite de la fragmentation.
 
En plus, on ne pourra jamais comparer petit volume de stockage et gros volume de stockage sur les blocs absents du petit volume. on ne peut pas dire qu'une voiture est plus rapide à transporter 4 valises, plutôt qu'un camion qui en déplace 150, (même si les 40 dernières sont rangées dans le mauvais sens et vont prendre plus de temps au triage en sortie)
 

Citation :

Mais ta méthode en   strockant de moins en moins élargissant de plus en plus, ne doit pas fonctionner car pour moi, j'ai commencé les tests sans short strocking et avec : quand j'ai redimensionné mon raid à 256 Go, l'ordi ne bootait plus windows, donc j'imagine que les données n'étaient plus lisibles (ou en tout cas considérées comme effacées)


 
Déjà, si tu diminues l'espace d'un volume qui contient des fichiers, .. il y a un moment où tu vas perdre des fichiers  :D .  si tu ne sais pas comment faire, tu dois diminuer la partition avec PM8 avant. Mais, encore une fois, déplacement de fichiers = bench pas valide.
 
quant à redéfinir proprement une partition pour quelle corresponde à un redimensionnement vers sa fin, il y a pas mal de soft qui peuvent le faire (testdisk,..)
 

Citation :

Mais quand même, en refaisant les mêmes opérations on ne peut pas avoir 10s de différence sur le démarrage de windows seven ou alors il y a de gros problème d'optimisation chez eux ;)


 
si j'ai compris, tu as comparé windows dans partition de 1,2To et windows short stroké dans 256go - cela n'a rien avoir. il y a forcément une différence, même entre un os installé dans une partition de 30 gigas et un os installé dans une partition de 400go, les fichiers ne se mettront surement pas au même en droit.
 
ce n'est pas pour rien que l'on conseille au gens de limiter windows dans une partition raisonnable (même 256go c'est trop, ça empêche les ghost, ça ne confine pas les fichiers de l'os, etc.)


Message édité par c_planet le 25-08-2009 à 14:19:01
n°7085798
Gerophil
Posté le 25-08-2009 à 14:15:33  profilanswer
 

Il existe des softs qui font la différence entre partition à X giga et disque total ? (vu que les autres ne sont pas sensés marcher ?)
 
Et justement on parle de short strocking et pas de partition, donc forcément diminuer la taille du short strock entraine une perte, je suis pas débile, j'avais maxi 20 Go de données j'ai pas fait un short strock à 18, mais à 256 Go, donc ça n'aurait pas du affecter les données.
 
Pour l'histoire des perfs perdues par fragmentation, suffit de défragmenter avec un bon logiciel :/ Dans l'autre cas il faut supprimer des données, ce qui est nettement plus chi...
 

Citation :

En plus, on ne pourra jamais comparer petit volume de stockage et gros volume de stockage sur les blocs absents du petit volume. on ne peut pas dire qu'une voiture est plus rapide à transporter 4 valises, plutôt qu'un camion qui en déplace 150, (même si les 40 dernières sont rangées dans le mauvais sens et vont prendre plus de temps au triage en sortie)


 
Justement je parle juste de l'impact du remplissage du disque dur sur le début du disque (celui utilisé aussi lorsqu'en short strocking), justement à cause de mouvement des têtes plus longs. Pour l'analogie, je vois pas le rapport, y'as pas de mouvement dans l'histoire, on parle de stockage :/ A la limite parler d'entrepots, pourquoi pas (et de débit entrée/sortie de colis), mais de véhicules...
 
Fin bon, vous pouvez discuter, rien de ce que vous dites ne justifie les 10 secondes gagnées au démarrage de windows. Sauf si peut-etre faire une plus petite partition n'apporte rien en terme de gain de temps d'accès et que seul le short strocking le permet :/ Parce logiquement que ma partition fasse 1,2 To ou 256 Go, si j'ai 20 Go de données sur le disque, y'as pas de raison que ça aille plus vite ;) (les fichiers étant au début du disque) - Enfin si avec tes chipotement de fichiers déplacés de 1 bloc d'un test à l'autre on doit perdre à tout casser 1 sec..

Message cité 1 fois
Message édité par Gerophil le 25-08-2009 à 14:19:26
n°7085831
c_planet
Posté le 25-08-2009 à 14:35:17  profilanswer
 

Gerophil a écrit :

Il existe des softs qui font la différence entre partition à X giga et disque total ? (vu que les autres ne sont pas sensés marcher ?)


 
winbench99 je pense, mais je ne sais pas si il permet de faire un test de temps d'accès. (et puis sous Seven, je ne sais pas si c'est viable)
 

Citation :

les fichiers étant au début du disque


 
tu as vérifié ?
 

Gerophil a écrit :

Enfin si avec tes chipotement ...


 
Sans t'offenser, tu n'as aucune notion de ce qu'est une procédure de test (et tu veux faire la leçon à Marc :D )
 
tu es plein de bonnes intentions, tu as pris le temps de réinstaller windows plusieurs fois, etc. mais tu dois comprendre que tu dois tout vérifier, si tu te dis à un moment "cela se réinstalle sûrement au même endroit", c'est une faille (un élément non vérifié, qui au lieu d'être certifié constant devient peut-être variable).

n°7085875
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-08-2009 à 14:59:07  profilanswer
 

Gerophil a écrit :

Je pense que certains d'entre vous n'ont vraiment rien compris au short strocking (c_planet et marc en tete) :
Ce n'est pas un simple partionnage, on supprime l'accès à une partie du disque, ce qui a pour effet, contrairement au partionnage normal de changer la position "par défaut" de la tete de lecture vers le centre du nouvel espace de stockage. Et cela, ça n'arrive pas quand vous partitionner, vous pouvez essayer vos super solutions de partionnage, vous aurez toujours le même temps d'accès pourri (test powered inside et pas simplement de la pataphysique comme vous le faites. Voir plus bas). Le seul moyen de gagner en temps d'accès est justement de condamner l'accès à une partie du disque... Sinon comment expliquer les gains observés sur une config "fraiche" qui dans les deux cas n'a aucune raison de faire plus déplacer la tete de lecture vu qu'elle contient les mêmes données, au même endroit ? (cad au début du disque)


 
Tu crois qu'entre chaque accès la tête de lecture se fait chier à se replacer ? Elle reste là ou elle est ... si tu n'as pas de donnée au délà de ta partition elle ne vas pas y aller.
 
Le même temps d'accès pourri en ne faisant que partitionner ? Mais bien sûr ... exemple ici avec un Western 2 To 5400 tpm
 
Sur l'intégralité du disque, accès de 4 Ko aléatoire : 55.03 I/O par seconde (tps moyen 18.17ms)
Sur une partition de 32 Go, accès de 4 Ko aléatoire : 107.3 I/O par seconde  (tps moyen 9.3ms)
 
Effectivement ca ne change rien ... :lol:


Message édité par Marc le 25-08-2009 à 15:06:45
n°7086034
Gerophil
Posté le 25-08-2009 à 16:19:42  profilanswer
 

Ok je lache l'affaire... vous avez raison ;)
 
Juste un truc, Marc les test tu les as fait avec quel logiciel ? Winbench99 ?
 

Citation :

mais tu dois comprendre que tu dois tout vérifier, si tu te dis à un moment "cela se réinstalle sûrement au même endroit", c'est une faille


Non mais je suis d'accord avec toi, mais tu vas pas quand même dire que 10 s d'écart (par exemple) sur le démarrage de windows n'incombe qu'a celà, ou alors il faudrait s'amuser à reinstaller plein de fois windows jusqu'a avoir le meilleur temps de démarrage (si on peut y gagner au moins 10s) et faire une image du disque pour tout le temps avoir de bonnes perfs :/

n°7086056
Marc
Super Administrateur
Chasseur de joce & sly
Posté le 25-08-2009 à 16:32:28  profilanswer
 

I/O Meter

n°7281332
kanaill
Posté le 10-01-2010 à 14:57:19  profilanswer
 

Salut à tous,
 
Un petit up pour ce topic bien intéressant.
Je voulais apporter ma modeste expérience dans le short-stroking. J'ai tenté cette manip sur mon RAID0 de 2 vieux 80Go Maxtor (me rappelle plus les ref, j'irai jeter un coup d'oeil dans le BIOS...) et j'en suis très content.
 
Je tiens à préciser que j'avais testé de créer une partition de 50Go et ai fait le bench ensuite, ça n'apportait pas de différence par rapport à la simple grappe RAID0. Après le short-stroking sur la grappe RAID0, j'ai senti une amélioration (et les benchs sont là pour le prouver).
Grappe RAID 0 strip-size 32K (meilleur compromis débit/latence/linéarité sur mon P5N-D avec ces HDD)
http://img13.imageshack.us/img13/1857/raid032kseven64.th.png
Short-stroking de 50Go sur la même grappe RAID0
http://img16.imageshack.us/img16/9517/raid0shortstroked.th.png
 
C'est certain que je perds en espace de stockage, mais pour l'utilisation que je fais de mon RAID0 (OS et application), c'est bien suffisant. Mes données sont sur un HDD de 400Go... donc pas de soucis. Je souhaitais réellement optimiser mon RAID et l'utilisation de mes HDD. Grâce à cette technique qui semble-t-il, n'est pas encore très connu et surtout approuvée (encore faudrait-il que les même personnes qui réfutent cette manip l'aient testés et comparés), cela permet de réellement donner un coup de fouet à votre matériel pour un prix assez raisonnable.
 
Prochaine étape, l'achat d'un SSD (un petit Intel X-25M me fait de l'oeil  :love: ) pour y mettre l'OS + Softs.... Je garderai mon RAID pour autrechose...
 
Bonne dimanche  :)

n°7281451
c_planet
Posté le 10-01-2010 à 16:02:24  profilanswer
 

kanaill a écrit :


Je tiens à préciser que j'avais testé de créer une partition de 50Go et ai fait le bench ensuite, ça n'apportait pas de différence par rapport à la simple grappe RAID0. Après le short-stroking sur la grappe RAID0, j'ai senti une amélioration (et les benchs sont là pour le prouver).


 
ou comment démontrer qu'on n'a rien démontré ...  
 
prendre un bench qui bypasse les partitions, c'est évidement inapproprié.

n°7281464
kanaill
Posté le 10-01-2010 à 16:08:52  profilanswer
 

Pardon, mais as-tu testé cette technique avant de dire que je n'ai rien démontré? Peux-tu apporter des arguments et des faits, je ne demande qu'à apprendre.
 
Mes screens sont là pour indiquer l'amélioration en terme de réactivité (gagner 3ms sur un disque système est appréciable), de linérarité dans les débits (je ne parle pas des pics sur le graph, dû au disque système en activité) et de débit (pas énorme, je te l'accorde, mais 10%, c'est 10%).
 
Le coup des partitions je l'ai testé également, et franchement pas senti de différence...

n°7281479
c_planet
Posté le 10-01-2010 à 16:19:55  profilanswer
 

kanaill a écrit :

Pardon, mais as-tu testé cette technique avant de dire que je n'ai rien démontré? Peux-tu apporter des arguments et des faits, je ne demande qu'à apprendre.
 
Mes screens sont là pour indiquer l'amélioration en terme de réactivité (gagner 3ms sur un disque système est appréciable), de linérarité dans les débits (je ne parle pas des pics sur le graph, dû au disque système en activité) et de débit (pas énorme, je te l'accorde, mais 10%, c'est 10%).


 
tu n'arrives pas à comprendre que les chiffres sont moins bon sur le 1er screen parce que le bench teste toute la surface et pas uniquement la partition de 50go ?

n°7281503
bjone
Insert booze to continue
Posté le 10-01-2010 à 16:33:16  profilanswer
 

kanaill a écrit :

Salut à tous,
 
Un petit up pour ce topic bien intéressant.
Je voulais apporter ma modeste expérience dans le short-stroking. J'ai tenté cette manip sur mon RAID0 de 2 vieux 80Go Maxtor (me rappelle plus les ref, j'irai jeter un coup d'oeil dans le BIOS...) et j'en suis très content.
 
Je tiens à préciser que j'avais testé de créer une partition de 50Go et ai fait le bench ensuite, ça n'apportait pas de différence par rapport à la simple grappe RAID0. Après le short-stroking sur la grappe RAID0, j'ai senti une amélioration (et les benchs sont là pour le prouver).
Grappe RAID 0 strip-size 32K (meilleur compromis débit/latence/linéarité sur mon P5N-D avec ces HDD)
http://img13.imageshack.us/img13/1 [...] n64.th.png
Short-stroking de 50Go sur la même grappe RAID0
http://img16.imageshack.us/img16/9 [...] ked.th.png
 
C'est certain que je perds en espace de stockage, mais pour l'utilisation que je fais de mon RAID0 (OS et application), c'est bien suffisant. Mes données sont sur un HDD de 400Go... donc pas de soucis. Je souhaitais réellement optimiser mon RAID et l'utilisation de mes HDD. Grâce à cette technique qui semble-t-il, n'est pas encore très connu et surtout approuvée (encore faudrait-il que les même personnes qui réfutent cette manip l'aient testés et comparés), cela permet de réellement donner un coup de fouet à votre matériel pour un prix assez raisonnable.
 
Prochaine étape, l'achat d'un SSD (un petit Intel X-25M me fait de l'oeil  :love: ) pour y mettre l'OS + Softs.... Je garderai mon RAID pour autrechose...
 
Bonne dimanche  :)


 
CQFD, les perfs 50Go du second test sont les mêmes sur les premiers 50Go du premier test, hormis le seek qui est faussé par le fait de la faire sur une distance plus courte.

Message cité 1 fois
Message édité par bjone le 10-01-2010 à 16:35:58
n°7281504
kanaill
Posté le 10-01-2010 à 16:33:35  profilanswer
 

Effectivement, j'ai bien compris le pourquoi de l'amélioration des chiffres entre le 1er et 2e screen. Maintenant, ce que j'en ai déduis c'est que de ce fait, il pouvait être intéressant de n'utiliser que les premiers secteurs de chaque plateaux, d'où le short-stroking. Pour une utilisation plus confortable en terme de rapidité de lancement des applications, et de chargement, n'est-il pas intéressant d'avoir la meilleur latence possible?
 
Quand tu regardes le 2e screen, on voit bien quand même que la latence a été sensiblement améliorée, je me trompe? Cette latence est bien le fait que les têtes de lectures du HDD font moins d'aller-retour, combinées à l'utilisation des premiers secteurs du disque qui se trouvent à la périphérie des plateaux où les débits sont plus importants?
 
Est-ce que je me trompe dans le fonctionnement d'un disque dur et de la manière dont il accède aux données?

n°7281510
bjone
Insert booze to continue
Posté le 10-01-2010 à 16:38:29  profilanswer
 

Elle le font sur moins de "distance".
 
C'est parceque sur le premier HD Tach utilise toute l'espace (donc utilise des cylindres très éloignés), et une fraction pour le deuxième.
Généralement les benchs utilisent le 1/3 de l'espace pour tester le seek, enfin de mémoire.

Message cité 1 fois
Message édité par bjone le 10-01-2010 à 16:40:09
n°7281511
kanaill
Posté le 10-01-2010 à 16:38:41  profilanswer
 

bjone a écrit :


 
CQFD, les perfs 50Go du second test sont les mêmes sur les premiers 50Go du premier test.


 
Je n'ai pas dit que j'avais augmenté les performances mais juste que je les utilise plus de la même façon. D'après ce que j'ai compris de cette technique, et par rapport à mes tests (je parle de pratique, et non plus de ces benchs), j'ai réellement senti une amélioration dans l'utilisation de ma config, système plus réactif lors des lancements d'applis, de jeux, d'installation de softs...

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2
Page Précédente

Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Hardware
  Disque dur

  Le Short Stroking?

 

Sujets relatifs
config intel short budget ^^CM pour E6300 à petit budget (voire tres short)
Cavaliers short & openDST Short Status Test FAILED ===> Démarrage impossible
[Fibre Channel] A quoi ca sert un Short Wave SFP Module 
Plus de sujets relatifs à : Le Short Stroking?


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR