Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1492 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  23  24  25  26  27  28  29  30  31
Auteur Sujet :

MyNAS : Montage d'un serveur de fichiers sérieux (1To RAID5+ 800Go)

n°6660735
neodam
c'est joli mais ça sert a rien
Posté le 26-10-2008 à 21:28:22  profilanswer
 

Reprise du message précédent :
penses-tu que ça soit dû au fait que j'ai directement créé un pool raidz avec 5disk ?
 
plutot que de le faire sur un seul disk et puis de changer le pool raidz apres coup ?

mood
Publicité
Posté le 26-10-2008 à 21:28:22  profilanswer
 

n°6675342
Xlm_Tadeus
Posté le 04-11-2008 à 01:00:09  profilanswer
 

yopla, parce que intrigué quand meme par le zfs, niveau support et perf ça donne quoi ?
 
Parce que j' ai actuellement une grappe de 2To en raid 5 materiel qui me satisfait pleinement, mais je comptes prendre 1 ou 2 hdd d'1 To en plus donc savoir comment organiser tous ça :)
 
On peut rajouter des pools apres creation de base avec zfs ? (genre je me fais un pool avec 1 disque de 1To, et deux de 160 Go, je peux rajouter un disque de 1 To apres ? ça se passe comment avec les hdd de tailles différentes ? )
 
et niveau sécurité ? (ca me fait quand meme bien pensé a lvm, mais lvm n' a aucune redondance :s)
 
Performance de ma grappe raid 5 materiel  (5 hdd de 500 Go):  
 
time sudo cat /mnt/stockage/*** > /dev/null  
real 0m38.520s
user 0m0.368s
sys 0m7.316s
 
le fichier *** en question persait 8138 Mo, une petite division et on arrive à:   214 Mo/s (en lecture)  

n°6680998
PacThePac
Posté le 06-11-2008 à 20:40:37  profilanswer
 

Bonjour à tous,
 
Je suit ce topic depuis le début et m'en suis servi pour monter mon NAS.
A l'époque j'ai fait ça sur une Mandriva 2006.
Récemment, j'ai fait une réinstallation complète avec la Mandriva 2009.
Tout c'est bien passé sauf ce problème :
 
A chaque redémarrage de la machine, les grappes se resynchronisent.
 
/dev/md0 8x300 Go
/dev/md1 8x250 Go
 
J'attends une cinquantaine d'heures.
Je vérifie avec mdadm --detail /dev/md(0et1) et je ne redémarre jamais la machine avant que les deux grappes soient bien resynchronisées.
 
Mandriva 2006 : mdadm version 2.4.1
Mandriva 2009 : mdadm version 2.6.7
 
Si quelqu'un a une idée?


Message édité par PacThePac le 07-11-2008 à 16:43:07
n°6681490
PacThePac
Posté le 06-11-2008 à 23:57:04  profilanswer
 

Je crois avoir trouvé le coupable : /etc/udev/rules.d/70-mdadm.rules
 
# This file causes block devices with Linux RAID (mdadm) signatures to
# automatically cause mdadm to be run.
# See udev(8) for syntax
 
SUBSYSTEM=="block", ACTION=="add|change", ENV{ID_FS_TYPE}=="linux_raid*", \
 RUN+="/sbin/mdadm --incremental --run --scan $root/%k"
 
 
en remplaçant "--incremental --run" par "--assemble"
 
J'attends la fin du resync avant de tester.

n°6684854
PacThePac
Posté le 08-11-2008 à 19:58:02  profilanswer
 

Avec "--assemble ", les grappes ne se montent plus automatiquement.
Je les monte à la main et je n'ai plus de problème d'array en mode dégradé.
Je vais laisser comme ça pour l'instant.

n°6685056
ginie
Posté le 08-11-2008 à 22:17:32  profilanswer
 

Suite à la panne d'alim de mon NAS Dlink qui bien sûr n'est plus garanti je voudrais le remplacer par un pc.
 
Il me faut juste un petit raid 1 sous debian et je me demande si cette carte est compatible et bootable : http://www.ldlc.com/fiche/PB00039840.html

n°6701567
tron20
Posté le 18-11-2008 à 10:22:21  profilanswer
 


c'est complètement faux.
 
ca fait depuis 7 que j'ai deux "serveurs" on line en permanence : ma femme n'a jamais gueulé pour des soit-disantes factures "astronomiques" !!!


---------------
Asrock conroe 945g-dvi
n°6701568
tron20
Posté le 18-11-2008 à 10:23:31  profilanswer
 

hfrfc a écrit :

Nan marche pas (pour moi) :o
J'ai essayé sur un serveur avec un controleur raid matériel, raid 5, et rien à faire, même en faisant un /boot et le reste en lvm.


moi je tape en xfs


---------------
Asrock conroe 945g-dvi
n°6720534
F5BJR
Posté le 01-12-2008 à 12:50:21  profilanswer
 

si ca intéresse un boitier pas cher ...
 
'' je n'ai pas d'action ni chez le fabriant ni chez le marchand !! ''
 
71.12 Euros
 
http://www.twenga.fr/prix-Rebel-12 [...] C-399076-0
 
documentation ici
 
http://www.sharkoon.com/html/produ [...] ex_en.html
 
***
 
recu il y a quelques jours
 
- on peut dire qu'il y a de la place pour une tour qui fait environ 10 cms de plus en hauteur ( en réalité c'est la taille de l'alimentation )
 
- seul petit problème a été le cable d'alimentation a 4 fils 2*12 Volts + 2 * masse ( j'ai du rallonger d'environ 20 cms )
   fer à souder gaine thermorétractable et 20 cms de fils jaune et noir
 
- j'ai déplacé les deux supports de 3 disques d'environ 2 cms sur la droite du coffret de façon a libérer un peu de place  
du coté connecteurs ( sata / ide ) je peux ainsi mettre des disques IDE avec adaptateur sata sans que cela coince
 
pas grand chose a redire de plus si ce n'est que maintenant j'ai dans ce boitier :
 
1 - MB455SPF ( 5 emplacements )
 
2 - 2 Rack MaxInPower 5.25", 4 emplacements Disque Sata 3.5" (BEMIP52RK4)  
 
3 - 1 graveur + lecteur 5.5 , lecteur de carte SD/MMC ....
 
4 - 6 emplacements supplémentaires en bas si besoin  
 
Pierre


Message édité par F5BJR le 01-12-2008 à 14:06:36
n°6720959
Profil sup​primé
Posté le 01-12-2008 à 17:18:35  answer
 

tron20 a écrit :


c'est complètement faux.

 

ca fait depuis 7 que j'ai deux "serveurs" on line en permanence : ma femme n'a jamais gueulé pour des soit-disantes factures "astronomiques" !!!

 


Effectivement, c'est faux.
100 W consommés en 24h/24h reviennent à peine à 100 euros par an, soit par mois: 8 euros à tout péter.
Pour info, j'ai un BTS Electrotechnique, donc j'affirme, en toute modestie, savoir faire ce genre de calcul ultra basique sans erreur.
En sachant que 100W, ça commence à faire un peu beaucoup pour un NAS. A ce propos, je vous rappelle et je veux sensibiliser le plus grand nombre au fait que le surcoût d'une alimentation labellisée 80+ (haut rendement) est très rapidement rentabilisé. Ca vaut le coup !! D'autant plus que ce sont des alimentations dont l'étude est très rigoureuse, avec des composants de franche bonne qualité, ça pètera pas dans 6 mois. On est pas sur du Heden ou du Advance, là. Pour vous en convaincre: http://www.canardpc.com/dossier-39 [...] -A830.html


Message édité par Profil supprimé le 01-12-2008 à 17:23:03
mood
Publicité
Posté le 01-12-2008 à 17:18:35  profilanswer
 

n°6721108
zeblods
Posté le 01-12-2008 à 18:53:25  profilanswer
 

@F5BJR : Pour ma part j'ai un Rebel9 (de sharkoon donc) qui se différencie par seulement 9 emplacements 5,25" (contre 12 pour le Rebel12) et l'absence des supports disques durs (qui en faite prennent la place du bas qui n'est pas disponible dans le Rebel9 car plus petit...) et j'en suis également super content !

 

J'arrive à y caser 2 supports pour 4 disques durs (qui prennent chacun 3 emplacement 5,25" ) pour y mettre mes 8 disques durs de données, mon disque dur SSD pour le système, un lecteur DVD et un réobus.

 

Le tout fonctionne très bien depuis plus de 6 mois maintenant en H24...
Pour quelques photos du boitier : http://zeblods.com/web/serveur/


Message édité par zeblods le 01-12-2008 à 18:53:50
n°6721583
Profil sup​primé
Posté le 02-12-2008 à 00:04:30  answer
 

Joli bête, la boite à zeblods  :jap:

 

[:giz] Bon choix d'alim.
[:giz] Boitier sobre (enfin... presque)
[:giz] Bien ventilé.
[:bleuarff] Photos dégueulasses.
[:bleuarff] Upload de ton serveur (qui héberge les photos) un peu limite. Mais bon tu es pardonné, car...
[:giz] ... hébergement perso chez toi derrière ta connex' Free; enfin un qui fait de l'internet et pas du minitel 2.0 !
[:bleuarff] Disques apparemment tous identiques, je recommande pas du tout du tout.

 

T'as mis quoi comme pross et carte mère, pour justifier des dissipateurs pareils  [:phoenxrebrth]

Message cité 1 fois
Message édité par Profil supprimé le 02-12-2008 à 00:08:13
n°6721659
neodam
c'est joli mais ça sert a rien
Posté le 02-12-2008 à 01:58:20  profilanswer
 

Citation :

Serveur Home-made - sur FreeBSD 7.0
- Carte mère : Gigabyte GA-G33-DS3R
- Processeur : Intel Pentium E2160 (1,8Ghz - 800Mhz - 1Mo)
- Disque dur OS : Transcend SSD Drive 8 Go SLC SATA
- Disques durs DATA : 8x Hitachi Deskstar P7K500 500 Go SATA
- Supports disques durs : 2x Silverstone CFP51
- RAM : 2x PNY DDR2 2 Go 800MHz
- Carte controleur SATA : Connectland 2x SATA150
- Alimentation : Antec Earthwatts 430
- Boitier : Sharkoon Rebel9 Economy Edition Noir
- Ventirad : Noctua NH-U12P + 2x Noctua NC-U6
- Ventilateur : 3x Noctua NF-P12-1300
- Rhéobus : Noise Isolator 3,5"
- Isolation phonique : Akasa Paxmate Plus
- Lecteur DVD : LG GDR-H20N Noir SATA

n°6721674
Profil sup​primé
Posté le 02-12-2008 à 03:16:04  answer
 

Ah, c'est ce que je pensais, mais j'étais pas sûr.
 
Ben, ton E2160 risque pas d'avoir chaud avec autant de ferraille sur le dos...
A moins que tu ais laissé la dissipation CPU en passif (je sais pas si c'est une vitesse d'obturation élevée qui a figé le ventilo ou si il était simplement arrêté au moment de la prise de vue ?).
Ou bien est-il destiné à fonctionner dans une pièce ou la température ambiante est élevée ?

n°6721785
zeblods
Posté le 02-12-2008 à 09:38:45  profilanswer
 


Oui c'est vraie que malheureusement le réobus fait un peu tiouning, mais j'ai pas trouvé de moyen d'éteindre ces foutu LED...
Les photos sont en effet vraiment dégueulasses car prise avec mon téléphone ! :D
Et pour l'upload la connexion Free c'est pas vraiment le pied... 100Ko/s (dont 50 utilisés par MLDonkey...) donc il reste pas grand chose...

 

Les disques sont les mêmes, mais comme je ne les ai pas acheté en même temps (ni au même endroit car je prenais chaque fois le moins chère possible) ils ne sont pas de la même série. Je suis resté sur ce modèle car pour leurs caractéristiques (consomation/silence/perfs) lorsque je les ai acheté ils étaient vraiment très très bon.

 


Le serveur est dans mon meuble TV (donc bien cloisonné entre 4 planche de bois et une vitre en verre devant) et j'avais essayé de le laisser en passif, mais le CPU chauffait quand même pas mal cet été (à Toulouse dans mon appartement non climatisé je tournais à 30°C ambiant... le CPU montait à 55/60°C en fan less et à 40/45°C avec le ventilateur au minimum...)

 

A noter que le seul air qui rentre dans le serveur est celui venant des disques durs (et des donc des ventilateurs de façade) car toutes les trous/ouvertures superflus ont été bouché par l'Akasa Paxmate Plus (afin de ne pas avoir de fuite de bruit un peu partout, et surtout de pouvoir protégé la seul entrée d'aire du boitier par des filtres...)
Donc l'aire qui sert à refroidir le processeur est déjà "chaud" à cause des disques durs...

 

Et oui lors des photos de l'intérieur le serveur été arrêté ^^


Message édité par zeblods le 02-12-2008 à 09:43:50
n°6722589
PeK
Posté le 02-12-2008 à 16:53:46  profilanswer
 

Pour info, je viens de me monter mon nouveau NAS maison :
vocation personnelle, mais machine assez costaud.
 
Le matos :  
-----------
- Pentium E2160
- P5W-DH
- 8Go PC6400 ECC Crucial (4*2Go)
- Carte graphique PCI-Express passive
- Carte réseau Intel Dual Port Gb, PCI-Express
- Carte RAID SAS LSI 8308ELP  
- Gigabyte iRAM, 4Go  
- un DD 20Go PATA en bootloader
- 4 * 1To Samsung  
- Alim Seasonic 380W
 
Explications des choix de matos :
----------------------------------
- P5W-DH => j'avais déjà cette mobo, et j'ai vu par hasard qu'elle supporte la mémoire ECC, je me suis dit banco! Elle va servir dans le NAS.
- Mémoire ECC => parce que j'ai tellement de chance, parce que j'ai déjà souffert de corruptions de fichiers, de RAM qui meurt gentiment en faisant des erreurs, etc. ça arrive même avec du matos de qualité.  J'ai 2 kits de GSkill en SAV actuellement, et je ne fais pas d'o/c sur la RAM. Le fait de pouvoir mettre de la ECC, ça m'a vraiment intéressé surtout qu'elle n'est pas trop cher. (120E les 8Go)
- Pentium E2160 => Je voulais un proco assez puissant, qui ne chauffe pas trop, 64 bits (pour la RAM et pour ZFS), et pas trop cher. Résultat, ça tourne en silence. Le ventirad box est à peine audible. Le proco n'est pas O/C, et il suffit largement.
- Carte graphique PCI-Express (x300) => parce que je n'ai pas réussi à booter cette mobo avec une carte PCI ! Du coup, j'ai mis cette carte graphique qui ne me sert pas. (la carte mere ne boot pas sans carte graphique, parce que sinon, je m'en serai passé). Au passage, à part le support de l'ECC (chipet i975), elle est contraignante cette carte mère.
- Carte réseau Intel => car je ne suis pas arrivé à faire fonctionner les ports onboard (Marvel Yukon) de la carte mère avec la distribution que j'ai utilisé.  
- Alimentation Seasonic 380W => je l'avais déjà, elle est silencieuse et largement assez puissante.
- Carte RAID SAS => je l'avais, elle moisissait dans mon placard. Elle me permet de mettre tous les disques sur un seul est unique controlleur, assez costaud, pro, et bien supporté. J'ai choisi ça plutot que les ports SATA onboard de la P5W-DH parce que ça m'a semblé plus robuste.
- l'iRAM => me sert de log device sous ZFS. C'est une sorte de NVRAM.
 
Le software :
--------------
Je voulais du ZFS. Pourquoi ? Pour la réplication, pour le checksumming embarqué qui permet de détecter des corruptions de fichiers, pour les snapshots sans impacts, etc...  
ZFS est beaucoup plus robuste qu'un simple RAID. J'ai en effet déjà eu des corruptions de fichiers à cause d'un disque d'un RAID1, pas complétement mort, et qui envoyait des données fausses.  
Je ne voulais pas d'une distribution avec du ZFS "rapporté", comme par exemple Linux+Fuse+ZFS, ou FreeBSD. D'une part pour des raisons de perfs, d'autre part pour des raisons de fiabilité.
Donc, OpenSolaris, Solaris, ou ... Nexenta. Cette dernière distribution est un mix Solaris/Gnu. Kernel Sun + gestion de package apt, comme ubuntu.  
Mes tests m'ont finalement fait choisir Nexenta.  
Pour info :
OpenSolaris : l'installeur graphique plante au lancement, et il n'y a visiblement pas de processus d'installation en mode texte...
Solaris : installation OK ... il supporte même la carte onboard de ma carte mere.
Nexenta : installation OK, mais je n'ai pas réussi à faire fonctionner la carte onboard... même avec le driver Solaris.
J'ai finalement choisi Nexenta parce qu'il est en version "stable", mais en même temps beaucoup plus facile d'utilisation pour un non-expert en Solaris, en effet, les outils à cotés sont plus proche du monde Linux.
Du coup, j'ai ajouté la carte intel dual port que je possédais déjà...
 
La configuration :
-------------------
J'ai un disque de boot... que je n'ai pas mis en raid parce que j'en ai pas besoin. En gros, si il casse, je reinstalle un OS sur un autre disque solo, et je redémarre le filer. Je n'ai pas de contrainte de disponibilité en cas de casse.
 
Le RAID:  Meme si j'utilise une carte RAID, chaque disque est configuré indépendamment au niveau de la carte RAID SAS, et le RAID est géré par ZFS.
Je fais donc un RAIDZ, d'une taille de 3To utiles environ.
 
Les perfs :
------------
Testé au travers du réseau : c'est le réseau qui limite.  
Testé en interne, directement depuis le filer :  
- débit en écriture : environ 210Mo/s  
- débit en lecture : environ 300Mo/s
Ces débits sont ceux sur le pool a peine plein, donc au "début" des disques. A la longue, plus cela sera plein, plus ça baissera.
 
 
Voila, un petit témoignage, en espérant que cela aura intéressé quelqu'un.
 
 
 
EDIT : le serveur est dans un boitier home made, à base de carton Evian :D
Il est super silencieux, les disques étant sur de la mousse, les ventilos utilisés étant pratiquement tous des 12cm en 5V. ça ne chauffe pas, ça ne fait pas de bruit, et ça poutre :D

Message cité 2 fois
Message édité par PeK le 02-12-2008 à 16:55:24

---------------
PeK
n°6722609
stilgars
Posté le 02-12-2008 à 17:06:30  profilanswer
 

super interessant, merci de ton partager ton retour.
 
Je suis pour ma part en pleine recherche des composants, mais j'avoue que je vais devoir me passer de ta carte SAS (bien qu'elle serve uniquement d'interface SATA, les fonctionnalités RAID ne sont pas utilisées) et de l'iRAM (vraiment un apport concret?).
 
Je vais plutôt utiliser OpenSolaris, et je passe sur les disques Samsung qui ont mauvaise réput sur ce forum.
 
Par contre, je rame pour trouver une mobo intéressante et ECC compliant.
 
http://forum.hardware.fr/hfr/Hardw [...] 2417_1.htm

Message cité 1 fois
Message édité par stilgars le 02-12-2008 à 17:08:03
n°6722640
PeK
Posté le 02-12-2008 à 17:18:54  profilanswer
 

stilgars a écrit :

super interessant, merci de ton partager ton retour.
 
Je suis pour ma part en pleine recherche des composants, mais j'avoue que je vais devoir me passer de ta carte SAS (bien qu'elle serve uniquement d'interface SATA, les fonctionnalités RAID ne sont pas utilisées) et de l'iRAM (vraiment un apport concret?).
 
Je vais plutôt utiliser OpenSolaris, et je passe sur les disques Samsung qui ont mauvaise réput sur ce forum.
 
Par contre, je rame pour trouver une mobo intéressante et ECC compliant.
 
http://forum.hardware.fr/hfr/Hardw [...] 2417_1.htm


 
 
Pour l'iram, je n'ai pas encore pu le mesurer. En théorie, il devrait me faire gagner énormément un environnement vmware. En effet, le filer va fournir des datastores à un ESX juste à coté.  
Je ferai un retour la dessus bientot.

n°6722642
fdaniel
Have you got a 27B/6 ?
Posté le 02-12-2008 à 17:19:23  profilanswer
 

Sun utilise une technique analogue pour ses serveurs de stockage Amber Road : le log device ZFS est placé sur des disques SSD pour accélérer les opérations d'écriture (ils y placent aussi le cache ZFS pour accélérer les lectures). Cf par exemple les specs d'un des modèles de la gamme 7000 :
 
http://www.sun.com/storage/disk_sy [...] /specs.xml
 

Citation :

Flash (SSD) Device Support
 
ZFS Log Devices (Write-optimized SSD)
ZFS ARCL2 Devices (Read-optimized SSD)

Message cité 1 fois
Message édité par fdaniel le 02-12-2008 à 17:19:57

---------------
Topic des restos / Topic des boutiques gastronomiques
n°6722650
PeK
Posté le 02-12-2008 à 17:22:18  profilanswer
 

J'ai vu passer une question sur le ZFS et les zpools. Pour info, un zpool est un ensemble de structure. Une structure, c'est soir un "mirror", soit un disque solo, soit un RAIDZ, soit un RAIDZ2 (2 dd parité, en gros, du raid 6)
Dans un zpool, on peut ajouter un structure.
On peut modifier une structure de type mirror en ajoutant un mirroir.  
Je ne sais pas si on peut en enlever,je crois que oui, à vérifier.
On peut ajouter une structure RAIDZ ou RAIDZ2, mais on ne peut pas modifier les structures existantes aujourd'hui.  
Donc si vous partez avec 4 disques en RAIDZ et que vous voulez ajouter un 5ème disque plus tard, vous ne pourrez pas l'ajouter au RAID. C'est un manque de ZFS, c'est la fonctionnalité la plus demandée par les utilisateurs, depuis pas mal de temps déjà... Le source est dispo, si vous voulez vous y intéresser et le coder vous même :D

n°6722660
jadou2291
Posté le 02-12-2008 à 17:27:19  profilanswer
 

Citation :

Je ne voulais pas d'une distribution avec du ZFS "rapporté", comme par exemple Linux+Fuse+ZFS, ou FreeBSD. D'une part pour des raisons de perfs, d'autre part pour des raisons de fiabilité.


 
ZFS intégré à un OS freeBSD (freenas) ne sera pas stable selon vous ?

n°6722666
PeK
Posté le 02-12-2008 à 17:30:11  profilanswer
 

fdaniel a écrit :

Sun utilise une technique analogue pour ses serveurs de stockage Amber Road : le log device ZFS est placé sur des disques SSD pour accélérer les opérations d'écriture (ils y placent aussi le cache ZFS pour accélérer les lectures). Cf par exemple les specs d'un des modèles de la gamme 7000 :
 
http://www.sun.com/storage/disk_sy [...] /specs.xml
 

Citation :

Flash (SSD) Device Support
 
ZFS Log Devices (Write-optimized SSD)
ZFS ARCL2 Devices (Read-optimized SSD)



 
c'est exactement ça.  
l'iRAM est un log device chez moi. Je n'ai pas ARCL2. (cache en lecture niveau 2. Le cache en lecture niveau 1, c'est la RAM libre de la machine)
Pour simplifier, ZFS est un système de fichier avec journal (comme beaucoup de FS modernes).  
Le journal est la pour logguer les modifications.  
Lorsque l'on demande qu'une modification soit sauvegardée (par exemple, commande "sync" ), 2 choix :
- soit on sauve le journal sur un support non volatil.
- Soit on commit le journal au niveau du zpool.  
le choix de la stratégie se faisant suivant des algos comme par exemple : "le journal est bien plein, le commit est donc fait sur le pool".
 
En l'absence d'un device dédié pour le journal, celui ci prend quelques Mo sur les disques compris dans le pool, de manière transparente.  
Si on possède un device dédié, alors le journal est dessus.


---------------
PeK
n°6722669
stilgars
Posté le 02-12-2008 à 17:31:48  profilanswer
 

jadou2291 a écrit :

Citation :

Je ne voulais pas d'une distribution avec du ZFS "rapporté", comme par exemple Linux+Fuse+ZFS, ou FreeBSD. D'une part pour des raisons de perfs, d'autre part pour des raisons de fiabilité.


 
ZFS intégré à un OS freeBSD (freenas) ne sera pas stable selon vous ?


 
l'implémentation est expérimentale à ma connaissance ...


Message édité par stilgars le 02-12-2008 à 17:33:14
n°6722670
PeK
Posté le 02-12-2008 à 17:31:50  profilanswer
 

jadou2291 a écrit :

Citation :

Je ne voulais pas d'une distribution avec du ZFS "rapporté", comme par exemple Linux+Fuse+ZFS, ou FreeBSD. D'une part pour des raisons de perfs, d'autre part pour des raisons de fiabilité.


 
ZFS intégré à un OS freeBSD (freenas) ne sera pas stable selon vous ?


les derniers tests fait ne m'ont pas convaincus.  
Il y a 6 mois, faire un zpool scrub sur un FreeBSD, c'était un panic...  
Bon ça a peut-etre évolué, c'est peut-etre stable aujourd'hui, mais ça reste récent à mes yeux.  
Bon c'est un avis qui n'engage que moi :)  
 

n°6722761
zeblods
Posté le 02-12-2008 à 18:19:29  profilanswer
 

PeK a écrit :


les derniers tests fait ne m'ont pas convaincus.
Il y a 6 mois, faire un zpool scrub sur un FreeBSD, c'était un panic...
Bon ça a peut-etre évolué, c'est peut-etre stable aujourd'hui, mais ça reste récent à mes yeux.
Bon c'est un avis qui n'engage que moi :)

 



J'utilise ZFS avec FreeBSD 7 depuis le début de l'été, avec un pool système sur mon SSD et un pool RAID-Z de 8 disques 500Go. Ça tourne en h24 depuis l'installation, j'ai déja essayé plusieurs fois de faire des scrub et ça a fonctionné à chaque fois.

 

Par contre je suis très intéressé par Nexenta (que je teste depuis quelques temps en virtual machine sur mon desktop), est-ce que je peux faire un export de mon pool RAID-Z FreeBSD et ensuite un import sur Nexenta sans soucis ? ou c'est pas compatible ?


Message édité par zeblods le 02-12-2008 à 18:21:05
n°6722770
PeK
Posté le 02-12-2008 à 18:24:21  profilanswer
 

compatible ? normalement, ça devrait l'être.  
Nexenta Core 1.0.1  utilise ZFS 10 .
Tu peux voir ta version via un "zpool upgrade"
J'ai perso testé la vision d'un pool fait sous Solaris via Nexenta et l'inverse aussi. Bon maintenant, c'est le même kernel dans les 2 cas, et le même code ZFS...  
Pour FreeBSD, je ne sais pas.

n°6722776
zeblods
Posté le 02-12-2008 à 18:26:14  profilanswer
 

Citation :

18:24:57 root@ZeblodServer : /mnt # zpool upgrade
This system is currently running ZFS version 6.

 

All pools are formatted using this version.


Ça sera bon quand même ?

 

Et sinon, il y a un moyen de voir la liste des package dispo sur Nexenta ?


Message édité par zeblods le 02-12-2008 à 18:26:30
n°6723014
zeblods
Posté le 02-12-2008 à 20:50:37  profilanswer
 

PeK a écrit :

Pour info, je viens de me monter mon nouveau NAS maison :
vocation personnelle, mais machine assez costaud.
 
Le matos :  
-----------
- Pentium E2160
- P5W-DH
- 8Go PC6400 ECC Crucial (4*2Go)
- Carte graphique PCI-Express passive
- Carte réseau Intel Dual Port Gb, PCI-Express
- Carte RAID SAS LSI 8308ELP  
- Gigabyte iRAM, 4Go  
- un DD 20Go PATA en bootloader
- 4 * 1To Samsung  
- Alim Seasonic 380W
 
[...]


J'ai regardé les spec de ta carte mère sur LDLC, mais il n'est pas indiqué qu'elle est compatible avec la ram ECC... Elle l'est réellement ?

n°6723113
HJ
Posté le 02-12-2008 à 21:36:47  profilanswer
 

Le chipset Intel 975 gère la RAM ECC.

n°6723188
zeblods
Posté le 02-12-2008 à 22:14:16  profilanswer
 

HJ a écrit :

Le chipset Intel 975 gère la RAM ECC.


Je ne savais pas et c'était pas marqué dans la description de LDLC. Merci.

n°6723353
HJ
Posté le 03-12-2008 à 00:18:33  profilanswer
 

C'est un des rare chipset d'ailleurs. Les chipsets grand public, en général, ne gère pas l'ECC. Mais le 975 avait un positionnement haut de gamme/station de travail voir même serveur il me semble. Ceci expliquant cela.

n°6723418
PeK
Posté le 03-12-2008 à 02:50:13  profilanswer
 

J'ai commencé à transvider mon vieux filer vers le nouveau ...  
en fait le vieux est monté en NFS sur le neuf et je fais un cp.  
On voit bien que le réseau est loin de saturer le truc. Le filer flush de manièré irrégulière.  
(iostat toutes les 1s)
 

Code :
  1. capacity     operations    bandwidth
  2. pool         used  avail   read  write   read  write
  3. ----------  -----  -----  -----  -----  -----  -----
  4. xpool       1.13T  2.49T      0      0      0      0
  5. xpool       1.13T  2.49T      0      0      0      0
  6. xpool       1.13T  2.49T      0      2      0   376K
  7. xpool       1.13T  2.49T      0     2K      0   256M
  8. xpool       1.13T  2.49T      0  1.87K      0   231M
  9. xpool       1.13T  2.49T      0  1.99K      0   254M
  10. xpool       1.13T  2.49T      0  1.89K      0   232M
  11. xpool       1.14T  2.49T      0    107      0   261K
  12. xpool       1.14T  2.49T      0      0      0      0
  13. xpool       1.14T  2.49T      0      0      0      0
  14. xpool       1.14T  2.49T      0      0      0      0
  15. xpool       1.14T  2.49T      0      0      0      0
  16. xpool       1.14T  2.49T      0      0      0      0
  17. xpool       1.14T  2.49T      0      0      0      0
  18. xpool       1.14T  2.49T      0      0      0      0
  19. xpool       1.14T  2.49T      0      0      0      0
  20. xpool       1.14T  2.49T      0      0      0      0
  21. xpool       1.14T  2.49T      0      0      0      0
  22. xpool       1.14T  2.49T      0     60      0  7.51M
  23. xpool       1.14T  2.49T      0  1.95K      0   250M
  24. xpool       1.14T  2.49T      0  1.97K      0   252M
  25. xpool       1.14T  2.49T      0  1.94K      0   248M
  26. xpool       1.14T  2.49T      0  1.92K      0   226M
  27. xpool       1.14T  2.49T      0    106      0   264K
  28. xpool       1.14T  2.49T      0      0      0      0
  29. xpool       1.14T  2.49T      0      0      0      0
  30. xpool       1.14T  2.49T      0      0      0      0
  31. xpool       1.14T  2.49T      0      0      0      0
  32. xpool       1.14T  2.49T      0      0      0      0
  33. xpool       1.14T  2.49T      0      0      0      0
  34. xpool       1.14T  2.49T      0      0      0      0
  35. xpool       1.14T  2.49T      0      0      0      0
  36. xpool       1.14T  2.49T      0      3      0   438K
  37. xpool       1.14T  2.49T      0  2.18K      0   280M
  38. xpool       1.14T  2.49T      0  2.33K      0   298M
  39. xpool       1.14T  2.49T      0  2.20K      0   281M
  40. xpool       1.14T  2.49T     10   1023  25.8K  97.6M
  41. xpool       1.14T  2.49T      0     20      0  69.8K
  42. xpool       1.14T  2.49T      0      0      0      0
  43. xpool       1.14T  2.49T      0      0      0      0
  44. xpool       1.14T  2.49T      0      0      0      0
  45. xpool       1.14T  2.49T      0      0      0      0
  46. xpool       1.14T  2.49T      0      0      0      0


 
Sinon, effectivement, l'i975 supporte la ECC, et la mobo la supporte aussi (il y a l'option dans le BIOS).
C'est un des dernier chipset grand public qui a cette option. Toutes les P5W d'asus sont normalement compatibles ECC.  
Pour le ZFS en version 6=> tu pourras normalement le lire sans soucis via Nexenta.  
Tu pourras aussi éventuellement l'upgrader en version 10 (la version de Nexenta), mais alors le retour ne sera pas possible.  
 
pour info, les nouveautés ZFS depuis la version 6 :  
 7   Separate intent log devices
 8   Delegated administration
 9   refquota and refreservation properties
 10  Cache devices
 
 

n°6723511
zeblods
Posté le 03-12-2008 à 08:59:40  profilanswer
 

Tu sais comment obtenir Nexenta en version 64 bits ? (car le Core 1.0.1 disponible sur le site est visiblement qu'en 32 bits... enfin c'est ce qui est marqué au boot...)

n°6723537
PeK
Posté le 03-12-2008 à 09:40:54  profilanswer
 

l'installation est 32 bits, la distrib est 64 bits apres (au boot, tu as le choix entre 32 bits et "autodétect" )

n°6723550
zeblods
Posté le 03-12-2008 à 09:51:52  profilanswer
 

Arf ouais... je suis un boulet !

n°6723618
PeK
Posté le 03-12-2008 à 10:31:06  profilanswer
 

zeblods a écrit :

Arf ouais... je suis un boulet !


Mais non mais non!
Je me suis moi même posé la même question et je refuse a me croire boulet!  ;)

n°6723695
ph75
Posté le 03-12-2008 à 11:27:24  profilanswer
 

PeK a écrit :

Je voulais du ZFS. Pourquoi ? Pour la réplication, pour le checksuming embarqué qui permet de détecter des corruptions de fichiers, pour les snapshots sans impacts, etc...  
ZFS est beaucoup plus robuste qu'un simple RAID. J'ai en effet déjà eu des corruptions de fichiers à cause d'un disque d'un RAID1, pas complétement mort, et qui envoyait des données fausses.

OK, mais concrètement en quoi ZFS permet de palier à ce problème ?  

n°6723759
PeK
Posté le 03-12-2008 à 12:11:27  profilanswer
 

ph75 a écrit :

OK, mais concrètement en quoi ZFS permet de palier à ce problème ?  


 
Concrétement, ZFS fait du checksumming. Si tu lui laisses en plus gérer le RAID, il pourra faire face.  
En effet, dans le cas d'un raid1, il va lire sur un disque, faire le checksum du bloc lu. Si celui-ci est KO, alors, il va aller chercher le bloc sur un mirroir disponible.  
Si le RAID est géré au niveau d'une carte RAID ou autre, cela ne serait pas possible, car ZFS ne pourrait pas demander la lecture à partir de l'autre disque.
 
Dans le cas d'un RAID5/Z, c'est pareil. On lit un bloc par défaut sur le disque qu'il contient. Si le checksum est pas bon, alors on va lire sur tous les disques, afin de reconstruire la donnée KO. Evidement, dans le cas d'un RAIDZ, si on a plusieurs checksums KO sur la même "ligne RAID" (>= 2), on ne pourra pas reconstruire...

n°6723768
ph75
Posté le 03-12-2008 à 12:17:17  profilanswer
 

PeK a écrit :

En effet, dans le cas d'un raid1, il va lire sur un disque, faire le checksum du bloc lu. Si celui-ci est KO, alors, il va aller chercher le bloc sur un mirroir disponible.

OK mais c'est pas trop consommateur en CPU ? en particulier je dis cela dans le cas de petites machines type VIA ou Atom.

n°6723794
PeK
Posté le 03-12-2008 à 12:27:49  profilanswer
 

j'avais lu une fois => 100Mo/s pour environ 1Ghz de CPU ... mais bon, j'ai jamais vérifier
 
je ferais un test ce soir

n°6723808
zeblods
Posté le 03-12-2008 à 12:33:36  profilanswer
 

PeK a écrit :

j'avais lu une fois => 100Mo/s pour environ 1Ghz de CPU ... mais bon, j'ai jamais vérifier
 
je ferais un test ce soir


Il me semblais que ce ratio 100Mo/s pour environ 1Ghz de CPU n'était pas pour le RAIDZ mais pour la compression du volume ZFS.

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  23  24  25  26  27  28  29  30  31

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Conseil] Choix composant pour Pc dedié au montage vidéoalimentation DD Sérial et montage ac un DD ide
serveur/modem? DNSserveur de chez dell
pb pas d'affichage apres montage new pc !Montage config sans boitier
lecteur de 1 Go, pas moyen de mettre plus de 99 fichiersfichiers disparu smais toujours présents ?
sérieux probléme bios dual sata 2Recuperer les fichiers d'un dd
Plus de sujets relatifs à : MyNAS : Montage d'un serveur de fichiers sérieux (1To RAID5+ 800Go)


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR