Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1712 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4
Auteur Sujet :

openSolaris 2008 05 : ZFS = grandiose tout simplement.

n°1048386
Hrolf
Posté le 04-06-2008 à 13:17:19  profilanswer
 

Reprise du message précédent :
Il dit tu es hors sujet alors que c'était plutôt nous.
 
Sinon mon retours de l'utilisation de ZFS en production sur un baie SAN de quelques To (en SATA ça sert principalement à la sauvegarde) :
-Performances largement meilleurs que l'ufs, c'est incomparable, ça va du simple au x10 sur certains traitement.
-La stabilité par contre je suis mitigé c'est en prod depuis seulement 1 mois et on a eu un crash des buffers ZFS, mais c'est peut être du à solaris10 et non à ZFS lui même.
-L'utilisation est sympathique et simple, facile à configurer, facile à utiliser.
-L'administration c'est entre les 2, c'est simple dans l'ensemble mais ça pause quelques problèmes avec les outils classiques. Par exemple le monitoring ZFS remonte des alertes de quotas et non de disques full,  et bien sur pas mal d'outils n'arrive pas à les détecter (NetBackup en particulier).


---------------
Il y a trois sortes de mensonges : les mensonges, les gros mensonges et les statistiques !
mood
Publicité
Posté le 04-06-2008 à 13:17:19  profilanswer
 

n°1048387
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 13:18:39  profilanswer
 

tron20 a écrit :

sauf que zfs , il fait le raid nativement Et avec des perf. béton ...


 
Il fait du raidZ qui est un ersatz de raid5. C'est très loin de tout faire, entre le raid matériel (qui sera toujours un ordre de grandeur au dessus en I/O), ni la souplesse du raid 1+0 (soft ou hard).
 
Sinon, niveau "performances", il se fait manger par ffs+journalisation, dans l'implémentation actuelle. Page wiki de freebsd pour lire autre chose que du blabla mercantile Sun, c'est déjà plus intéressant:
 
http://wiki.freebsd.org/ZFS
 

Citation :

Zfs, il est en train d'etre porté partout ...donc il doit pas etre si mauvais que ça !


 
Sun a surtout facilité la tache en créant des parties très portables de leur code, ce qui n'est pas un mal, compte tenu de la complexité des implémentations VFS de chaque Unix.
 
On regrette quand même qu'il n'ait pas été mis sous licence très libérale genre BSD. Ca aurait facilité son inclusion dans pas mal d'endroits :/

n°1048391
tron20
Posté le 04-06-2008 à 13:36:03  profilanswer
 

ecoutes , moi le problème du raid materiel c'est un truc qui me gonfle de plus en, plus : on dit ouaih le raid materiel super !!
 
Mais c quoi en fait ? ben juste un cpu (monté sur une carte pci-x pci etc ) qui fait du XOr a tout va.
 
je pense que vu la charge cpu de mon core 2 duo sur mon nas , on pourrai lui faire fair la meme chose ...haut la main sans même bouffer 25 % de cpu  y'a un truc qui m'echappe.
 
de plus vas y pétes ta carte raid materiel (quelque soit la gamme ) ... bon courage pour sauver tes données si tu n'a pas exactement la même.
 
Bref je commence a plus trop voir l'interet du raid hard ...
mais bon ...
 
d'ailleur pourquoi le raid soft est plus lent que le raid materiel.
hdparm -tT /dev/md0 me donne 211Mo/s ....
et comment tester en ecriture ? car en partage réseau je ne decolle jamais au dessus de 20 Mo/s .... (reseau gigabit bien sure)


---------------
Asrock conroe 945g-dvi
n°1048393
tron20
Posté le 04-06-2008 à 13:36:48  profilanswer
 

c bridé volontairement ou quoi ?


---------------
Asrock conroe 945g-dvi
n°1048394
black_lord
Modérateur
Truth speaks from peacefulness
Posté le 04-06-2008 à 13:38:10  profilanswer
 

Hrolf a écrit :

Il dit tu es hors sujet alors que c'était plutôt nous.
 
Sinon mon retours de l'utilisation de ZFS en production sur un baie SAN de quelques To (en SATA ça sert principalement à la sauvegarde) :
-Performances largement meilleurs que l'ufs, c'est incomparable, ça va du simple au x10 sur certains traitement.
-La stabilité par contre je suis mitigé c'est en prod depuis seulement 1 mois et on a eu un crash des buffers ZFS, mais c'est peut être du à solaris10 et non à ZFS lui même.
-L'utilisation est sympathique et simple, facile à configurer, facile à utiliser.
-L'administration c'est entre les 2, c'est simple dans l'ensemble mais ça pause quelques problèmes avec les outils classiques. Par exemple le monitoring ZFS remonte des alertes de quotas et non de disques full,  et bien sur pas mal d'outils n'arrive pas à les détecter (NetBackup en particulier).


 
ça fait quelques moi que j'en ai en production aussi et mes impressions (sur les mêmes champs) c'est :
 
- des perfs sympas, sans être mirobolantes
- pas de crashs
- l'administration est super conviviale (pour moi en tout cas)
- monitoring peu aisé : il n'y a pas de MIB ZFS (très très dommage), et l'utilisation des snapshots complique un peu la chose. Idem pour la "santé" des pools (perte d'un disque etc). Mais il y a toujours moyen de contourner (ce que j'ai fait)


---------------
uptime is for lousy system administrators what Viagra is for impotent people - mes unixeries - github me
n°1048396
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 13:47:45  profilanswer
 

tron20 a écrit :

ecoutes , moi le problème du raid materiel c'est un truc qui me gonfle de plus en, plus : on dit ouaih le raid materiel super !!
 
Mais c quoi en fait ? ben juste un cpu (monté sur une carte pci-x pci etc ) qui fait du XOr a tout va.


 
Euh non, c'est aussi des mémoires non volatiles, des alimentations stabilisées, des bus d'I/O optimisés...
 
Sinon, à ce rythme, je tiens le même raisonnement: ZFS c'est que un file system qui implémente en interne des fonctionnalités qui existaient déjà ailleurs (raidframe, cgd, lvm).
 

Citation :

je pense que vu la charge cpu de mon core 2 duo sur mon nas , on pourrai lui faire fair la meme chose ...haut la main sans même bouffer 25 % de cpu  y'a un truc qui m'echappe.


 
Oui effectivement, y'a un truc qui t'échappe. L'informatique que tu concois n'est pas nécessairement celle qu'il y a ailleurs, ou dans les PME/PMI. Les architectures sont aussi bien différentes (routeurs MIPS, serveurs SPARC), on est loin de l'x86 que tout le monde a chez soi. Mais je suis sur aussi que ton core 2 duo, ou ton box adsl, remplaceraient au pied levé un cisco soho.
 

Citation :

de plus vas y pétes ta carte raid materiel (quelque soit la gamme ) ... bon courage pour sauver tes données si tu n'a pas exactement la même.


 
N'importe quoi. Les contrats de maintenance prévoient ces cas de figure. On a des baies Sun ici, les géométries de disques fournis sont prévus pour ce cas de figure. Et la baie tourne depuis bientot quelques années.
 
Faudrait arrêter avec tes préjugés du raid semi hard que tu as fait sur ton ordi à la maison.  
 

Citation :

Bref je commence a plus trop voir l'interet du raid hard ...
mais bon...
 
d'ailleur pourquoi le raid soft est plus lent que le raid materiel.
hdparm -tT /dev/md0 me donne 211Mo/s ....
et comment tester en ecriture ? car en partage réseau je ne decolle jamais au dessus de 20 Mo/s .... (reseau gigabit bien sure)


 
Amha, met le nez ailleurs (juste par curiosité hein) que sur ton x86 sur ton bureau, tu vas en apprendre des choses.
 
Autre chose comme ca: on a actuellement plus de 4To de données stockées sur disques, et le triple sur bandes. Le passage sur ZFS chez nous, c'est niet. Trop dangereux, et n'apporte rien. Le stockage sur bande est déjà bien plus tenable et fiable à ce niveau. C'est pas demain la veille que ZFS va nous débarrasser de nos baies storagetek, c'est garanti.

n°1048403
tron20
Posté le 04-06-2008 à 13:57:27  profilanswer
 

tu me prends de haut donc.
 
bien sure que je connais le raid hard, sur NOS serveurs ici (50 linux + 3 AIX escala + hp ux , on a aussi du storage teck ...+ un san en fibre optique de 10To (parlons chiffre mdr)  pour tout nos serveurs ... donc tu vois j'en connait même peut etre un peu plus que toi a ce niveau ...)
 
et il y a 3 jours une carte raid hard sur un dell poweredge a petée, il n'est plus maintenu par dell ...
 
Alors tes considérations ...
 
bien sure aussi que le raid ne remplace pas une sauvegarde, je te parle de @home nas !!!

Message cité 3 fois
Message édité par tron20 le 04-06-2008 à 13:59:34

---------------
Asrock conroe 945g-dvi
n°1048404
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 14:00:13  profilanswer
 

C'est pas parce que ton contrat de maintenance est a terme qu'on peut pas remplacer la carte.
 
Si c'est parce que la carte n'existe plus, alors c est un probleme de process, fallait migrer la machine vers une techno plus recente, si ses fonctions étaient vitales.


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048405
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 14:04:17  profilanswer
 

tron20 a écrit :

donc tu vois j'en connait même peut etre un peu plus que toi a ce niveau ...)

 

J'en doute pas, vu tes propos depuis le début de ce sujet.

 

Dans ce cas, je te propose d'en discuter ce que ZFS fait bien et mal dans un noyau, de visu même, à ta convenance. Passe me voir au stand netbsd des RMLLs, si tu y viens.

 
Le_Tolier a écrit :

C'est pas parce que ton contrat de maintenance est a terme qu'on peut pas remplacer la carte.

 

Si c'est parce que la carte n'existe plus, alors c est un probleme de process, fallait migrer la machine vers une techno plus recente, si ses fonctions étaient vitales.

 

Non mais mettre du dell, ca veut tout dire. Excuse moi.

Message cité 2 fois
Message édité par Gf4x3443 le 04-06-2008 à 14:05:07
n°1048406
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 14:10:43  profilanswer
 

Gf4x3443 a écrit :


 
J'en doute pas, vu tes propos depuis le début de ce sujet.
 
Dans ce cas, je te propose d'en discuter ce que ZFS fait bien et mal dans un noyau, de visu même, à ta convenance. Passe me voir au stand netbsd des RMLLs, si tu y viens.
 


 
[:blessure]
 

Gf4x3443 a écrit :


 
Non mais mettre du dell, ca veut tout dire. Excuse moi.


 
[:blessure]


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
mood
Publicité
Posté le 04-06-2008 à 14:10:43  profilanswer
 

n°1048407
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 14:13:11  profilanswer
 


 


 
Je vais bientot plus être en état [:ddr555]

n°1048409
Hrolf
Posté le 04-06-2008 à 14:19:43  profilanswer
 

Gf4x3443 a écrit :

Autre chose comme ca: on a actuellement plus de 4To de données stockées sur disques, et le triple sur bandes. Le passage sur ZFS chez nous, c'est niet. Trop dangereux, et n'apporte rien. Le stockage sur bande est déjà bien plus tenable et fiable à ce niveau. C'est pas demain la veille que ZFS va nous débarrasser de nos baies storagetek, c'est garanti.


 
En fait chez nous c'est la nouvelle baie qui est passé sur ZFS, par ce qu'avec ufs on avait vraiment de trop gros problèmes de perfs.
La baie en question fait uniquement de la sauvegarde donc des gros volumes et du trafique soutenu pendant la nuit, mais pas trop d'IO rapides.
 
Et pour Tron20 si tu as du HPUX tu sais que le raid logiciel ça existe déjà de façon simple sans avoir besoin de ZFS :D


---------------
Il y a trois sortes de mensonges : les mensonges, les gros mensonges et les statistiques !
n°1048414
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 14:26:35  profilanswer
 

Hrolf a écrit :


 
En fait chez nous c'est la nouvelle baie qui est passé sur ZFS, par ce qu'avec ufs on avait vraiment de trop gros problèmes de perfs.
La baie en question fait uniquement de la sauvegarde donc des gros volumes et du trafique soutenu pendant la nuit, mais pas trop d'IO rapides.
 
Et pour Tron20 si tu as du HPUX tu sais que le raid logiciel ça existe déjà de façon simple sans avoir besoin de ZFS :D


 
Même avec AIX, le raid soft c'est finger in the noze


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048415
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 14:26:52  profilanswer
 

Hrolf a écrit :


En fait chez nous c'est la nouvelle baie qui est passé sur ZFS, par ce qu'avec ufs on avait vraiment de trop gros problèmes de perfs.
La baie en question fait uniquement de la sauvegarde donc des gros volumes et du trafique soutenu pendant la nuit, mais pas trop d'IO rapides.


 
Précurseur alors, parce que de notre coté, on flippe un peu. La tendance est de mettre du plus gros, et réduire un peu l'espace sol occupé. On a plus de place dans notre salle.
 
Les librairies c'est ce qui mange le plus cela dit, mais elles ne tournent que la nuit.
 
Ce sont surtout des données géo dans les machines, donc pas des I/O de monstre. Surtout beaucoup de volume. Vu que ca tourne, que les sauvegardes fonctionnent et sont vérifiées régulièrement, on garde UFS.

n°1048416
Dion
Acceuil
Posté le 04-06-2008 à 14:27:06  profilanswer
 

tron20 a écrit :

tu me prends de haut donc.
 
bien sure que je connais le raid hard, sur NOS serveurs ici (50 linux + 3 AIX escala + hp ux , on a aussi du storage teck ...+ un san en fibre optique de 10To (parlons chiffre mdr)  pour tout nos serveurs ... donc tu vois j'en connait même peut etre un peu plus que toi a ce niveau ...)
 
et il y a 3 jours une carte raid hard sur un dell poweredge a petée, il n'est plus maintenu par dell ...
 
Alors tes considérations ...
 
bien sure aussi que le raid ne remplace pas une sauvegarde, je te parle de @home nas !!!


 
Tu sais c'est pas parce qu'ils ont ce matos dans l'entreprise ou tu fais ton alternance que tu t'en occupes directement.
Et t'as un mauvais client en face, je pense que le niveau de Gftruc n'est pas a prouver dans la section.


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°1048425
Hrolf
Posté le 04-06-2008 à 14:44:07  profilanswer
 

Gf4x3443 a écrit :


 
Précurseur alors, parce que de notre coté, on flippe un peu. La tendance est de mettre du plus gros, et réduire un peu l'espace sol occupé. On a plus de place dans notre salle.
 
Les librairies c'est ce qui mange le plus cela dit, mais elles ne tournent que la nuit.
 
Ce sont surtout des données géo dans les machines, donc pas des I/O de monstre. Surtout beaucoup de volume. Vu que ca tourne, que les sauvegardes fonctionnent et sont vérifiées régulièrement, on garde UFS.


 
Quand j'étais chez Sanofi Le problème se pausait pas vu que c'était que du HPUX.
Mais même dans le cas contraire je pense que ça aurait été non.
 
La ça c'est fait par ce que les données sont pas critiques et qu'un crash à presque aucune conséquence (1j de sauvegarde perdu).
Dans le cas de données critiques augmenter les performances de la baie est à mon avis la solution.
 
Ha oui autre problème qu'on avait au passage : sur ufs le nombre de "links" (donc de répertoire) est par defaut fixé à 32k et notre GED c'est retrouvé bloqué à cause de ça, et on peut pas changer sans refaire un nouveau volume  :pfff: .
Mais la majorité des problèmes qu'on rencontre viennent de ufs, j'ai jamais eu ce genre de problématique avec VxVM.
 
@Le_Tolier : Malheureusement la fonction de LVM permettant de mirrorer des disques en une option est licencié donc on la verra jamais sur Linux :(


---------------
Il y a trois sortes de mensonges : les mensonges, les gros mensonges et les statistiques !
n°1048426
black_lord
Modérateur
Truth speaks from peacefulness
Posté le 04-06-2008 à 14:45:35  profilanswer
 

tron20 a écrit :

tu me prends de haut donc.
 
bien sure que je connais le raid hard, sur NOS serveurs ici (50 linux + 3 AIX escala + hp ux , on a aussi du storage teck ...+ un san en fibre optique de 10To (parlons chiffre mdr)  pour tout nos serveurs ... donc tu vois j'en connait même peut etre un peu plus que toi a ce niveau ...)
 
et il y a 3 jours une carte raid hard sur un dell poweredge a petée, il n'est plus maintenu par dell ...
 
Alors tes considérations ...
 
bien sure aussi que le raid ne remplace pas une sauvegarde, je te parle de @home nas !!!


 
Chassez le naturel, il revient au galop.... ça faisait longtemps que tu avais pas fait ton cirque....
 

Le_Tolier a écrit :

C'est pas parce que ton contrat de maintenance est a terme qu'on peut pas remplacer la carte.
 
Si c'est parce que la carte n'existe plus, alors c est un probleme de process, fallait migrer la machine vers une techno plus recente, si ses fonctions étaient vitales.


 
Nous sommes d'accord :jap:
 

Hrolf a écrit :


 
En fait chez nous c'est la nouvelle baie qui est passé sur ZFS, par ce qu'avec ufs on avait vraiment de trop gros problèmes de perfs.
La baie en question fait uniquement de la sauvegarde donc des gros volumes et du trafique soutenu pendant la nuit, mais pas trop d'IO rapides.
 
Et pour Tron20 si tu as du HPUX tu sais que le raid logiciel ça existe déjà de façon simple sans avoir besoin de ZFS :D


 
Nous on a migré à cause d'une appli maison (non modifiable en l'état actuel des choses) qui fera à terme (et l'a déjà fait une fois) exploser les limites de l'UFS
 

Gf4x3443 a écrit :


 
Précurseur alors, parce que de notre coté, on flippe un peu. La tendance est de mettre du plus gros, et réduire un peu l'espace sol occupé. On a plus de place dans notre salle.


 

Dion a écrit :


Tu sais c'est pas parce qu'ils ont ce matos dans l'entreprise ou tu fais ton alternance que tu t'en occupes directement.


 
[:blessure]
 

Dion a écrit :


je pense que le niveau de Gftruc n'est pas a prouver dans la section.


 
+1 :o


---------------
uptime is for lousy system administrators what Viagra is for impotent people - mes unixeries - github me
n°1048427
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 14:46:10  profilanswer
 

Hrolf a écrit :


@Le_Tolier : Malheureusement la fonction de LVM permettant de mirrorer des disques en une option est licencié donc on la verra jamais sur Linux :(


 
Ah je savais pas c'est con  :D


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048428
black_lord
Modérateur
Truth speaks from peacefulness
Posté le 04-06-2008 à 14:46:50  profilanswer
 

Hrolf a écrit :


Ha oui autre problème qu'on avait au passage : sur ufs le nombre de "links" (donc de répertoire) est par defaut fixé à 32k et notre GED c'est retrouvé bloqué à cause de ça, et on peut pas changer sans refaire un nouveau volume  :pfff: .


 
copaing [:jar jar]
 
mais c'est pas la GED ici


---------------
uptime is for lousy system administrators what Viagra is for impotent people - mes unixeries - github me
n°1048429
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 14:48:18  profilanswer
 

GED ?


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048430
Dion
Acceuil
Posté le 04-06-2008 à 14:50:47  profilanswer
 


 
Gestion electronique de documents


---------------
When it comes to business/legal topics, just assume almost everyone commenting has no idea what they’re taking about and have no background in these subjects because that’s how it really is. Harkonnen 8-> Elmoricq 8====>
n°1048433
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 14:53:55  profilanswer
 

:jap:


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048435
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 14:55:49  profilanswer
 

Hrolf a écrit :


Ha oui autre problème qu'on avait au passage : sur ufs le nombre de "links" (donc de répertoire) est par defaut fixé à 32k et notre GED c'est retrouvé bloqué à cause de ça, et on peut pas changer sans refaire un nouveau volume  :pfff: .

 

Houla. Moi j'aurais pété un cable, déjà que gérer des volumes c'est ce qu'il y a de plus pénible d'après moi (et flippant...)

 
Citation :

Mais la majorité des problèmes qu'on rencontre viennent de ufs, j'ai jamais eu ce genre de problématique avec VxVM.

 

Ah je l'avais oublié celui là, Veritas.

 

De mon point de vue, là, au niveau du stockage, il y a une concurrence violente qui se dessine. Chaque éditeur essaie de grapiller toute la couche, car c'est une garantie de pérennité pour les données et leur porte monnaie. Et ils s'y mettent tous: Sun, Oracle, Veritas (enfin ca fait un bail eux). Le seul que j'ai pas vu en lice encore c'est Microsoft, mais je les trouve très à la ramasse. Ils ont raté le coche de la virtualisation, et amha, le stockage va y passer aussi bientot.

 
Hrolf a écrit :


@Le_Tolier : Malheureusement la fonction de LVM permettant de mirrorer des disques en une option est licencié donc on la verra jamais sur Linux :(

 

Licencié par qui? Si c'est IBM et son gros portefeuille, c'est à demi mot que l'objectif à long terme c'est de dégager les AIX sous nunux. Question de temps alors?

Message cité 2 fois
Message édité par Gf4x3443 le 04-06-2008 à 14:57:56
n°1048447
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 15:12:15  profilanswer
 

Gf4x3443 a écrit :


 
Houla. Moi j'aurais pété un cable, déjà que gérer des volumes c'est ce qu'il y a de plus pénible d'après moi (et flippant...)
 

Citation :

Mais la majorité des problèmes qu'on rencontre viennent de ufs, j'ai jamais eu ce genre de problématique avec VxVM.


 
Ah je l'avais oublié celui là, Veritas.
 
De mon point de vue, là, au niveau du stockage, il y a une concurrence violente qui se dessine. Chaque éditeur essaie de grapiller toute la couche, car c'est une garantie de pérennité pour les données et leur porte monnaie. Et ils s'y mettent tous: Sun, Oracle, Veritas (enfin ca fait un bail eux). Le seul que j'ai pas vu en lice encore c'est Microsoft, mais je les trouve très à la ramasse. Ils ont raté le coche de la virtualisation, et amha, le stockage va y passer aussi bientot.
 


 

Gf4x3443 a écrit :


 
Licencié par qui? Si c'est IBM et son gros portefeuille, c'est à demi mot que l'objectif à long terme c'est de dégager les AIX sous nunux. Question de temps alors?


 
enfin microsoft et systeme de fichier ....  [:barthaliastoxik]  


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048450
black_lord
Modérateur
Truth speaks from peacefulness
Posté le 04-06-2008 à 15:16:53  profilanswer
 

winFS va ... WAIT NO !!
 
Pour ce qui est de louper le coche, je sais pas... ils avaient aussi failli louper celui des navigateurs web mais ils se sont passablement rattrapés. Ils ont une telle "force de frappe" que bon...


---------------
uptime is for lousy system administrators what Viagra is for impotent people - mes unixeries - github me
n°1048452
Le_Tolier
Hello IT ?
Posté le 04-06-2008 à 15:18:43  profilanswer
 

black_lord a écrit :

winFS va ... WAIT NO !!
 
Pour ce qui est de louper le coche, je sais pas... ils avaient aussi failli louper celui des navigateurs web mais ils se sont passablement rattrapés. Ils ont une telle "force de frappe" que bon...


 
rassure moi t'es pas entrain de parler d'IE 7 quand même :o


---------------
Never f**k with your systems administrator. Why? Because they know what you do with all that free time! |?? | SAVE Jericho !
n°1048453
black_lord
Modérateur
Truth speaks from peacefulness
Posté le 04-06-2008 à 15:21:04  profilanswer
 

Le_Tolier a écrit :


 
rassure moi t'es pas entrain de parler d'IE 7 quand même :o


 
Non, je parlais de l'époque d'IE3 & 4 :o


---------------
uptime is for lousy system administrators what Viagra is for impotent people - mes unixeries - github me
n°1048454
tron20
Posté le 04-06-2008 à 15:21:37  profilanswer
 

Hrolf a écrit :


 
En fait chez nous c'est la nouvelle baie qui est passé sur ZFS, par ce qu'avec ufs on avait vraiment de trop gros problèmes de perfs.
La baie en question fait uniquement de la sauvegarde donc des gros volumes et du trafique soutenu pendant la nuit, mais pas trop d'IO rapides.
 
Et pour Tron20 si tu as du HPUX tu sais que le raid logiciel ça existe déjà de façon simple sans avoir besoin de ZFS :D


... oui je sais c de base. avec sam
 
La je parle @home : me suis je correctement exprimé ?


---------------
Asrock conroe 945g-dvi
n°1048458
tron20
Posté le 04-06-2008 à 15:25:30  profilanswer
 

Gf4x3443 a écrit :


 
Précurseur alors, parce que de notre coté, on flippe un peu. La tendance est de mettre du plus gros, et réduire un peu l'espace sol occupé. On a plus de place dans notre salle.
 
Les librairies c'est ce qui mange le plus cela dit, mais elles ne tournent que la nuit.
 
Ce sont surtout des données géo dans les machines, donc pas des I/O de monstre. Surtout beaucoup de volume. Vu que ca tourne, que les sauvegardes fonctionnent et sont vérifiées régulièrement, on garde UFS.


ouaih t'as pas de i/o monstrueuse et tu viens me dire que le raid material y'a que ça de vrai ... comprend pas tout la .. mais bon.tu vas au RRMMLLL donc ...
 
moi j'ai besoin de mini 40 mo/s sur mon serveur de montage video ...y'a un bsd comme client (mac os x ...pouahhh)
 
A ce sujet j'ai un peu joué avec zfs sur un bsd : c'est pas encore stable du tout reboot etc etc ...les dev. le mentionne donc. basta
 
ps : a ce petit jeu du serveur opensource pour des client mac ...j'ai pas vu un tuto qui a reussi le montage stable et imparable (sans bug) d'un nas pour les client mac . alors si tu est un puissant en bsd ...j'ecoutes tout ...zfs, vs ufs2 freebsd etc ...netatalk ..


---------------
Asrock conroe 945g-dvi
n°1048463
Gf4x3443
Killing perfection
Posté le 04-06-2008 à 15:34:37  profilanswer
 

tron20 a écrit :


ouaih t'as pas de i/o monstrueuse et tu viens me dire que le raid material y'a que ça de vrai ... comprend pas tout la .. mais bon.tu vas au RRMMLLL donc ...

 

[:mister yoda]

 
tron20 a écrit :


moi j'ai besoin de mini 40 mo/s sur mon serveur de montage video ...y'a un bsd comme client (mac os x ...pouahhh)

 

[:golden blessure]

 
tron20 a écrit :

ps : a ce petit jeu du serveur opensource pour des client mac ...j'ai pas vu un tuto qui a reussi le montage stable et imparable (sans bug) d'un nas pour les client mac .

 

C'est vrai que NFS, c'est du carton :/ Et en plus, c'est le même éditeur que celui qui fait ZFS :/

 
tron20 a écrit :

.alors si tu est un puissant en bsd ...j'ecoutes tout ...zfs, vs ufs2 freebsd etc ...netatalk ..

 

Je suis pas très à jour avec l'implémentation GEOM de freebsd, qui est une bonne idée je trouve [:huit] Donc je vais rester un peu à l'ancienne:

 

Je préfère avant que tu ailles lire le minimum requis:
http://www.netbsd.org/docs/interna [...] #vfs_layer
Et bien sur, l'irremplacable:
http://www.amazon.fr/Design-Implem [...] 0201702452

 

La partie VFS, et fs exporté réseau (NFS par exemple), est top, il l'a retouché depuis la version précédente (4.4BSD).


Message édité par Gf4x3443 le 04-06-2008 à 15:47:58
n°1048473
tron20
Posté le 04-06-2008 à 16:24:46  profilanswer
 

perso pour tuné un bsd j'ai pas le niveau du tout (et surtout le temps) donc ...
c'est con à dire mais je suis en position "d'intégrateur syst." pour ce projet maison et  pas un developpeur ou adapteur de script (pas le  temps hélas bien que je sente la suprématie au niveau des i/o (perf.) d'un bsd sur du linux par ex. ...


---------------
Asrock conroe 945g-dvi
n°1048539
gee
Bon ben hon
Posté le 04-06-2008 à 21:34:12  profilanswer
 

black_lord a écrit :

winFS va ... WAIT NO !!
 
Pour ce qui est de louper le coche, je sais pas... ils avaient aussi failli louper celui des navigateurs web mais ils se sont passablement rattrapés. Ils ont une telle "force de frappe" que bon...


Hey!
 
 
Le D. ieu des FS a pourtant dit que WinFS etait un super projet, et qu'ils allaient balayer le monde unix si personne ne faisait rien, heureusement lui il a fait quelque chose pour nous pauvres mortels.


---------------
"Phildar t'es vraiment une pute pas finie toi! Et Manu le gros porc arrete de t'marrer!"
n°1048610
Hrolf
Posté le 05-06-2008 à 08:51:09  profilanswer
 

Gf4x3443 a écrit :


 
Licencié par qui? Si c'est IBM et son gros portefeuille, c'est à demi mot que l'objectif à long terme c'est de dégager les AIX sous nunux. Question de temps alors?


 
Je pense pas que ce soit IBM vu que c'est aussi dispo sur HPUX, le seul truc que je sais c'est que dans la man page de lvm HPUX y'a marqué que c'est une option lié à licence payante :p
 
Peut être effectivement qu'elle appartient à un constructeur qui rendra son code libre, ou peut être que c'est une licence vieille comme le monde qui rapporte des royalties à une entreprise racheté 12x ces 5 dernières années et dont le code à peu de chnces d'être rendu libre  [:tinostar]


---------------
Il y a trois sortes de mensonges : les mensonges, les gros mensonges et les statistiques !
n°1059002
tron20
Posté le 08-07-2008 à 23:16:32  profilanswer
 

gee a écrit :


Hey!
 
 
Le D. ieu des FS a pourtant dit que WinFS etait un super projet, et qu'ils allaient balayer le monde unix si personne ne faisait rien, heureusement lui il a fait quelque chose pour nous pauvres mortels.


 
Winfs ? ...pas assez poussé comme concept ...non, petit joueur ce truc ...


---------------
Asrock conroe 945g-dvi
n°1059010
Gf4x3443
Killing perfection
Posté le 09-07-2008 à 00:06:26  profilanswer
 

tron20 a écrit :


Winfs ? ...pas assez poussé comme concept ...non, petit joueur ce truc ...


 
Et hammerfs? Tu trouves ca comment?

n°1059012
tron20
Posté le 09-07-2008 à 00:36:37  profilanswer
 

HammerFS is clustering ... ok
 
Ca par contre j'aime bien : "
 
File database
 
HammerFS will allow you to open a file in DB mode. I don’t know how exactly this works out, but you will be able to use a file as a simple key/value database. No need for special libraries and probably quite fast.
"
 
ca semble quand meme vachement orienté clustering ce truc ...
 
.. en tout cas c pas ce que je cherche ..je te dit les chti français de eyedb me plaisent bien ;-)


---------------
Asrock conroe 945g-dvi
n°1059063
SomeBugsIn​Me
life suxx
Posté le 09-07-2008 à 10:52:03  profilanswer
 

tron20 a écrit :

HammerFS is clustering ... ok
 
Ca par contre j'aime bien : "
 
File database
 
HammerFS will allow you to open a file in DB mode. I don’t know how exactly this works out, but you will be able to use a file as a simple key/value database. No need for special libraries and probably quite fast.
"
 
ca semble quand meme vachement orienté clustering ce truc ...
 


 
Effectivement HAMMER est conçu dans l'optique du clustering (possibilité pour le FS d'avoir du multi-master). Le clustering et le SSI est l'objectif principal de DragonFlyBSD (en tout cas pour le leader et principal développeur de l'OS, Matt Dillon).
 
Si je ne me trompe pas cette fonctionnalité d'avoir des fichiers ouvert en mode DB n'existe plus dans l'implémentation actuelle.

n°1059416
Magicpanda
Pushing the envelope
Posté le 10-07-2008 à 13:19:09  profilanswer
 

Gf4x3443 a écrit :


 
Et hammerfs? Tu trouves ca comment?


 
 
=> un intéressant podcast de bsdtalk avec Matthew Dillon sur l'intégration de HammerFs dans la prochaine Dragonfly  
 
http://cisx1.uma.maine.edu/~wbackm [...] alk154.ogg


---------------
" Quel est le but du capital ? Le but du capital c'est produire pour le capital. L'objectif, lui, est illimité. L'objectif du capital c'est produire pour produire." - Deleuze || André Gorz - Vers la société libérée
n°1059448
gug42
Posté le 10-07-2008 à 14:29:03  profilanswer
 

Salut,
 
Je sais que c'est pas le sujet de ce topic, mais je vous demande quand même :
[HS]
Qu'elles sont les différences techniques entre solaris 10 et OpenSolaris  (au niveau technique, logiciels etc...  Donc le support n'est pas concerné)
[/HS]

n°1059739
the_fireba​ll
I have fucking failed
Posté le 11-07-2008 à 16:07:05  profilanswer
 

Gf4x3443 a écrit :


 
...
 
Non mais mettre du dell, ca veut tout dire. Excuse moi.


 
Mouais, en x86, j'ai pu testé de l'ibm, du sun, du hp et du Dell, et bien c'est encore Dell que je préferes pour les machines 1U à 4U (genre PowerEdge 1950, 2950 ou R900), que ce soit au niveau interface d'admin (drac), fiabilité et support. J'avais un appriori négatif quand on est passé sur Dell, mais maintenant, j'en suis plutot content. Je parle pour une parc de plus de 500 machines sous linux et solaris (pour les autres machines vu que Dell n'est pas encore complètement supporté)


---------------
Two thousand years of misery, of torture in my name, hypocrisy made paramount, paranoia the law, my name is called religion, sadistic, sacred whore.
n°1060684
gug42
Posté le 17-07-2008 à 10:18:52  profilanswer
 

Le support de Dell est un des moins pire  :D

mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4

Aller à :
Ajouter une réponse
 

Sujets relatifs
booter sur windows avec mandriva one 2008 spring installé : comment ??Gentoo 2008_beta2 kde 4 only compilé via gcc-4.3 -march=core2[Résolu]
MAJ vers Mandriva spring 2008 probleme PPOEPinnacle 72 sous Mandriva 2008
Pinnacle 72 sous Mandriva 2008[ReactOs] - Version 0.3.10 Alpha ( 05/07/2009 )
début difficiles sous mandriva 2008Mandriva 2008
[MAC] Macro Office 2007 et Mac Office 2008 ?Mise à jour mandriva 2006 à 2008
Plus de sujets relatifs à : openSolaris 2008 05 : ZFS = grandiose tout simplement.


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR