Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1643 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Auteur Sujet :

[Topic ZFS] ZFS on Linux et BSD - débats/questions

n°1399334
Fork Bomb
Obsédé textuel
Posté le 03-01-2017 à 18:17:30  profilanswer
 

Reprise du message précédent :

qwrty a écrit :


 
J'ai enfin fait ma migration de kernel vers le 4.8.15 et passage du repo zfsonlinux.org avec la version 0.6.5.7 vers les backports en version 0.6.5.8
Je n'ai pas vraiment eu le temps de le faire plus tôt...
 
Sinon la migration à plutôt était sale comme phraide mais fonctionnelle :o
la purge de certain paquet ne s'est pas aussi bien passé que phraide, j'ai du en supprimer de force, or certains avaient des dépendances avec grub, grub2 toussa toussa, pas bon signe, certainement à cause de mon ancienne installe de ZFS que j'ai du faire pour possiblement avoir le choix de boot sur un partition ZFS, donc grub et tous mes programmes d'amorçages avaient été modifié en ce sens.
Rien de rassurant, mais c'est bon je m'en suis sortis tant bien que mal  :ange:  
 
Ah si j'ai eu aussi un soucis avec le daemon zed qui ne se lancait pas aussi. Apparemment lié à un problème paquet propre à debian.
En effet suite install des 0.6.5.8 je n'avais pas le daemon zed dans /sbin/ mais il c’était foutu dans /usr/sbin/...
 
bref c’était un petit retour informel.
 
D'ailleurs je me demandais, lors de l'installation des headers du nouveau kernel celui ci est censé recompilé spl et zfs et me copier les header dans /usr/source/ ce qu'il fait bien, sauf que DKMS lui va chercher les headers dans /lib/module/ or lors de l'installation des headers je n'ai pas encore le lien symbolique "build" qui renvoi dans /usr/sources/.
 
Donc j'ai creer le lien symbolique avant d'installer les headers et là tout ce passe bien.
 
Y-a t'il un moyen d'éviter de faire le LS à la mano et donc que l'installation des nouveaux headers recompile correctement spl et zfs avec DKMS ?


Dit comme ça, on dirait un bug.
Faut ptet remonter et/ou voir si ça a déjà été rapporté.


---------------
Décentralisons Internet-Bépo-Troll Bingo - "Pour adoucir le mélange, pressez trois quartiers d’orange !"
mood
Publicité
Posté le 03-01-2017 à 18:17:30  profilanswer
 

n°1399335
qwrty
BFG!
Posté le 03-01-2017 à 19:56:55  profilanswer
 

Tu parles de la partie avec le daemon zed ?
 
Si oui, il semble y avoir un "bug" deja en cours si je me me fit au retour que j'ai eu sur github:
 
https://github.com/zfsonlinux/zfs/issues/5553


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1400028
gizmo15
Posté le 24-01-2017 à 13:12:22  profilanswer
 

Bonjour à vous,
 
Petite question:
J'ai un Raidz2 de 4*1To, donc 2To utilisable et j'ai un soucis d'utilisation par les zvol.

root@tiberius:~# zfs list -r -o space tank
NAME                AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
tank                 619G  1.10T         0   1.00T              0      94.1G
tank/vm-200-disk-1   619G  2.42G         0   2.42G              0          0
tank/vm-201-disk-1   619G  5.65G         0   5.65G              0          0
tank/vm-202-disk-1   619G  9.87G         0   9.87G              0          0
tank/vm-202-disk-2   619G   415M         0    415M              0          0
tank/vm-203-disk-1   619G  2.47G         0   2.47G              0          0
tank/vm-209-disk-1   619G  9.25G         0   9.25G              0          0
tank/vm-210-disk-1   619G  10.5G         0   10.5G              0          0
tank/vm-210-disk-2   619G  28.3G         0   28.3G              0          0
tank/vm-211-disk-1   619G  9.92G         0   9.92G              0          0
tank/vm-212-disk-1   619G  10.8G         0   10.8G              0          0
tank/vm-213-disk-1   619G  4.27G         0   4.27G              0          0
tank/vm-999-disk-1   619G  50.2M         0   50.2M              0          0


 
Donc 1.1To d'utilisation mais en faite que 95Go.
 
j'ai supprimé 2 zvol en faisant zfs destroy tank/vm-205-disk-1 pareil pour le disk-2 qui lui faisait 1To.
 
mais j'ai pas l'impression qu'il ai libéré l'espace.
 
une idée de pk et de comment résoudre ca?
 
Merci
 

n°1400030
fdaniel
Have you got a 27B/6 ?
Posté le 24-01-2017 à 13:29:00  profilanswer
 

Tu es sûr que tu n'as pas des données stockées à la racine de ton pool (sous /tank ou le point de montage utilisé) ? Parce que c'est ce qu'indique la première ligne : USEDDS remonte l'espace occupé sur le volume, et USEDCHILD celui des sous-volumes.


---------------
Topic des restos / Topic des boutiques gastronomiques
n°1400031
gizmo15
Posté le 24-01-2017 à 13:42:06  profilanswer
 

j'avais un point de montage mais supprimer depuis

 

edit: j'ai remonté le point de montage et même si je vois pas le fichier un rm du dossier en question prend vachement de temps donc mon gros fichier est dedans :)

 

merci pour la piste


Message édité par gizmo15 le 24-01-2017 à 13:47:59
n°1400074
gizmo15
Posté le 26-01-2017 à 11:00:04  profilanswer
 

Bonjour à vous,
 
Je reviens avec une petite question:
J'ai toujours mon disque d'1T sur une VM et quand je vérifie sa taille pas de soucis il fait 1T.
 
sauf que quand je fais un zfs list, il fait 1.48T oO
 
une idée de comment vérifier et comprendre pk j'ai 480G de différence?
 
Merci

n°1401564
macDRIVERZ
Jinhua1920unautorized
Posté le 11-03-2017 à 12:19:44  profilanswer
 

gizmo15 a écrit :

Bonjour à vous,
 
Je reviens avec une petite question:
J'ai toujours mon disque d'1T sur une VM et quand je vérifie sa taille pas de soucis il fait 1T.
 
sauf que quand je fais un zfs list, il fait 1.48T oO
 
une idée de comment vérifier et comprendre pk j'ai 480G de différence?
 
Merci


 
Est-ce que tu aurais augmenté la taille du LUN ?
J'ai souvent ce type de soucis. En gros un Lun de 1 To que j'augmente à 1,5 To prend parfois 2,5 To


---------------
Swedish master
n°1401592
gizmo15
Posté le 11-03-2017 à 20:56:08  profilanswer
 

Nop pas fais ca, la seule solution que j'ai trouvé:
 
détruire le disque et le recréer

n°1402882
gizmo15
Posté le 21-04-2017 à 18:01:12  profilanswer
 

Bonjour,
 
Petite question: j'ai un Raidz2 de 4*1To et je songe à y rajouter un autre Raidz2. on est d'accord que je me retrouverais avec 4To et que les données seront réparties sur les deux Raidz2?
 
Merci

n°1402885
LimDul
Comment ça j'ai tort ?
Posté le 21-04-2017 à 18:24:38  profilanswer
 

De mon faible niveau de connaissance je suis tenté de dire que oui les données seront répartie entre tes deux raidz2.
Il me semble savoir que ZFS va privilégier le moins remplis pour les écritures mais je n'en suis pas sûr.
Pas plus que je ne sais pas comment la répartition d'un fichier peut se faire (sur les deux raidz2 à la foi comme un raid0 ou sur un seul ou en fonction du débit d'écriture ?)


---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
mood
Publicité
Posté le 21-04-2017 à 18:24:38  profilanswer
 

n°1402889
francoisp3​1
Posté le 21-04-2017 à 19:09:29  profilanswer
 

mefiez vous des cumuls des raids sur les meme grappes  
dans certaines circonstances c est totalement contre-productif voir instable et generant des pertes de donnees  
 
neamoins j ai pas teste avec les versions plus recentes de raidz /zfs

n°1402890
gizmo15
Posté le 21-04-2017 à 19:40:46  profilanswer
 

hum intéressant ca, je vais me renseigner du coup, merci :)

n°1406433
sligor
Posté le 31-07-2017 à 14:38:43  profilanswer
 

zfs on linux 0.7.0 est sorti avec plein de nouvelle features: https://github.com/zfsonlinux/zfs/r [...] /zfs-0.7.0
 
vu que c'est une release majeure je conseille d'éviter cette version en production sans passer au préalable par une batterie de tests poussée...


Message édité par sligor le 31-07-2017 à 14:39:13
n°1408269
qwrty
BFG!
Posté le 29-09-2017 à 11:58:51  profilanswer
 

Hello,
 
la dernière version sur les backport est bien la  0.6.5.9-2~bpo8+1 ?


---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1408272
sligor
Posté le 29-09-2017 à 15:07:01  profilanswer
 

en backport-jessie oui
 
en backport-stretch c'est 0.6.5.11-1~bpo9+1


---------------
qwerty-fr
n°1408273
sligor
Posté le 29-09-2017 à 15:07:43  profilanswer
 

sinon tu as les backports "jessie-sloppy" en 0.6.5.11-1~bpo8+1
 
https://backports.debian.org/change [...] loppy.html
 

Citation :

As a reminder, uploads to a release-backports pocket are to be taken from release + 1, uploads to a release-backports-sloppy pocket are to be taken from release + 2.


Message édité par sligor le 29-09-2017 à 15:08:33

---------------
qwerty-fr
n°1408274
qwrty
BFG!
Posté le 29-09-2017 à 15:46:41  profilanswer
 

Yes c'est exactement ce que je viens de voir, merci :)
 
J'ai pas encore migré vers Stretch, je suis en train de m'en occuper.
 
Certain ont migré de la 0.6.5.X vers la 0.7.X ? Obligé de le faire manuellement ?

Message cité 1 fois
Message édité par qwrty le 29-09-2017 à 15:46:51

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1408280
Mysterieus​eX
Chieuse
Posté le 29-09-2017 à 17:23:02  profilanswer
 

Je déconseille les 0.7.x pour le moment.
Ca devrait être OK pour la fin de l'année.

n°1409342
el_barbone
too old for this shit ...
Posté le 26-10-2017 à 10:45:17  profilanswer
 

https://www.theregister.co.uk/2017/ [...] nto_linux/


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°1409426
Mysterieus​eX
Chieuse
Posté le 27-10-2017 à 22:41:21  profilanswer
 

On s'en fout un peu, je doute que le LLNL se laisse bouffer la gueule par Oracle qui souhaite reprendre la main sur OpenZFS. De toutes façons, le fork par rapport a Oracle ZFS sur les fonctionnalités est trop important : je doute qu'ils fassent du dev pour rendre compatible les ZPool Solaris en 38/39 avec ceux en 28/5000 d'OpenZFS.
 
OpenZFS ne sont que des specs, et pas une implémentation, l'implémentation d'OpenZFS sur Linux est ZFSonlinux qui est GNUGPLV2. ZFS BSD est en GNUGPL également et MacZFS est closed mais suis les spec OpenZFS.
Pour moi, c'est juste du flan, Oracle en mal de reconnaissance. (et theregister qui sont dans les choux sur les informations autour de ZFS).

n°1409428
li1ju
ho putain, ça tourne !
Posté le 27-10-2017 à 22:51:18  profilanswer
 

o/
pour ma part, j'ai 2 machines persos sous debian + zfs on linux (v0.6.5.7-8-jessie pour l'instant)
4 disques de 4To en 2xraid1, + un ssd en slog. très satisfait de l'ensemble et des perfs
ils se répliquent entre eux chaque nuit avec ZincrSend (https://github.com/bahamas10/zincrsend) qui marche très bien
pis le bonheur des snapshots  :love: (ce qui m'a sauvé la vie 2 fois pour l'instant :D)
Hâte de voir les nouvelles features !
Sinon quelqu'un sait ou ca en est le chiffrement natif sur ZoL ? c'est vraiment le seul truc qui me manque.
 

qwrty a écrit :

J'ai pas encore migré vers Stretch, je suis en train de m'en occuper.


je me tâte aussi, à migrer mes 2 jessie en stretch. en dehors de zfs (et fucking systemd que jai désactivé) ça devrait bien se passer :)
 

qwrty a écrit :

Certain ont migré de la 0.6.5.X vers la 0.7.X ? Obligé de le faire manuellement ?


Attends les 1ers retours, malheureux !  :p


Message édité par li1ju le 27-10-2017 à 22:55:38
n°1409481
li1ju
ho putain, ça tourne !
Posté le 29-10-2017 à 19:40:35  profilanswer
 

Bon, j'ai testé dans une VM l'upgrade d'une debian 8 vers 9...
Le systeme est OK mais zfs est tout cassé  [:tinostar]
(pas mal de probleme de dépendances pendant l'upgrade, notamment libzfs2, libuutil1 qui devient libuutil1linux, zfsutils et quelques autres..)
pour régler, ces dependances, désinstaller completement ZFS et le réinstaller (apt install zfs-dkms)
ca vient ptêt aussi du fait que sous jessie on téléchargeait/installait un paquet debian-zfs, et sous stretch, on installe directement zfs-dkms, et que les 2 sont pas trop compatibles ?
Bref, je recommanderai, avant d'upgrade debian, d'arreter et desinstaller completement zfs (export pool, stop service, modprobe -r zfs et apt-get remove --purge zfs*) puis upgrade debian puis reinstaller zfs-dkms.

 

Et une fois upgradé/rebooté sous stretch, les services zfs (check,mount,share...) sont prévus pour systemd, mais n'existent tout simplement plus pour sysvinit  :kaola:
Et comme depuis jessie j'éradique systemd, ben au démarrage, le pool n'est pas vérifié/importé/monté automatiquement.
solution manuelle: zpool import tank
Par contre, en reinstallant systemd, tout se lance bien..
ça craint vraiment si on arrive à un moment ou les machins systemd sont prioritaires, et ceux sous sysvinit commencent à disparaitre  :sweat:  :fou:


Message édité par li1ju le 29-10-2017 à 19:49:20
n°1409509
li1ju
ho putain, ça tourne !
Posté le 30-10-2017 à 14:53:26  profilanswer
 

up
pour info, les dernieres versions du paquet zfutils-linux n'integrent plus les scripts d'init pour sysvinit :(
normalement y'en a 4 installés dans /etc/init.d/

zfs-import
zfs-mount
zfs-share
zfs-zed


Une fois récupérés dans l'ancien paquet, il faut les mettre dans /etc/init.d
puis un coup de

update-rc.d -f zfs-mount defaults


(et pareil pour les 3 autres)
et c'est bon :)
Cela vaut aussi bien pour stretch (dans le dépot "contrib" que pour jessie dans les backports)
y'a un bug debian à ce sujet :D
https://bugs.debian.org/cgi-bin/bug [...] bug=826994

n°1410337
intra1910
Posté le 20-11-2017 à 13:38:51  profilanswer
 

Bonjour,
 
Au cas où un d'entre vous aurait mis du ZFS en réplication via GlusterFS, je suis preneur !  
=> http://forum.hardware.fr/hfr/OSAlt [...] 6006_1.htm

n°1411283
qwrty
BFG!
Posté le 12-12-2017 à 14:01:45  profilanswer
 

ZFS est mnt proposé sur le repo backport.
 
Du monde a tenté la migration de la 0.6.x vers la 0.7.x ?
 
edit: migration OK sans soucis


Message édité par qwrty le 19-12-2017 à 17:12:22

---------------
[VDS] Embouts de watercooling 10/16 | ~Feed-Back
n°1412587
sligor
Posté le 08-01-2018 à 20:18:22  profilanswer
 

est-ce que quelqu'un sait si la branche 0.7 est considérée stable maintenant ? :??: (on en est quand même à la 0.7.5)


---------------
qwerty-fr
n°1412641
Mysterieus​eX
Chieuse
Posté le 09-01-2018 à 12:26:46  profilanswer
 

La 0.7.5 est stable oui. (assez pour plus de 21 jours sans publier une nouvelle version)

n°1413055
el_barbone
too old for this shit ...
Posté le 17-01-2018 à 16:36:11  profilanswer
 

http://www.jonkensy.com/intel-micr [...] ss-in-zfs/


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
n°1413057
LOL POLARI​SE
cadre en trading
Posté le 17-01-2018 à 16:40:20  profilanswer
 


 
C'est léger comme article. Pas d'analyse, et le test est fait dans une VM (et on sait que les patchs affectent potentiellement la virtualisation plus que le reste).

n°1413060
Mysterieus​eX
Chieuse
Posté le 17-01-2018 à 17:39:43  profilanswer
 

LOL POLARISE a écrit :


 
C'est léger comme article. Pas d'analyse, et le test est fait dans une VM (et on sait que les patchs affectent potentiellement la virtualisation plus que le reste).


 
Ben en même temps, c'est un cas d'usage pour 80% des install ZFS existantes. Mais oui, il constate plus les pertes d'IO liées au fait que ZFS soit dans une VM (hmmm miam le cas a 30% de pertes) alors que sur bare metal tu te tape grand max 5%, surtout si t'as des bonnes cartes hôtes avec DMA (et donc des bons drivers) parce que ZFS est quasi full user space (il ne l'est plus quand il doit accéder au matos quand il est monté dans une VM). Pour les 20% restants, comme précisé on est en dessous des 5% de pertes. Cas typique de nodes ZFS sur bare metal dans un clust ceph ou plus directement en LUSTRE.
 
Le vrai bottleneck sur le stockage haute performance ne va pas se situer sur ZFS dont les perfs devraient se maintenir, mais sur les MDT (qui eux utilisent un max de stockage ram/SSD et des accès en mode kernel). Les OSD et ZFS restent, hors matos spécifique (node full SSD monté dans une VM) dépendant de la vitesse max des disques durs (le temps de compute et les accès kernels sont limités de facto). Reste le cas particulier du raid 6.

n°1413062
LOL POLARI​SE
cadre en trading
Posté le 17-01-2018 à 18:05:58  profilanswer
 

MysterieuseX a écrit :


 
Ben en même temps, c'est un cas d'usage pour 80% des install ZFS existantes. Mais oui, il constate plus les pertes d'IO liées au fait que ZFS soit dans une VM (hmmm miam le cas a 30% de pertes) alors que sur bare metal tu te tape grand max 5%, surtout si t'as des bonnes cartes hôtes avec DMA (et donc des bons drivers) parce que ZFS est quasi full user space (il ne l'est plus quand il doit accéder au matos quand il est monté dans une VM). Pour les 20% restants, comme précisé on est en dessous des 5% de pertes. Cas typique de nodes ZFS sur bare metal dans un clust ceph ou plus directement en LUSTRE.
 
Le vrai bottleneck sur le stockage haute performance ne va pas se situer sur ZFS dont les perfs devraient se maintenir, mais sur les MDT (qui eux utilisent un max de stockage ram/SSD et des accès en mode kernel). Les OSD et ZFS restent, hors matos spécifique (node full SSD monté dans une VM) dépendant de la vitesse max des disques durs (le temps de compute et les accès kernels sont limités de facto). Reste le cas particulier du raid 6.


 
J'ai pas compris ce qui était en gras.

n°1413063
sligor
Posté le 17-01-2018 à 18:30:52  profilanswer
 

sous linux lustre est userspace (module fuse, aka Filesystem in Userspace), par contre zfs c'est un module kernel lui


---------------
qwerty-fr
n°1413065
hmohamedez​el
Posté le 17-01-2018 à 19:00:42  profilanswer
 

ok

n°1413066
Mysterieus​eX
Chieuse
Posté le 17-01-2018 à 19:04:04  profilanswer
 

sligor a écrit :

sous linux lustre est userspace (module fuse, aka Filesystem in Userspace), par contre zfs c'est un module kernel lui


 
C'est un module kernel mais c'est pas pour autant qu'il est "kernel space" ;)

n°1413069
LOL POLARI​SE
cadre en trading
Posté le 17-01-2018 à 19:27:03  profilanswer
 

MysterieuseX a écrit :


 
C'est un module kernel mais c'est pas pour autant qu'il est "kernel space" ;)


 
ZFS tourne dans l'espace noyau, "kernel space". Sauf si tu le fais tourner dans FUSE mais il me semble qu'il n'y a plus aucune implémentation qui fait ça sérieusement.

n°1413105
Mysterieus​eX
Chieuse
Posté le 18-01-2018 à 13:47:32  profilanswer
 

Les périphériques de bas niveau sont des modules user space. Des interfaces pour l'utilisateur. Tout se qui a un connecteur dans /dev est un périph user space, zfs est donc user space.

n°1413125
LOL POLARI​SE
cadre en trading
Posté le 18-01-2018 à 22:51:02  profilanswer
 

MysterieuseX a écrit :

Les périphériques de bas niveau sont des modules user space. Des interfaces pour l'utilisateur. Tout se qui a un connecteur dans /dev est un périph user space, zfs est donc user space.


 
N'importe quoi. Bon je vais m'arrêter là.

n°1413135
Mysterieus​eX
Chieuse
Posté le 19-01-2018 à 02:02:53  profilanswer
 

LOL POLARISE a écrit :


 
N'importe quoi. Bon je vais m'arrêter là.


 
Pas convaincu ? Tu devrais l'être pourtant.  
Même si c'est pas une référence, le tableau est valide : https://en.wikipedia.org/wiki/User_space
ZFS dans son implémentation est une interface d'accès au bare metal passant par VFS. La base même de ZFS étant la séparation des privilèges. De plus le kernel mode même en mode "mémoire" est en ring 0 et tout se qui tourne en ring 0 peut tout faire sur le système, ce n'est pas le cas de ZFS. C'est illustré dans la page platform code différences d'open ZFS et décrit très clairement quand tu analyse le code, ZFS est un wrap autour de VFS.
 
Bref, ZFS ne répond pas aux critères du kernel space, c'est donc forcément quelque chose qui tourne dans le user land, au même titre qu'un driver de carte graphique qui possède deux composants : un module KMS et un module user space. C'est justement cette séparation qui a permis a ZFS de se retrouver en "natif"

n°1413158
LOL POLARI​SE
cadre en trading
Posté le 19-01-2018 à 11:32:38  profilanswer
 

MysterieuseX a écrit :


 
Pas convaincu ? Tu devrais l'être pourtant.  
Même si c'est pas une référence, le tableau est valide : https://en.wikipedia.org/wiki/User_space
ZFS dans son implémentation est une interface d'accès au bare metal passant par VFS. La base même de ZFS étant la séparation des privilèges. De plus le kernel mode même en mode "mémoire" est en ring 0 et tout se qui tourne en ring 0 peut tout faire sur le système, ce n'est pas le cas de ZFS. C'est illustré dans la page platform code différences d'open ZFS et décrit très clairement quand tu analyse le code, ZFS est un wrap autour de VFS.
 
Bref, ZFS ne répond pas aux critères du kernel space, c'est donc forcément quelque chose qui tourne dans le user land, au même titre qu'un driver de carte graphique qui possède deux composants : un module KMS et un module user space. C'est justement cette séparation qui a permis a ZFS de se retrouver en "natif"


 
ZFS est en dessous de la VFS pas au dessus.
 
http://image.slidesharecdn.com/zfsperftools2012-121002155151-phpapp02/95/zfsperftools2012-7-638.jpg?cb=1395771972

n°1413162
Mysterieus​eX
Chieuse
Posté le 19-01-2018 à 14:07:41  profilanswer
 

Non il est au dessus.

n°1413182
LOL POLARI​SE
cadre en trading
Posté le 19-01-2018 à 20:32:06  profilanswer
 

MysterieuseX a écrit :

Non il est au dessus.

 

D'ailleurs ton histoire de driver est fausse aussi, un driver ça tourne dans le kernel aussi [1]. En fait tu confonds, pour toi kernel = ring0 exclusivement, alors que c'est plutôt, user = ring3. Tu confonds aussi interface et user space. Oui, une interface est utilisable en user space, mais elle sert à accéder à des informations que le kernel veut bien mettre à disposition. C'est le but d'ailleurs, n'importe quel cours d'OS t'expliquera ça.

 

https://github.com/illumos/illumos- [...] mon/fs/zfs

 

uts/ c'est le kernel dans illumos. Pourquoi mettre zfs dans uts/common/fs/zfs si zfs fait pas partie du noyau ?

 

Jsais pas, mets un panic au début de zfs_read, rebuild, fais un read, et tu verras un kernel panic. Explique-moi comment un process peut provoquer un panic (sauf exploitation évidente de bug kernel... donc ce qu'on vient d'introduire).

 

[1] sauf microkernel mais là on parle de Solaris, Illumos, Linux, BSD... Enfin surtout Linux. Et Tanenbaum et Torvalds en ont assez discuté, Linux n'est pas un microkernel :o


Message édité par LOL POLARISE le 19-01-2018 à 20:40:01
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Résolu] Changement de carte mère : Linux en grève[RESOLU] Quel linux choisir avec ma mini config ?
Linux commande pour savoir les services qui sont installés ?Problème avec apache sur linux debian/ install GLPI
filezilla server sous linux[Gnu/Linux] Ouverture d'un xterm dans mon application graphique.
Installation serveur Darwin sous LinuxRecherche Mini pc tournant avec distrib linux
Routage et VLAN sous Linux - Virtualisation[Débutant] Linux et OS Alternatifs
Plus de sujets relatifs à : [Topic ZFS] ZFS on Linux et BSD - débats/questions


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR