Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1949 connectés 

 


 Mot :   Pseudo :  
  Aller à la page :
 
 Page :   1  2  3  4  5  ..  38  39  40  ..  92  93  94  95  96  97
Auteur Sujet :

[topic unique] The Vates Stack : XCP-ng & Xen Orchestra

n°1396754
XaTriX
Posté le 29-10-2016 à 17:46:02  profilanswer
 

Reprise du message précédent :
J'ai pas de carte raid j'te dis :o
 
XaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
mood
Publicité
Posté le 29-10-2016 à 17:46:02  profilanswer
 

n°1396755
Plam
Bear Metal
Posté le 29-10-2016 à 17:55:08  profilanswer
 

Chez Online ta les IPMI qui marchent bien et tu peux faire un peu ce que tu veux :o
 
Perso sur les RAID soft avec 3 SSD, je fais : 1 disque pour le système, et 2 disques en RAID1 pour le Storage des VMs.
 
Les VMs pas importantes vont tourner sur le SR local non raid, le reste sur le RAID.
 
En cas de perte du serveur, je réinstall et j'ai pas perdu mes data :D


---------------
Spécialiste du bear metal
n°1397046
Ydalb
In Crêpes n' Cidre I Trust!
Posté le 06-11-2016 à 14:25:10  profilanswer
 

Et pourquoi pas du RAID 5 avec les 3 disques ?


---------------
:o
n°1397047
Plam
Bear Metal
Posté le 06-11-2016 à 14:43:20  profilanswer
 

Parce que ça oblige à faire des bidouilles qui peuvent péter si tu upgrades (vu que le RAID soft est pas "inclus" dans la config de XS)


---------------
Spécialiste du bear metal
n°1397693
Plam
Bear Metal
Posté le 23-11-2016 à 13:01:09  profilanswer
 

Hop là : https://xen-orchestra.com/blog/xen-orchestra-5-4/
 
:hello:


---------------
Spécialiste du bear metal
n°1397694
XaTriX
Posté le 23-11-2016 à 13:21:39  profilanswer
 

Sympa le report Slack/MM :D
Et c'est quoi la feature de décembre ? :o
 
XaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1397696
Plam
Bear Metal
Posté le 23-11-2016 à 13:31:07  profilanswer
 

Le file level restore si on a pas de surprise :o


---------------
Spécialiste du bear metal
n°1397857
roondar
Posté le 26-11-2016 à 14:56:41  profilanswer
 

Tiens j'utilise ça pour mettre à jour les serveurs qu'on déploie :
https://github.com/dalgibbard/citrix_xenserver_patcher

n°1397863
Plam
Bear Metal
Posté le 26-11-2016 à 16:56:39  profilanswer
 

On a aussi un système de patches dans XO (qui est d'ailleurs plus automatisé, qui ne consomme pas d'espace sur le dom0 (streaming) et qui peut MAJ plusieurs pool en même temps).
 
Du coup je vois pas trop l'intérêt de ce script :??: (mais j'ai peut être pas pigé l'intérêt donc je pose réellement la question hein, c'est pas rhétorique)


---------------
Spécialiste du bear metal
n°1397866
roondar
Posté le 26-11-2016 à 17:16:23  profilanswer
 

Plam a écrit :

On a aussi un système de patches dans XO (qui est d'ailleurs plus automatisé, qui ne consomme pas d'espace sur le dom0 (streaming) et qui peut MAJ plusieurs pool en même temps).

 

Du coup je vois pas trop l'intérêt de ce script :??: (mais j'ai peut être pas pigé donc je pose réellement la question hein, c'est pas rhétorique)


L'intérêt est que les patchs sont téléchargés sur un export nfs et que les patchs sont installés automatiquement après l'installation du xenserver.
Sinon après, oui on utilise le système de patch de xen orchestra pour tous les jours.
Même si il arrive qu'il y est des ratés.

mood
Publicité
Posté le 26-11-2016 à 17:16:23  profilanswer
 

n°1397867
Plam
Bear Metal
Posté le 26-11-2016 à 17:30:12  profilanswer
 

roondar a écrit :


L'intérêt est que les patchs sont téléchargés sur un export nfs et que les patchs sont installés automatiquement après l'installation du xenserver.  
Sinon après, oui on utilise le système de patch de xen orchestra pour tous les jours.  
Même si il arrive qu'il y est des ratés.


 
Idée intéressante, j'y avais pas pensé :D
 
Pour les patchs qui « bloquent » parfois, c'est probablement du à des erreurs XAPI (genre les ISO des guest tools sont pas tous démontés etc.) C'est chiant de gérer tous les cas :/ (enfin chiant, ça demande du temps)


---------------
Spécialiste du bear metal
n°1397868
roondar
Posté le 26-11-2016 à 18:17:58  profilanswer
 

Plam a écrit :

 

Idée intéressante, j'y avais pas pensé :D

 

Pour les patchs qui « bloquent » parfois, c'est probablement du à des erreurs XAPI (genre les ISO des guest tools sont pas tous démontés etc.) C'est chiant de gérer tous les cas :/ (enfin chiant, ça demande du temps)


En général c'est surtout lors de lupload de patch ou ça merde. C'est assez difficile de voir où est le soucis.

n°1397871
XaTriX
Posté le 26-11-2016 à 19:02:03  profilanswer
 

Plam a écrit :


 
Idée intéressante, j'y avais pas pensé :D
 
Pour les patchs qui « bloquent » parfois, c'est probablement du à des erreurs XAPI (genre les ISO des guest tools sont pas tous démontés etc.) C'est chiant de gérer tous les cas :/ (enfin chiant, ça demande du temps)


Reloo la :(
 
XaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1398345
Plam
Bear Metal
Posté le 06-12-2016 à 23:41:33  profilanswer
 

Je pose ça ici : https://xen-orchestra.com/blog/xens [...] converged/ :whistle:


---------------
Spécialiste du bear metal
n°1398346
XaTriX
Posté le 06-12-2016 à 23:47:28  profilanswer
 

Nice
 
(passer de 8Mo/s à 10Mo/s ça fait pas +200% :o)
 
XaT


---------------
"Xat le punk à chien facho raciste. C'est complexe comme personnage." caudacien 05/10/2020
n°1398347
roondar
Posté le 06-12-2016 à 23:50:08  profilanswer
 
n°1398348
Plam
Bear Metal
Posté le 07-12-2016 à 00:00:13  profilanswer
 

XaTriX a écrit :

Nice
 
(passer de 8Mo/s à 10Mo/s ça fait pas +200% :o)
 
XaT


 
Typo du soir, bonsoir :o Corrigé :jap:
 

roondar a écrit :


Vous utilisez ceph en dessous ?


 
Nope, trop merdique pour les petits setup comme ça (rappel : 16 hotes maxi dans un pool XS). Donc là c'est basé sur du Gluster.


---------------
Spécialiste du bear metal
n°1398355
moradinddn
Posté le 07-12-2016 à 09:17:10  profilanswer
 

Salut à tous, je reviens à vous car j'ai un gros soucis avec mon installation Xenserver 7, pour rappel 2 serveurs xenserver 7 (sur DELL R810) en HA avec 2 serveur NFS en drbd connecté avec carte double 10G (intel) bondé, sur switch DELL.
il y a quelques temps des mises à jours Xen ont été faites et concerné entre autre le HA. Après ces majs, je me suis rendu compte que le HA s'était désactivé, rien de grave je le réactive. Mais depuis j'ai eu deux grosses galères:
 
-La première samedi dernier, le serveur primaire a planté, rien d'ans l'idrac, et dans les logs des problèmes qui paraissent liés à une carte réseau et watchdog:
 
WARNING: at net/sched/sch_generic.c:255 dev_watchdog+0x1a4/0x280()
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497092] NETDEV WATCHDOG: eth5 (ixgbe): transmit queue 4 timed out
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497095] Modules linked in: tun nfsv4 nfs fscache bnx2fc(O) cnic(O) uio fcoe libfcoe libfc scsi_transport_fc scsi_tgt openvswitch(O) gre libcrc32c 8021q garp mrp stp llc ipt_REJECT nf_conntrack_ipv4 nf_defrag_ipv4 xt_tcpudp xt_multiport xt_conntrack nf_conntrack iptable_filter dm_multipath ipmi_devintf dcdbas dm_mod coretemp crc32_pclmul aesni_intel aes_x86_64 ablk_helper cryptd lrw gf128mul glue_helper microcode psmouse lpc_ich mfd_core sg i7core_edac ipmi_si wmi ipmi_msghandler edac_core hed shpchp nfsd auth_rpcgss oid_registry nfs_acl lockd sunrpc nls_utf8 isofs ip_tables x_tables sr_mod cdrom ata_generic pata_acpi hid_generic usbhid hid sd_mod serio_raw ata_piix libata ehci_pci ixgbe(O) e1000e(O) ehci_hcd uhci_hcd ptp pps_core megaraid_sas(O) bnx2(O) scsi_dh_rdac scsi_dh_hp_sw scsi_dh_emc scsi_dh_alua scsi_dh scsi_mod ipv6 autofs4
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497202] CPU: 0 PID: 0 Comm: swapper/0 Tainted: G           O 3.10.0+10 #1
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497204] Hardware name: Dell Inc. PowerEdge R810/0TT6JF, BIOS 2.9.0 07/29/2013
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497207] 0000000000000009 ffff880183203d58 ffffffff81545307 ffff880183203d90
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497212] ffffffff81054da1 ffff88017a680000 0000000000000004 0000000000000000
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497215] ffff88017a675800 ffff88017a675780 ffff880183203df0 ffffffff81054e0c
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497219] Call Trace:
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497222]  <IRQ> [<ffffffff81545307>] dump_stack+0x19/0x1b
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497240] [<ffffffff81054da1>] warn_slowpath_common+0x61/0x80
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497243] [<ffffffff81054e0c>] warn_slowpath_fmt+0x4c/0x50
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497248] [<ffffffff8149f914>] dev_watchdog+0x1a4/0x280
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497251] [<ffffffff8149f770>] ? dev_deactivate_queue.constprop.29+0x60/0x60
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497256] [<ffffffff81063cd3>] call_timer_fn+0x53/0x130
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497259] [<ffffffff8149f770>] ? dev_deactivate_queue.constprop.29+0x60/0x60
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497264] [<ffffffff810658fd>] run_timer_softirq+0x22d/0x290
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497272] [<ffffffff8105d48b>] __do_softirq+0xfb/0x240
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497277] [<ffffffff8155509c>] call_softirq+0x1c/0x30
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497287] [<ffffffff81014203>] do_softirq+0x43/0x80
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497289] [<ffffffff8105d6d9>] irq_exit+0x49/0xa0
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497299] [<ffffffff81384ca5>] xen_evtchn_do_upcall+0x35/0x50
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497302] [<ffffffff815550fe>] xen_do_hypervisor_callback+0x1e/0xa0
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497303]  <EOI> [<ffffffff810013aa>] ? xen_hypercall_sched_op+0xa/0x20
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497311] [<ffffffff810013aa>] ? xen_hypercall_sched_op+0xa/0x20
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497318] [<ffffffff8100a340>] ? xen_safe_halt+0x10/0x30
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497325] [<ffffffff8101a844>] ? default_idle+0x44/0xd0
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497328] [<ffffffff8101b038>] ? arch_cpu_idle+0x18/0x30
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497335] [<ffffffff810a3532>] ? cpu_startup_entry+0x1c2/0x280
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497343] [<ffffffff8152b442>] ? rest_init+0x72/0x80
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497352] [<ffffffff81ad6eee>] ? start_kernel+0x404/0x40f
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497355] [<ffffffff81ad68f3>] ? repair_env_string+0x5e/0x5e
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497358] [<ffffffff81ad65ee>] ? x86_64_start_reservations+0x2a/0x2c
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497362] [<ffffffff81ad9b48>] ? xen_start_kernel+0x531/0x53d
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497364] ---[ end trace f1167427101bfd71 ]---
Dec  3 03:52:20 xenserver-1 kernel: [1364416.497374] ixgbe 0000:0d:00.1 eth5: Fake Tx hang detected with timeout of 5 seconds
Dec  3 03:52:30 xenserver-1 kernel: [1364426.497042] ixgbe 0000:0d:00.1 eth5: Fake Tx hang detected with timeout of 10 seconds
Dec  3 03:52:50 xenserver-1 kernel: [1364446.496920] ixgbe 0000:0d:00.1 eth5: Fake Tx hang detected with timeout of 20 seconds
Dec  3 03:56:01 xenserver-1 kernel: [    0.000000] PAT configuration [0-7]: WB  WT  UC- UC  WC  WP  UC  UC
Dec  3 03:56:01 xenserver-1 kernel: [    0.000000] Initializing cgroup subsys cpuset
Dec  3 03:56:01 xenserver-1 kernel: [    0.000000] Initializing cgroup subsys cpu
Dec  3 03:56:01 xenserver-1 kernel: [    0.000000] Initializing cgroup subsys cpuacct  
 
Dec  3 03:52:53 xenserver-1 squeezed: [debug|xenserver-1|3 ||xenops] watch /control/feature-balloon <- 1
Dec  3 03:52:54 xenserver-1 squeezed: [debug|xenserver-1|3 ||xenops] watch /control/feature-balloon <- 1
Dec  3 03:53:00 xenserver-1 squeezed: [debug|xenserver-1|3 ||xenops] watch /control/feature-balloon <- 1
Dec  3 03:53:01 xenserver-1 squeezed: [debug|xenserver-1|3 ||xenops] watch /control/feature-balloon <- 1
Dec  3 03:53:02 xenserver-1 squeezed: [debug|xenserver-1|3 ||xenops] watch /control/feature-balloon <- 1
Dec  3 03:53:24 xenserver-1 xha[8287]: Watchdog is expiring soon id=1 label=statefile.   -> après ça il reboot à priori : |
Dec  3 03:56:01 xenserver-1 systemd[1]: Started System Logging Service.                                                                                                                              V
Dec  3 03:56:01 xenserver-1 systemd[1]: Reached target Basic System.
Dec  3 03:56:01 xenserver-1 systemd[1]: Starting Basic System.
Dec  3 03:56:01 xenserver-1 systemd[1]: Starting Dump dmesg to /var/log/dmesg...
Dec  3 03:56:01 xenserver-1 systemd[1]: Starting Set up crash environment...
Dec  3 03:56:01 xenserver-1 systemd[1]: Starting QLogic ESwitch Configuration...
Dec  3 03:56:01 xenserver-1 systemd[1]: Starting Move kernel messages to tty2...
 
 
Il a rebooter sans problème est revenu dans le pool, bon, mais peu après (20mins) c'est le deuxième qui a merdé ! et là beaucoup moi de log juste :
 
Dec  3 04:09:44 xenserver-2 xapi: [debug|xenserver-2|133 |org.xen.xapi.xenops.classic events D:2f16e7d6efb7|xenops] Processing event: ["Vm", "b8b9a670-f456-5eff-2af1-db69e28b74ea"]
Dec  3 04:09:44 xenserver-2 xapi: [debug|xenserver-2|133 |org.xen.xapi.xenops.classic events D:2f16e7d6efb7|xenops] xenops event on VM b8b9a670-f456-5eff-2af1-db69e28b74ea
Dec  3 04:09:44 xenserver-2 xenopsd-xc: [debug|xenserver-2|393473 |org.xen.xapi.xenops.classic events D:2f16e7d6efb7|xenops_server] VM.stat b8b9a670-f456-5eff-2af1-db69e28b74ea
Dec  3 04:09:44 xenserver-2 xapi: [debug|xenserver-2|133 |org.xen.xapi.xenops.classic events D:2f16e7d6efb7|xenops] xenopsd event: ignoring event for VM b8b9a670-f456-5eff-2af1-db69e28b74ea: metadata has not changed
Dec  3 04:09:48 xenserver-2 xcp-networkd: [ info|xenserver-2|1 |monitor_thread|network_utils] /usr/bin/ovs-appctl bond/show bond0
Dec  3 04:12:36 xenserver-2 xcp-networkd: [debug|xenserver-2|0 |monitor_thread|network_monitor_thread] Starting network monitor
Dec  3 04:12:36 xenserver-2 xcp-networkd: [debug|xenserver-2|0 |startup|network_server] Read configuration from networkd.db file.
Dec  3 04:12:36 xenserver-2 xcp-networkd: [ info|xenserver-2|2 ||network_monitor_thread] (Re)started IP watcher thread

Dec  3 04:12:36 xenserver-2 xcp-networkd: [ info|xenserver-2|0 |startup|network_utils] /usr/bin/ovs-vsctl --timeout=20 set Open_vSwitch . other_config:max-idle=5000
Dec  3 04:12:36 xenserver-2 xcp-networkd: [debug|xenserver-2|0 |startup|network_server] Ensuring the following persistent bridges are up: xenbr8, xenbr1, xenbr3, xapi0, xenbr0, xenbr6, xenbr2, xenbr9, xenbr7
Dec  3 04:12:36 xenserver-2 xcp-networkd: [debug|xenserver-2|0 |startup|network_server] Additionally ensuring the following VLAN parent bridges are up:
Dec  3 04:12:36 xenserver-2 xcp-networkd: [ info|xenserver-2|0 |startup|network_utils] /usr/bin/ovs-vsctl --timeout=20 list-br
 
Par chance invisible sur la Prod car le HA a fait son taff! Mais hier soir rebelote... Mais seulement le 2 avec ces logs qui parlent toujours de cartes réseaux:
 
Dec  6 17:23:28 xenserver-2 kernel: [306707.861263] IPv6: ADDRCONF(NETDEV_CHANGE): vif11.1: link becomes ready
Dec  6 17:23:28 xenserver-2 kernel: [306707.864790] vif vif-11-2 vif11.2: Guest Rx ready
Dec  6 17:23:28 xenserver-2 kernel: [306707.865266] IPv6: ADDRCONF(NETDEV_CHANGE): vif11.2: link becomes ready
Dec  6 17:23:38 xenserver-2 kernel: [306717.708268] device vif12.2 entered promiscuous mode
Dec  6 17:23:38 xenserver-2 kernel: [306717.820788] IPv6: ADDRCONF(NETDEV_UP): vif12.2: link is not ready
Dec  6 17:24:13 xenserver-2 kernel: [306752.789700] vif vif-9-1 vif9.1: Guest Rx stalled
Dec  6 17:24:19 xenserver-2 kernel: [306759.095789] block tdo: sector-size: 512/512 capacity: 209715200
Dec  6 17:24:20 xenserver-2 kernel: [306760.074132] vif vif-12-2 vif12.2: Guest Rx ready
Dec  6 17:24:20 xenserver-2 kernel: [306760.074718] IPv6: ADDRCONF(NETDEV_CHANGE): vif12.2: link becomes ready
Dec  6 17:24:36 xenserver-2 kernel: [306775.783573] vif vif-11-1 vif11.1: Guest Rx stalled
Dec  6 17:24:44 xenserver-2 kernel: [306783.717686] vif vif-11-2 vif11.2: Guest Rx stalled

Dec  6 17:42:49 xenserver-2 kernel: [    0.000000] PAT configuration [0-7]: WB  WT  UC- UC  WC  WP  UC  UC  
Dec  6 17:42:49 xenserver-2 kernel: [    0.000000] Initializing cgroup subsys cpuset
Dec  6 17:42:49 xenserver-2 kernel: [    0.000000] Initializing cgroup subsys cpu
Dec  6 17:42:49 xenserver-2 kernel: [    0.000000] Initializing cgroup subsys cpuacct
Dec  6 17:42:49 xenserver-2 kernel: [    0.000000] Linux version 3.10.0+10 (root@yeltha-4) (gcc version 4.8.5 20150623 (Red Hat 4.8.5-4) (GCC) ) #1 SMP
Thu Sep 22 12:31:44 UTC 2016
 
Avez vous déjà rencontré ce problème? Pensez vous qu'une des cartes 10G peut être en cause? Il perd peut être l'accès au SR (car le bond 10G va vers le NFS), sachant que je n'ai jamais eu ce souci avant les maj HA.... On dirait qu'un time out watchdog lance la procédure de migration des VMS sur l'autre serveur, et après fais rebooter la machine...Mais dans mon premier cas je comprends pas pourquoi le xenserver-2 a rebooter également...
 
Merci d'avance !


Message édité par moradinddn le 07-12-2016 à 09:30:44
n°1398357
Plam
Bear Metal
Posté le 07-12-2016 à 09:28:34  profilanswer
 

À mon avis tu aura plus vite fait de créer un bug report sur https://bugs.xenserver.org :jap:
 
C'est quoi ton modèle de carte 10G ?


---------------
Spécialiste du bear metal
n°1398364
moradinddn
Posté le 07-12-2016 à 10:31:20  profilanswer
 

C'est une INTEL X520-DA2

n°1398365
Plam
Bear Metal
Posté le 07-12-2016 à 10:52:42  profilanswer
 

En plus ce modèle est bien supporté normalement (de mémoire dans la HCL officielle pour XS7) :jap:
 
Franchement, ouvre un bug report, c'est une bonne chose et ça motive l'équipe à Cambridge à écouter la communauté :jap:


---------------
Spécialiste du bear metal
n°1398366
moradinddn
Posté le 07-12-2016 à 10:56:34  profilanswer
 

Ok chose faite, jamais fais ce style de bug report j'espère qu'il est assez clair (I have not a good english :) )
 
https://bugs.xenserver.org/browse/XSO-658

n°1398367
Plam
Bear Metal
Posté le 07-12-2016 à 11:06:41  profilanswer
 

Tu peux entourer ton texte de logs avec {{ }} ça sera plus joli.
 
Pour le reste c'est bien :jap:


---------------
Spécialiste du bear metal
n°1398368
moradinddn
Posté le 07-12-2016 à 11:11:22  profilanswer
 

Impecc merci je vous tiendrai au courant au cas ou quelqu'un rencontre un jour ce problème bien embêtant !

n°1398369
Plam
Bear Metal
Posté le 07-12-2016 à 11:11:42  profilanswer
 

Putain y ont MAJ Jira, c'est ça visiblement maintenant pour un texte preformaté :

 

{noformat}
*no* further _formatting_ is done here
{noformat}


Message édité par Plam le 07-12-2016 à 11:11:57

---------------
Spécialiste du bear metal
n°1398370
moradinddn
Posté le 07-12-2016 à 11:12:54  profilanswer
 

j'ai voulu mettre en gras certaines lignes mais ça n'a pas marcher nonplus ça met des ** :)
 
EDIT: effectivement c'est plus beau :) merki !


Message édité par moradinddn le 07-12-2016 à 11:14:43
n°1398371
moradinddn
Posté le 07-12-2016 à 11:31:00  profilanswer
 

oula ils m'ont déjà répondu !!! Rapide, en me disant que le HA est recommandé qu'à partir de 3 serveurs??? ça je savais pas ! Bizarre je n'avais aucun problème auparavant ! Bizarre aussi que dans la configuration du pool ils autorisent sans problèmes 2 hosts !

n°1398372
Plam
Bear Metal
Posté le 07-12-2016 à 11:34:27  profilanswer
 

Oui pour des raisons de scénario de split brain, mais ça devrait tout de même pas exploser en vol comme ça :o


---------------
Spécialiste du bear metal
n°1398373
moradinddn
Posté le 07-12-2016 à 11:47:10  profilanswer
 

Oui c'est ce que je suis entrain de lui répondre, je comprends mieux les reboot bizarre mais pas l'erreur qui a provoqué tout ça!

n°1398374
Plam
Bear Metal
Posté le 07-12-2016 à 11:53:03  profilanswer
 

Bon sinon j'ai maj les benchs pour mon lab en hyperconvergé, en bossant sur un fichier de 4GiB ça bypass mon cache de mon NAS ZFS actuel, la diff de perfs est encore plus grande [:ddr555]


---------------
Spécialiste du bear metal
n°1398375
roondar
Posté le 07-12-2016 à 13:09:57  profilanswer
 

Plam a écrit :


 
Typo du soir, bonsoir :o Corrigé :jap:
 


Plam a écrit :


 
Nope, trop merdique pour les petits setup comme ça (rappel : 16 hotes maxi dans un pool XS). Donc là c'est basé sur du Gluster.


Plutôt sympa.
Sinon il y avait ca comme projet de VSAN:  http://www.halizard.com/ha-lizard-software

n°1398376
Plam
Bear Metal
Posté le 07-12-2016 à 13:16:14  profilanswer
 

roondar a écrit :


Plutôt sympa.
Sinon il y avait ca comme projet de VSAN:  http://www.halizard.com/ha-lizard-software


 
C'est pas comparable. HA Lizard c'est pour deux hôtes, et c'est « juste » un DRBD en réplication block derrière. Aucune chance de scaler sur plus de 2 (voire 3 maxi).
 
Là l'idée c'est d'utiliser un FS distribué :jap: (donc scalable en théorie, à valider dans quelle mesure)


---------------
Spécialiste du bear metal
n°1398379
snipereyes
Posté le 07-12-2016 à 16:24:39  profilanswer
 

j'ai du mal à comprendre le choix de GlusterFS, pour avoir vu des infra CEPH et GlusterFS, CEPH c'est quand même largement plus stable et évolutif...
 
S'agit il d'une décision personnelle, ou c'est la technique qui a dirigé ce choix ?

Message cité 1 fois
Message édité par snipereyes le 07-12-2016 à 16:25:21

---------------
-- Topic de vente -- FeedBack --
n°1398380
Plam
Bear Metal
Posté le 07-12-2016 à 16:52:57  profilanswer
 

snipereyes a écrit :

j'ai du mal à comprendre le choix de GlusterFS, pour avoir vu des infra CEPH et GlusterFS, CEPH c'est quand même largement plus stable et évolutif...

 

S'agit il d'une décision personnelle, ou c'est la technique qui a dirigé ce choix ?

 

C'est multifactoriel :jap:

 

Moult discussions dans le monde technique (avec Citrix, les confs etc.), taille de l'infrastructure (16 hôtes maxi et en moyenne probablement entre 4 et 8), Ceph plus stable lolilol, simplicité de Gluster, client fichier donc thin pro dans XS, pas de nœud séparé pour les metadata (ça n'aurait aucun sens dans une petite infra), différent type de réplication,  etc.

 

Utiliser Ceph c'est aussi con qu'Open Stack pour des petites infra (<16 hôtes, d'ailleurs les deux peuvent bien aller ensemble pour des grosses infra). Le côté évolutif (qui est un avantage en partie pour Ceph) est donc nul dans ce cas d'utilisation.

 

edit : pour résumer, dans une optique de gros SAN dédié/évolutif, Ceph why not. Dans une optique d'hyperconvergence sur petites et moyennes infra, nope.

 

edit 2 : sans oublier les emmerdes que la team XS a eu avec Ceph lors de ses tests en QA (timeout random qui déco)

 

edit 3 : sauf erreur de ma part, je vois pas bien comment ne pas tout perdre avec Ceph avec deux hôtes seulement. Sauf à multiplier de manière abusée les VMs Ceph. Dans ce cas on augmente fortement l'overhead.

 

Mais je reste ouvert aux choses que j'aurai pu rater :jap:


Message édité par Plam le 07-12-2016 à 17:07:38

---------------
Spécialiste du bear metal
n°1398568
roondar
Posté le 13-12-2016 à 22:38:03  profilanswer
 

Pendant ce temps là,  je BUILD des packets debian xen orchestra avec Jenkins.
C'est fou la compression qu'on peut avoir, je passe de 300Mo de sources à un .deb de 40Mo.

n°1398575
l0g4n
Expert en tout :o
Posté le 14-12-2016 à 07:36:36  profilanswer
 

Euh... la compilation c'est pas de la compression des sources hein ?! :o


---------------
Fort et motivé. Sauf parfois.
n°1398576
Plam
Bear Metal
Posté le 14-12-2016 à 11:12:57  profilanswer
 

C'est surtout qu'en mode « pas dev » tout est uglifié/compressé dans les fichiers JS, donc c'est normal.

 

Par contre, quand t'aura un bug, ça sera plus difficile de remonter la piste (mais c'est normal si c'est pas utilisé en mode « dev »). J'espère par contre que c'est pour pour de l'env critique ou de la prod :D

Message cité 1 fois
Message édité par Plam le 14-12-2016 à 11:13:11

---------------
Spécialiste du bear metal
n°1398577
moradinddn
Posté le 14-12-2016 à 11:22:29  profilanswer
 

Salut, petite question sur xen orchestra svp, déjà installer sur une archi sans souci avec un NFS pour les backup monté (nas dlink) pas de souci, j'essaye de le monté sur une autre archi avec un nfs sur centos 6.8 et là j'ai des erreurs, apparemment lier à la version de nfs serveur, il mount automatiquement le nfs avec cette commande :  
" Command failed: mount -t nfs -o vers=3 192.168.67.201:/NFSXEN/BACKUPS /run/xo-server/mounts/20125ad1-e335-41fc-ab6e-9aee262fa8a1 mount.nfs: access denied by server while mounting 192.168.67.201:/NFSXEN/BACKUPS"  
 
Seulement mon nfs est bien up marche bien et pire si je le monte à la mimine sur le xenorchestra sans forcer la version en 3, ça marche...
 
J'aurais sans problème forcer la version 3 sur mon centos mais à priori c'est pas si facile, j'ai tout essayé le nfs ne veut pas se relancer...Déjà rencontrer ce pb? possible d'editer quelque part la commande de montage de xenorchestra sans la v3?
 
Merci d'avance .


Message édité par moradinddn le 14-12-2016 à 11:24:10
n°1398578
Plam
Bear Metal
Posté le 14-12-2016 à 11:54:00  profilanswer
 

1/ Tu dois autoriser nfsv3 côté serveur NFS et vérifier que dans ton export tu as bien le share autorisé pour v3
 
2/ non. Pour l'instant on force en v3 pour un certain nombre de raisons (beaucoup plus de données à rentrer/stocker pour se connecter en v4)


---------------
Spécialiste du bear metal
n°1398580
moradinddn
Posté le 14-12-2016 à 11:58:11  profilanswer
 

Merci de ta réponse mais j'ai trouvé la solution entre temps, c'est bien ce que j'esssayé de faire sauf qu'il y a une différence notable entre la version V4 et V3 de nfs  par rapport au TCPWrapper...Je mets toujours dans hosts.deny all:all qui n'a pas d'incidence en v4, mais en v3 oui...
En mettant ce qu'il faut dans hosts.allow ça marche, très bête m'enfin bon à savoir merci encore ;)

n°1398581
Plam
Bear Metal
Posté le 14-12-2016 à 12:12:39  profilanswer
 

:jap:


---------------
Spécialiste du bear metal
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  ..  38  39  40  ..  92  93  94  95  96  97

Aller à :
Ajouter une réponse
 

Sujets relatifs
Nouveau projet : XEN / FREENAS / XBMC / S.A.R.A.H.[TU] Elementary OS: La distrib qui n'a rien à envier à MacOS!
[Topic Unique] VGA/PCI Passthrough et VFIO sous GNU/Linux[Topic Unique] Syncany (DropBox like, libre)
☑[bash] Boucle for sur un fichier unique OU contenu d'un dossier ?[Résolu] nginx sur domU NetBSD 6 (dom0 Debian squeeze)
Virtualisation, du passthrough, XBMC, NAS, des jeux...Xenserver et ajout de HDD
[topic unique] hack cadre photo usb 
Plus de sujets relatifs à : [topic unique] The Vates Stack : XCP-ng & Xen Orchestra


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR