Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
2753 connectés 

  FORUM HardWare.fr
  Linux et OS Alternatifs
  Installation

  Heartbeat et DRBD

 


 Mot :   Pseudo :  
 
Bas de page
Auteur Sujet :

Heartbeat et DRBD

n°968133
mogruith
Posté le 23-10-2007 à 12:35:32  profilanswer
 

Bonjour à tous
 
Je suis en train de mettre en place drbd et heartbeat. J'ai deux serveur qui se partagent une ressource drbd0, et je veux qu'heartbeat gère cela.
Concernant drbd, en manuel, tout fonctionne correctement (bascule, montage). Si je laisse heartbeat gérer mon /dev/drbd0, il ne se passe rien. HA ne démarre ni le service drbd, ni le module. Bref rien.
 
Voici mon fichier de ha.cf (pour le premier noeud, pour le second il n'y a que l'ip qui change):
ucast   eth0    10.10.10.2
debugfile     /var/log/ha-debug
logfile /var/log/ha-log
use_logd yes
 
keepalive       2
deadtime        10
warntime      6
initdead        60
 
udpport 694
node    nodev1
node    nodev2
 
auto_failback   off
crm true
apiauth evms uid=hacluster,root
 
===> vu que crm est utilisé, je n'utilise pas de haresources.
 
Quant à mon cib.xml, voici à quoi il ressemble:
 
 <cib generated="true" admin_epoch="0" epoch="1" num_updates="16" have_quorum="true" ignore_dtd="false" ccm_transition="2" num_peers="2" cib_feature_revision="1.3" dc_uuid="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" cib-last-written="Fri Oct 19 16:04:18 2007">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1192802637"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="nodev1" type="normal"/>
       <node id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="nodev2" type="normal"/>
     </nodes>
     <resources/>
<group id="My-DRBD-group" ordered="true" collocated="true">
        <instance_attributes id="My-DRBD-group_instance_attrs">
           <attributes>
             <nvpair id="My-DRBD-group_target_role" name="target_role" value="started"/>
           </attributes>
        </instance_attributes>
   <primitive id="DRBD_data" class="heartbeat" type="drbddisk" provider="heartbeat">
           <instance_attributes id="DRBD_data_instance_attrs">
             <attributes>
               <nvpair id="DRBD_data_target_role" name="target_role" value="started"/>
               <nvpair id="93d753a8-e69a-4ea5-a73d-ab0d0367f001" name="1" value="repdata"/>
             </attributes>
           </instance_attributes>
         </primitive>
         <primitive id="FS_repdata" class="ocf" type="Filesystem" provider="heartbeat">
           <instance_attributes id="FS_repdata_instance_attrs">
             <attributes>
               <nvpair id="FS_repdata_target_role" name="target_role" value="started"/>
               <nvpair id="96d659dd-0881-46df-86af-d2ec3854a73f" name="fstype" value="ext3"/>
               <nvpair id="8a150609-e5cb-4a75-99af-059ddbfbc635" name="device" value="/dev/drbd0"/>
               <nvpair id="de9706e8-7dfb-4505-b623-5f316b1920a3" name="directory" value="/mnt/repl"/>
             </attributes>
           </instance_attributes>
<constraints/>
<rsc_location id="runs_on_pref_node" rsc="My-DRBD-group">
         <rule id="prefered_runs_on_pref_node" score="100">
           <expression attribute="#uname" id="786ef2b1-4289-4570-8923-4c926025e8fd" operation="eq" value="nodev1"/>
         </rule>
       </rsc_location>
     </constraints>
   </configuration>
 </cib>
 
J'utilise le hb_gui.. et je galère .... et le site de HA est moyennement clair.
 
Quelqu'un pourrait me souffler une idée ?

mood
Publicité
Posté le 23-10-2007 à 12:35:32  profilanswer
 

n°968456
Hub_qc
Posté le 23-10-2007 à 19:33:11  profilanswer
 

T'as surveillé les logs?

n°968479
e_esprit
Posté le 23-10-2007 à 19:52:10  profilanswer
 

mogruith a écrit :

Bonjour à tous
 
Je suis en train de mettre en place drbd et heartbeat. J'ai deux serveur qui se partagent une ressource drbd0, et je veux qu'heartbeat gère cela.
Concernant drbd, en manuel, tout fonctionne correctement (bascule, montage). Si je laisse heartbeat gérer mon /dev/drbd0, il ne se passe rien. HA ne démarre ni le service drbd, ni le module. Bref rien.
[...]
J'utilise le hb_gui.. et je galère .... et le site de HA est moyennement clair.
 
Quelqu'un pourrait me souffler une idée ?


Le service drbd doit être lancé indépendamment de Heartbeat.
 
La ressource drbd de HB ne gère que l'accès au disque (mode primaire/secondaire + montage) mais le service doit être actif sur tes deux noeuds, que la ressource soit montée ou pas (puisque c'est ce qui permet de garder les disques synchros).


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968643
mogruith
Posté le 24-10-2007 à 09:43:46  profilanswer
 

Merci pour vos retours.  
 
Le systeme lance automatiquement le service drbd au boot, suivi du service heartbeat.
 
Ce qui est pertubant, c'est qu'un mount ne me permet pas de voir le disque monté sur la partition définie pour cela (sur le master, et quand heartbeat est censé gérer cela)
 
La avec la gui, j'ai rajouté une IP, mais je n'arrive toujours pas à monter mon /mnt/repl

n°968657
e_esprit
Posté le 24-10-2007 à 10:19:29  profilanswer
 

mogruith a écrit :

Merci pour vos retours.  
 
Le systeme lance automatiquement le service drbd au boot, suivi du service heartbeat.
 
Ce qui est pertubant, c'est qu'un mount ne me permet pas de voir le disque monté sur la partition définie pour cela (sur le master, et quand heartbeat est censé gérer cela)
 
La avec la gui, j'ai rajouté une IP, mais je n'arrive toujours pas à monter mon /mnt/repl


J'ai rien compris :D
 
Comment est configuré ton drbd ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968665
mogruith
Posté le 24-10-2007 à 10:37:41  profilanswer
 

C'est vrai qu'en me relisant, c'est moyennement clair :)
 
voici mon drbd.conf :
 
resource repl {
protocol C;
incon-degr-cmd "echo '!DRBD! pri on incon-degr' | wall ; sleep 60 ; halt -f";
  startup {
    degr-wfc-timeout 120;    # 2 minutes.
  }
 
  disk {
    on-io-error   pass_on;
  }
 
  net {
    # TODO: Should these timeouts be relative to some heartbeat settings?
    # timeout       60;    #  6 seconds  (unit = 0.1 seconds)
    # connect-int   10;    # 10 seconds  (unit = 1 second)
    # ping-int      10;    # 10 seconds  (unit = 1 second)
    on-disconnect reconnect;
  }
 
  syncer {
    rate 100M;
    group 1;
    al-extents 257;
  }
 
on node1
{
        device /dev/drbd0;
        disk /dev/sdb1;
        address 192.168.1.1:7788;
        meta-disk internal;
}
on node2
{
        device /dev/drbd0;
        disk /dev/sdb1;
        address 192.168.1.2:7788;
        meta-disk internal;
}
}
 
Le service drbd est initié dès le boot, le module est donc actif sur les deux serveurs.
 
Heartbeat arrive ensuite mais il n'effectue pas le montage.  
 
Voici un bout de log avec "crm_verify -L -V"
crm_verify[21439]: 2007/10/24_10:33:01 WARN: process_orphan_resource: Nothing known about resource drbd0 running on sles10v1
crm_verify[21439]: 2007/10/24_10:33:01 WARN: process_orphan_resource: Nothing known about resource resource_ running on node1
crm_verify[21439]: 2007/10/24_10:33:01 WARN: process_orphan_resource: Nothing known about resource module running on node1
crm_verify[21439]: 2007/10/24_10:33:01 WARN: unpack_rsc_op: Processing failed op (drbd0_start_0) on node2
crm_verify[21439]: 2007/10/24_10:33:01 WARN: unpack_rsc_op: Handling failed start for drbd0 on node2
Warnings found during check: config may not be valid
 
un cat /proc/drbd donne pourtant :
 
version: 0.7.18 (api:78/proto:74)
SVN Revision: 2186 build by lmb@chip, 2006-05-04 17:08:27
 0: cs:Connected st:Secondary/Primary ld:Consistent
    ns:4 nr:0 dw:0 dr:4 al:0 bm:39 lo:0 pe:0 ua:0 ap:0
 
(node2 est le master en ce moment)
 
Voici mon cib.xml en ce moment :
 
<cib generated="true" admin_epoch="0" epoch="1" num_updates="16" have_quorum="true" ignore_dtd="false" ccm_transition="2" num_peers="2" cib_feature_revision="1.3" dc_uuid="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" cib-last-written="Fri Oct 19 16:04:18 2007">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1192802637"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="node1" type="normal"/>
       <node id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="node2" type="normal"/>
     </nodes>
     <resources/>
   <primitive id="DRBD_data" class="heartbeat" type="drbddisk" provider="heartbeat">
           <instance_attributes id="DRBD_data_instance_attrs">
             <attributes>
               <nvpair id="DRBD_data_target_role" name="target_role" value="started"/>
               <nvpair id="93d753a8-e69a-4ea5-a73d-ab0d0367f001" name="1" value="repdata"/>
             </attributes>
           </instance_attributes>
         </primitive>
         <primitive id="FS_repdata" class="ocf" type="Filesystem" provider="heartbeat">
           <instance_attributes id="FS_repdata_instance_attrs">
             <attributes>
               <nvpair id="FS_repdata_target_role" name="target_role" value="started"/>
               <nvpair id="96d659dd-0881-46df-86af-d2ec3854a73f" name="fstype" value="ext3"/>
               <nvpair id="8a150609-e5cb-4a75-99af-059ddbfbc635" name="device" value="/dev/drbd0"/>
               <nvpair id="de9706e8-7dfb-4505-b623-5f316b1920a3" name="directory" value="/mnt/repl"/>
             </attributes>
           </instance_attributes>
<constraints/>
<rsc_location id="runs_on_pref_node" rsc="My-DRBD-group">
         <rule id="prefered_runs_on_pref_node" score="100">
           <expression attribute="#uname" id="786ef2b1-4289-4570-8923-4c926025e8fd" operation="eq" value="node1"/>
         </rule>
       </rsc_location>
     </constraints>
   </configuration>
 </cib>
 
bref .... je tourne en rond ...


Message édité par mogruith le 24-10-2007 à 10:38:55
n°968676
e_esprit
Posté le 24-10-2007 à 10:51:30  profilanswer
 

Il est formaté ton /dev/drbd0 ?
 
Tu arrives à le monter sur le noeud sur lequel il est en Primary (quand tu fais le cat /proc/drbd) ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968679
mogruith
Posté le 24-10-2007 à 10:53:44  profilanswer
 

oui il est formaté. Manuellement, j'arrive à le monter et à  le basculer d'un serveur à l'autre et je retrouve mes fichiers à chaque fois.  
 

n°968680
mogruith
Posté le 24-10-2007 à 10:56:17  profilanswer
 

Je ne sais pas s'il faut que je rajoute (via ha management client) des options du style is_managed ou multiple_active etc ....

n°968693
steph1066
Posté le 24-10-2007 à 11:14:11  profilanswer
 

Salut,
Je te file un morceau de mon cib.xml qui marchait.
Je pense qu'il faut que tu ajoute le nom de ta ressource DRDB, moi c'était r0
 
DRDB:
 
 <primitive id="resource_DRBD" class="heartbeat" type="drbddisk" provider="heartbeat">
           <instance_attributes id="resource_DRBD_instance_attrs">
             <attributes>
               <nvpair id="ebf8f33a-dc85-4125-9318-7898befcba1a" name="1" value="r0"/>
               <nvpair id="resource_DRBD_target_role" name="target_role" value="started"/>
             </attributes>
           </instance_attributes>  
 
Mount:
 <primitive id="resource_Mount" class="ocf" type="Filesystem" provider="heartbeat">
           <instance_attributes id="resource_Mount_instance_attrs">
             <attributes>
               <nvpair id="resource_Mount_target_role" name="target_role" value="started"/>
               <nvpair id="b0603a98-4c0f-4896-bf52-f55850d41cbd" name="device" value="/dev/drbd1"/>
               <nvpair id="70a403a4-ed8c-4fa6-98b6-7cafacc2423f" name="directory" value="/rep"/>
               <nvpair id="ab7b2faf-ba2e-4d54-915f-f3a70c0b95ca" name="fstype" value="ext3"/>
             </attributes>
           </instance_attributes>
         </primitive>


Message édité par steph1066 le 24-10-2007 à 11:17:45
mood
Publicité
Posté le 24-10-2007 à 11:14:11  profilanswer
 

n°968695
mogruith
Posté le 24-10-2007 à 11:15:04  profilanswer
 

bon en ouvrant le pe-warn, j'ai un boxon d'enfer :
 
 
 <cib generated="true" admin_epoch="0" epoch="2" num_updates="378" have_quorum="true" ignore_dtd="false" num_peers="2" ccm_transition="4" cib_feature_revision="1.3" dc_uuid="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" cib-last-written="Wed Oct 24 11:10:20 2007">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1193217015"/>
           <nvpair id="cib-bootstrap-options-stonith-enabled" name="stonith-enabled" value="False"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="node2" type="normal"/>
       <node id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="node1" type="normal"/>
     </nodes>
     <resources>
       <primitive id="filesystem" class="ocf" type="Filesystem" provider="heartbeat">
         <instance_attributes id="filesystem_instance_attrs">
           <attributes>
             <nvpair id="filesystem_target_role" name="target_role" value="started"/>
             <nvpair id="e0110ff7-3a17-42b6-9c5a-81017d7fedd7" name="fstype" value="ext3"/>
             <nvpair id="639701fc-028b-47ce-b930-fe1dbf42bb1b" name="device" value="drbd0"/>
             <nvpair id="6b5bde58-b0d8-405c-b96e-d064f42970b9" name="directory" value="/mnt/repl"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive id="ip" class="ocf" type="IPaddr" provider="heartbeat" is_managed="true">
         <instance_attributes id="ip_instance_attrs">
           <attributes>
             <nvpair id="ip_target_role" name="target_role" value="started"/>
             <nvpair id="e0b8c892-eb3a-4132-8b3e-2a5176cc9856" name="ip" value="141.2.102.246"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive id="drbddisk" class="heartbeat" type="drbddisk" provider="heartbeat">
         <instance_attributes id="drbddisk_instance_attrs">
           <attributes>
             <nvpair id="drbddisk_target_role" name="target_role" value="started"/>
           </attributes>
         </instance_attributes>
       </primitive>
     </resources>
     <constraints>
       <rsc_colocation id="ip_drbd" from="ip" to="drbd0" score="INFINITY"/>
       <rsc_colocation id="fs_drbd" from="filesystem" to="drbd0" score="INFINITY"/>
     </constraints>
   </configuration>
   <status>
     <node_state id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="node1" crmd="online" crm-debug-origin="do_lrm_query" shutdown="0" in_ccm="true" ha="active" join="member" expected="member">
       <transient_attributes id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5">
         <instance_attributes id="status-969bbf54-1ef8-42dc-be1f-3f4554beb8c5">
           <attributes>
             <nvpair id="status-969bbf54-1ef8-42dc-be1f-3f4554beb8c5-probe_complete" name="probe_complete" value="true"/>
           </attributes>
         </instance_attributes>
       </transient_attributes>
       <lrm id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5">
         <lrm_resources>
           <lrm_resource id="filesystem" type="Filesystem" class="ocf" provider="heartbeat">
             <lrm_rsc_op id="filesystem_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="86" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="9b8f509a6d792f307f5ad51cb4cd5e19"/>
           </lrm_resource>
           <lrm_resource id="drbd0" type="drbddisk" class="heartbeat" provider="heartbeat">
             <lrm_rsc_op id="drbd0_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:139:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:139:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="67" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbd0_start_0" operation="start" crm-debug-origin="build_active_RAs" transition_key="6:140:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;6:140:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="69" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbd0_stop_0" operation="stop" crm-debug-origin="build_active_RAs" transition_key="6:160:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;6:160:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="76" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
           </lrm_resource>
           <lrm_resource id="resource_" type="Evmsd" class="ocf" provider="heartbeat">
             <lrm_rsc_op id="resource__monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="4:106:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;4:106:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="48" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
           </lrm_resource>
           <lrm_resource id="module" type="drbd" class="lsb" provider="heartbeat">
             <lrm_rsc_op id="module_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="4:121:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;4:121:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="54" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
             <lrm_rsc_op id="module_stop_0" operation="stop" crm-debug-origin="build_active_RAs" transition_key="9:122:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;9:122:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="55" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
           </lrm_resource>
           <lrm_resource id="drbddisk" type="drbddisk" class="heartbeat" provider="heartbeat">
             <lrm_rsc_op id="drbddisk_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:167:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:167:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="79" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
             <lrm_rsc_op id="drbddisk_start_0" operation="start" crm-debug-origin="build_active_RAs" transition_key="5:191:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;5:191:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="84" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbddisk_stop_0" operation="stop" crm-debug-origin="build_active_RAs" transition_key="7:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;7:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="85" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
           </lrm_resource>
         </lrm_resources>
       </lrm>
     </node_state>
     <node_state id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="node2" crmd="online" crm-debug-origin="do_lrm_query" ha="active" in_ccm="true" join="member" shutdown="0" expected="member">
       <transient_attributes id="557ff4bc-87d6-49b7-bd25-0c26fd81f087">
         <instance_attributes id="status-557ff4bc-87d6-49b7-bd25-0c26fd81f087">
           <attributes>
             <nvpair id="status-557ff4bc-87d6-49b7-bd25-0c26fd81f087-probe_complete" name="probe_complete" value="true"/>
           </attributes>
         </instance_attributes>
       </transient_attributes>
       <lrm id="557ff4bc-87d6-49b7-bd25-0c26fd81f087">
         <lrm_resources>
           <lrm_resource id="filesystem" type="Filesystem" class="ocf" provider="heartbeat">
             <lrm_rsc_op id="filesystem_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="3:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;3:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="6" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="9b8f509a6d792f307f5ad51cb4cd5e19"/>
           </lrm_resource>
           <lrm_resource id="drbddisk" type="drbddisk" class="heartbeat" provider="heartbeat">
             <lrm_rsc_op id="drbddisk_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="4" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbddisk_start_0" operation="start" crm-debug-origin="build_active_RAs" transition_key="8:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;8:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="5" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
           </lrm_resource>
         </lrm_resources>
       </lrm>
     </node_state>
   </status>
 </cib>
 
 
Je pense que je vais brûler ces serveurs d'ici à ce soir ...


Message édité par mogruith le 24-10-2007 à 11:16:02
n°968703
e_esprit
Posté le 24-10-2007 à 11:28:59  profilanswer
 

A priori il te manque la resource drbddisk pour 'repl'


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968709
mogruith
Posté le 24-10-2007 à 11:32:04  profilanswer
 

Une dernière chose bizarre : lorsque je redémarre tout : drbd et heartbeat, et que je lance hb_gui, il n'y plus aucune ressource qui apparait. Or mon fichier cib.xml est présente et "plein".
 
bug ou ratage de ma part quelquepart ?

n°968715
steph1066
Posté le 24-10-2007 à 11:35:28  profilanswer
 

Si tu as coller mon cib gaffe il manque un </primitive>

n°968725
mogruith
Posté le 24-10-2007 à 11:42:43  profilanswer
 

AAARRRGGGGG !!!!!!!!!!!!!!!!!!!!!!!
 
 
CA MARCHE .. ENFIN !!!!!!!!!!!!!!!!!
 
effectivement, c'est idiot mais j'ai repris un autre nom pour les ressources (tel que ceux utilisés par steph1066) mount pour filesystem etc etc ....
 
et la heartbeat a non seulement monté mon eth0:0, mon /mnt/repl ....
 
'tain .. 3 jours que je suis sur ce truc ..
 
Merci beaucoup les gars :)

n°968732
mogruith
Posté le 24-10-2007 à 11:46:34  profilanswer
 

bon ca marche mais la bascule est un peu longue tout de meme ....

n°968737
e_esprit
Posté le 24-10-2007 à 11:49:23  profilanswer
 

C'est à dire ? combien de temps ? à quel niveau ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968739
mogruith
Posté le 24-10-2007 à 11:50:29  profilanswer
 

ben j'ai arrêté un peu à l'arrache heartbeat (/etc/init.d/heartbeat stop) sur mon master et le deuxième noeud n'a toujours pas repris la main et les ressources .. ca fait 5 min déjà ...

n°968743
mogruith
Posté le 24-10-2007 à 11:55:02  profilanswer
 

le master est a nouveau up, mon slave est porté disparu et il n'y a plus de ressources .... sniff ...

n°968745
e_esprit
Posté le 24-10-2007 à 11:55:50  profilanswer
 

T'as raté un truc alors :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968773
steph1066
Posté le 24-10-2007 à 12:25:19  profilanswer
 

Pour info la bascule ce fait en quelques secondes

n°968774
steph1066
Posté le 24-10-2007 à 12:26:30  profilanswer
 

une question, tes deux fichiers cib.xml sont bien synchro ?
Tu ne peux pas les modifiers à la main comme ça, il y a des utilitaires

n°968838
mogruith
Posté le 24-10-2007 à 13:50:29  profilanswer
 

j'ai modifié mon cib via hb_gui. Je pensais que la syncro sur les deux noeuds était automatique. Sinon, j'ai lancé un petit ha_propagate.

n°968856
mogruith
Posté le 24-10-2007 à 14:01:08  profilanswer
 

Steph1066,
peux tu me préciser les commandes pour reloader mon cib.xml ? (celui qui fonctionen enfin :))

n°968882
steph1066
Posté le 24-10-2007 à 14:17:21  profilanswer
 

Tu as raison vi hb_gui c'est automatique, je pensais que tu l'avais modifié à la main (VI)

n°968889
mogruith
Posté le 24-10-2007 à 14:23:15  profilanswer
 

ben en fait .. j'ai effacé le cib.xml, lancé hb_gui, appliquer ma config .. et je n'ai pas de fichier cib.xml dans /var/lib/heartbeat / ??????  
 
heu .. la config s'enregistre ou ???

n°968892
mogruith
Posté le 24-10-2007 à 14:37:46  profilanswer
 

une question encore :
 
est ce que dans fstab, ce qui suit doit etre commenté :
/dev/drbd0          /mnt/repl            ext3       noauto     0 0

n°968900
e_esprit
Posté le 24-10-2007 à 14:53:49  profilanswer
 

mogruith a écrit :

ben en fait .. j'ai effacé le cib.xml, lancé hb_gui, appliquer ma config .. et je n'ai pas de fichier cib.xml dans /var/lib/heartbeat / ??????  
 
heu .. la config s'enregistre ou ???


La config est généré par heartbeat (et pas directement par hb_gui) automatiquement.
Relance heartbeat parce que je pense que t'as foutu un joli bordel :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968902
e_esprit
Posté le 24-10-2007 à 14:54:16  profilanswer
 

mogruith a écrit :

une question encore :
 
est ce que dans fstab, ce qui suit doit etre commenté :
/dev/drbd0          /mnt/repl            ext3       noauto     0 0


Oui, ca ne sert à rien.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
n°968911
mogruith
Posté le 24-10-2007 à 15:01:10  profilanswer
 

pom pom pom .. ce n'est plus le bordel ... c'est carrément un apres ouragan .... :(
 
ceci dit je reste positif .... parceque apres il y a de la doc a faire :)


Message édité par mogruith le 24-10-2007 à 15:01:49
n°968929
mogruith
Posté le 24-10-2007 à 15:29:00  profilanswer
 

bon ca remarche .. alors j'ai un truc marrant si je nomme "mount" la ressource filesystem, ca ne marche pas. Si je l'appelle filesystem, ca fonctionne .. strange ?

n°968932
mogruith
Posté le 24-10-2007 à 15:36:33  profilanswer
 

bon en tout ca "rox grave"
 
Encore une fois merci for your help !!!!

n°1038310
snake-jump
Posté le 29-04-2008 à 15:44:13  profilanswer
 

Bonjour a tous  
j'ai quelque problèmes lorsque j'utilise le drbddisk   lorsque j'arrête  heartbeat sur la machine master  la machine slave reprends toutes les ressources sauf  le drbd et le mount  
 
- je voudrais savoir aussi comment faire pour que la machine slave  change son drbd en primaire  
 
voici mon CIB  
 
 
 <cib generated="true" admin_epoch="0" ignore_dtd="false" num_peers="2" have_quorum="1" cib_feature_revision="2.0" crm_feature_set="2.1" dc_uuid="073bf9e2-7229-4209-8803-40287b0d1a3b" epoch="78" num_updates="2" cib-last-written="Tue Apr 29 15:02:30 2008">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-dc-version" name="dc-version" value="0.6.2-node: 000d7573fbf8ac5f0c2835c8739973e826d0671b"/>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1209473748"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="073bf9e2-7229-4209-8803-40287b0d1a3b" uname="serv2" type="normal"/>
       <node id="0de230ca-b3dd-4e7d-9a28-4aac2a493570" uname="serv1" type="normal"/>
     </nodes>
     <resources>
       <primitive id="resource_ip_virtuelle" class="ocf" type="IPaddr2" provider="heartbeat">
         <meta_attributes id="resource_ip_virtuelle_meta_attrs">
           <attributes>
             <nvpair id="resource_ip_virtuelle_metaattr_target_role" name="target_role" value="started"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="resource_ip_virtuelle_instance_attrs">
           <attributes>
             <nvpair id="a6116118-9a60-45a6-b703-5ea9b8f71737" name="ip" value="10.16.10.108"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive id="resource_apache" class="ocf" type="apache" provider="heartbeat">
         <meta_attributes id="resource_apache_meta_attrs">
           <attributes>
             <nvpair id="resource_apache_metaattr_target_role" name="target_role" value="started"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="resource_apache_instance_attrs">
           <attributes>
             <nvpair id="7af025be-fa42-4ce8-9f95-94fe259c027d" name="configfile" value="/etc/apache2/apache2.conf"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive class="ocf" provider="heartbeat" type="Filesystem" id="fs0">
         <meta_attributes id="ma-fs0">
           <attributes>
             <nvpair name="target_role" id="ma-fs0-1" value="started"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="ia-fs0">
           <attributes>
             <nvpair id="ia-fs0-1" name="fstype" value="ext3"/>
             <nvpair id="ia-fs0-2" name="directory" value="/mnt"/>
             <nvpair id="ia-fs0-3" name="device" value="/dev/drbd0"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive class="heartbeat" type="drbddisk" provider="heartbeat" id="DRBD_data">
         <meta_attributes id="DRBD_data_meta_attrs">
           <attributes>
             <nvpair id="DRBD_data_metaattr_target_role" name="target_role" value="stopped"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="DRBD_data_instance_attrs">
           <attributes>
             <nvpair name="1" id="4c3c1566-d9ca-44a9-9562-82793633f06e" value="r0"/>
           </attributes>
         </instance_attributes>
       </primitive>
     </resources>
     <constraints>
       <rsc_location id="location_ip_virtuelle" rsc="resource_ip_virtuelle">
         <rule id="prefered_location_ip_virtuelle" score="INFINITY">
           <expression attribute="#uname" id="21d37a06-2666-4876-8ce3-1f820a3055f2" operation="eq" value="serv1"/>
         </rule>
       </rsc_location>
       <rsc_location id="location_apache" rsc="resource_apache">
         <rule id="prefered_location_apache" score="INFINITY">
           <expression attribute="#uname" id="db26781f-446f-446b-849d-ac846c006689" operation="eq" value="serv1"/>
         </rule>
       </rsc_location>
     </constraints>
   </configuration>
 </cib>
 
 
quelqu'un pourrait m'aider SVP


Message édité par snake-jump le 02-05-2008 à 09:47:42
mood
Publicité
Posté le   profilanswer
 


Aller à :
Ajouter une réponse
  FORUM HardWare.fr
  Linux et OS Alternatifs
  Installation

  Heartbeat et DRBD

 

Sujets relatifs
heartbeat 2 probleme avec le cib.xmlHeartbeat howto
[Résolu] Heartbeat2 et Samba3[debian] apt-get dist-upgrade: plantage mysql suite à update drbd
DRBD sur FreeBSDGros probleme avec DRBD à l aide!!!
Gros probleme avec DRBDprobleme avec Mon et heartbeat
Probleme avec heartbeatcluster Heartbeat : quels fichiers partager ?
Plus de sujets relatifs à : Heartbeat et DRBD


Copyright © 1997-2025 Groupe LDLC (Signaler un contenu illicite / Données personnelles)