<div dir="ltr">Hi Kaushal,<div><br></div><div>Thanks for the detailed reply....let me explain my setup first :- </div><div><br></div><div>1. Ovirt Engine</div><div>2. 4* host as well as storage machine (Host and gluster combined)</div><div>3. Every host has 24 bricks...</div><div><br></div><div>Now whenever the host machine reboot...it can come up but can not join the cluster again and through the following error &quot;Gluster command [&lt;UNKNOWN&gt;] failed on server..&quot;</div><div><br></div><div>Please check my comment in line :- </div><div><br></div><div><span style="font-family:arial,sans-serif;font-size:13px">1. Use the same string for doing the peer probe and for the brick </span><span style="font-family:arial,sans-serif;font-size:13px">address during volume create/add-brick. Ideally, we suggest you use </span><span style="font-family:arial,sans-serif;font-size:13px">properly resolvable FQDNs everywhere. If that is not possible, then </span><span style="font-family:arial,sans-serif;font-size:13px">use only IP addresses. Try to avoid short names.</span></div><div>---------------</div><div><div>[root@cpu05 ~]# gluster peer status</div><div>Number of Peers: 3</div><div><br></div><div>Hostname: <a href="http://cpu03.stack.com">cpu03.stack.com</a></div><div>Uuid: 5729b8c4-e80d-4353-b456-6f467bddbdfb</div><div>State: Peer in Cluster (Connected)</div><div><br></div><div>Hostname: <a href="http://cpu04.stack.com">cpu04.stack.com</a></div><div>Uuid: d272b790-c4b2-4bed-ba68-793656e6d7b0</div><div>State: Peer in Cluster (Connected)</div><div>Other names:</div><div>10.10.0.8</div><div><br></div><div>Hostname: <a href="http://cpu02.stack.com">cpu02.stack.com</a></div><div>Uuid: 8d8a7041-950e-40d0-85f9-58d14340ca25</div><div>State: Peer in Cluster (Connected)</div><div>[root@cpu05 ~]#</div></div><div>----------------</div><div><span style="font-family:arial,sans-serif;font-size:13px">2. During boot up, make sure to launch glusterd only after the network </span><span style="font-family:arial,sans-serif;font-size:13px">is up. This will allow the new peer identification mechanism to do its</span><br style="font-family:arial,sans-serif;font-size:13px"><span style="font-family:arial,sans-serif;font-size:13px">job correctly.</span><br></div><div><span style="font-family:arial,sans-serif;font-size:13px">&gt;&gt; I think the service itself doing the same job....</span></div><div><div><br></div><div>[root@cpu05 ~]# cat /usr/lib/systemd/system/glusterd.service</div><div>[Unit]</div><div>Description=GlusterFS, a clustered file-system server</div><div>After=network.target rpcbind.service</div><div>Before=network-online.target</div><div><br></div><div>[Service]</div><div>Type=forking</div><div>PIDFile=/var/run/glusterd.pid</div><div>LimitNOFILE=65536</div><div>ExecStart=/usr/sbin/glusterd -p /var/run/glusterd.pid</div><div>KillMode=process</div><div><br></div><div>[Install]</div><div>WantedBy=multi-user.target</div><div>[root@cpu05 ~]#</div></div><div>--------------------</div><div><br></div><div>gluster logs :- </div><div><br></div><div><div>[2014-11-24 09:22:22.147471] I [MSGID: 100030] [glusterfsd.c:2018:main] 0-/usr/sbin/glusterd: Started running /usr/sbin/glusterd version 3.6.1 (args: /usr/sbin/glusterd -p /var/run/glusterd.pid)</div><div>[2014-11-24 09:22:22.151565] I [glusterd.c:1214:init] 0-management: Maximum allowed open file descriptors set to 65536</div><div>[2014-11-24 09:22:22.151599] I [glusterd.c:1259:init] 0-management: Using /var/lib/glusterd as working directory</div><div>[2014-11-24 09:22:22.155216] W [rdma.c:4195:__gf_rdma_ctx_create] 0-rpc-transport/rdma: rdma_cm event channel creation failed (No such device)</div><div>[2014-11-24 09:22:22.155264] E [rdma.c:4483:init] 0-rdma.management: Failed to initialize IB Device</div><div>[2014-11-24 09:22:22.155285] E [rpc-transport.c:333:rpc_transport_load] 0-rpc-transport: &#39;rdma&#39; initialization failed</div><div>[2014-11-24 09:22:22.155354] W [rpcsvc.c:1524:rpcsvc_transport_create] 0-rpc-service: cannot create listener, initing the transport failed</div><div>[2014-11-24 09:22:22.156290] I [glusterd.c:413:glusterd_check_gsync_present] 0-glusterd: geo-replication module not installed in the system</div><div>[2014-11-24 09:22:22.161318] I [glusterd-store.c:2043:glusterd_restore_op_version] 0-glusterd: retrieved op-version: 30600</div><div>[2014-11-24 09:22:22.821800] I [glusterd-handler.c:3146:glusterd_friend_add_from_peerinfo] 0-management: connect returned 0</div><div>[2014-11-24 09:22:22.825810] I [glusterd-handler.c:3146:glusterd_friend_add_from_peerinfo] 0-management: connect returned 0</div><div>[2014-11-24 09:22:22.828705] I [glusterd-handler.c:3146:glusterd_friend_add_from_peerinfo] 0-management: connect returned 0</div><div>[2014-11-24 09:22:22.828771] I [rpc-clnt.c:969:rpc_clnt_connection_init] 0-management: setting frame-timeout to 600</div><div>[2014-11-24 09:22:22.832670] I [rpc-clnt.c:969:rpc_clnt_connection_init] 0-management: setting frame-timeout to 600</div><div>[2014-11-24 09:22:22.835919] I [rpc-clnt.c:969:rpc_clnt_connection_init] 0-management: setting frame-timeout to 600</div><div>[2014-11-24 09:22:22.840209] E [glusterd-store.c:4248:glusterd_resolve_all_bricks] 0-glusterd: resolve brick failed in restore</div><div>[2014-11-24 09:22:22.840233] E [xlator.c:425:xlator_init] 0-management: Initialization of volume &#39;management&#39; failed, review your volfile again</div><div>[2014-11-24 09:22:22.840245] E [graph.c:322:glusterfs_graph_init] 0-management: initializing translator failed</div><div>[2014-11-24 09:22:22.840264] E [graph.c:525:glusterfs_graph_activate] 0-graph: init failed</div><div>[2014-11-24 09:22:22.840754] W [glusterfsd.c:1194:cleanup_and_exit] (--&gt; 0-: received signum (0), shutting down</div></div><div><br></div><div>Thanks,</div><div>Punit</div><div><br></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 26, 2014 at 7:14 PM, Kaushal M <span dir="ltr">&lt;<a href="mailto:kshlmster@gmail.com" target="_blank">kshlmster@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Based on the logs I can guess that glusterd is being started before<br>
the network has come up and that the addresses given to bricks do not<br>
directly match the addresses used in during peer probe.<br>
<br>
The gluster_after_reboot log has the line &quot;[2014-11-25<br>
06:46:09.972113] E [glusterd-store.c:2632:glusterd_resolve_all_bricks]<br>
0-glusterd: resolve brick failed in restore&quot;.<br>
<br>
Brick resolution fails when glusterd cannot match the address for the<br>
brick, with one of the peers. Brick resolution happens in two phases,<br>
1. We first try to identify the peer by performing string comparisions<br>
with the brick address and the peer addresses (The peer names will be<br>
the names/addresses that were given when the peer was probed).<br>
2. If we don&#39;t find a match from step 1, we will then resolve all the<br>
brick address and the peer addresses into addrinfo structs, and then<br>
compare these structs to find a match. This process should generally<br>
find a match if available. This will fail only if the network is not<br>
up yet as we cannot resolve addresses.<br>
<br>
The above steps are applicable only to glusterfs versions &gt;=3.6. They<br>
were introduced to reduce problems with peer identification, like the<br>
one you encountered<br>
<br>
Since both of the steps failed to find a match in one run, but<br>
succeeded later, we can come to the conclusion that,<br>
a) the bricks don&#39;t have the exact same string used in peer probe for<br>
their addresses as step 1 failed, and<br>
b) the network was not up in the initial run, as step 2 failed during<br>
the initial run, but passed in the second run.<br>
<br>
Please let me know if my conclusion is correct.<br>
<br>
If it is, you can solve your problem in two ways.<br>
1. Use the same string for doing the peer probe and for the brick<br>
address during volume create/add-brick. Ideally, we suggest you use<br>
properly resolvable FQDNs everywhere. If that is not possible, then<br>
use only IP addresses. Try to avoid short names.<br>
2. During boot up, make sure to launch glusterd only after the network<br>
is up. This will allow the new peer identification mechanism to do its<br>
job correctly.<br>
<br>
<br>
If you have already followed these steps and yet still hit the<br>
problem, then please provide more information (setup, logs, etc.). It<br>
could be much different problem that you are facing.<br>
<br>
~kaushal<br>
<div><div class="h5"><br>
On Wed, Nov 26, 2014 at 4:01 PM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt; Is there any one can help on this ??<br>
&gt;<br>
&gt; Thanks,<br>
&gt; punit<br>
&gt;<br>
&gt; On Wed, Nov 26, 2014 at 9:42 AM, Punit Dambiwal &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; My Glusterfs version is :- glusterfs-3.6.1-1.el7<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Nov 26, 2014 at 1:59 AM, Kanagaraj Mayilsamy &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; [+<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>]<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &quot;Initialization of volume &#39;management&#39; failed, review your volfile<br>
&gt;&gt;&gt; again&quot;, glusterd throws this error when the service is started automatically<br>
&gt;&gt;&gt; after the reboot. But the service is successfully started later manually by<br>
&gt;&gt;&gt; the user.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; can somebody from gluster-users please help on this?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; glusterfs version: 3.5.1<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Thanks,<br>
&gt;&gt;&gt; Kanagaraj<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ----- Original Message -----<br>
&gt;&gt;&gt; &gt; From: &quot;Punit Dambiwal&quot; &lt;<a href="mailto:hypunit@gmail.com">hypunit@gmail.com</a>&gt;<br>
&gt;&gt;&gt; &gt; To: &quot;Kanagaraj&quot; &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt; Cc: <a href="mailto:users@ovirt.org">users@ovirt.org</a><br>
&gt;&gt;&gt; &gt; Sent: Tuesday, November 25, 2014 7:24:45 PM<br>
&gt;&gt;&gt; &gt; Subject: Re: [ovirt-users] Gluster command [&lt;UNKNOWN&gt;] failed on<br>
&gt;&gt;&gt; &gt; server...<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Hi Kanagraj,<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Please check the attached log files....i didn&#39;t find any thing<br>
&gt;&gt;&gt; &gt; special....<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; On Tue, Nov 25, 2014 at 12:12 PM, Kanagaraj &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt; wrote:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;  Do you see any errors in<br>
&gt;&gt;&gt; &gt; &gt; /var/log/glusterfs/etc-glusterfs-glusterd.vol.log or vdsm.log when<br>
&gt;&gt;&gt; &gt; &gt; the<br>
&gt;&gt;&gt; &gt; &gt; service is trying to start automatically after the reboot?<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt; Thanks,<br>
&gt;&gt;&gt; &gt; &gt; Kanagaraj<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt; On 11/24/2014 08:13 PM, Punit Dambiwal wrote:<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt; Hi Kanagaraj,<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;  Yes...once i will start the gluster service and then vdsmd ...the<br>
&gt;&gt;&gt; &gt; &gt; host<br>
&gt;&gt;&gt; &gt; &gt; can connect to cluster...but the question is why it&#39;s not started<br>
&gt;&gt;&gt; &gt; &gt; even it<br>
&gt;&gt;&gt; &gt; &gt; has chkconfig enabled...<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;  I have tested it in two host cluster environment...(Centos 6.6 and<br>
&gt;&gt;&gt; &gt; &gt; centos 7.0) on both hypervisior cluster..it&#39;s failed to reconnect in<br>
&gt;&gt;&gt; &gt; &gt; to<br>
&gt;&gt;&gt; &gt; &gt; cluster after reboot....<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;  In both the environment glusterd enabled for next boot....but it&#39;s<br>
&gt;&gt;&gt; &gt; &gt; failed with the same error....seems it&#39;s bug in either gluster or<br>
&gt;&gt;&gt; &gt; &gt; Ovirt ??<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;  Please help me to find the workaround here if can not resolve<br>
&gt;&gt;&gt; &gt; &gt; it...as<br>
&gt;&gt;&gt; &gt; &gt; without this the Host machine can not connect after reboot....that<br>
&gt;&gt;&gt; &gt; &gt; means<br>
&gt;&gt;&gt; &gt; &gt; engine will consider it as down and every time need to manually start<br>
&gt;&gt;&gt; &gt; &gt; the<br>
&gt;&gt;&gt; &gt; &gt; gluster service and vdsmd... ??<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;  Thanks,<br>
&gt;&gt;&gt; &gt; &gt; Punit<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt; On Mon, Nov 24, 2014 at 10:20 PM, Kanagaraj &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt; &gt; wrote:<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;  From vdsm.log &quot;error: Connection failed. Please check if gluster<br>
&gt;&gt;&gt; &gt; &gt;&gt; daemon<br>
&gt;&gt;&gt; &gt; &gt;&gt; is operational.&quot;<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; Starting glusterd service should fix this issue. &#39;service glusterd<br>
&gt;&gt;&gt; &gt; &gt;&gt; start&#39;<br>
&gt;&gt;&gt; &gt; &gt;&gt; But i am wondering why the glusterd was not started automatically<br>
&gt;&gt;&gt; &gt; &gt;&gt; after<br>
&gt;&gt;&gt; &gt; &gt;&gt; the reboot.<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thanks,<br>
&gt;&gt;&gt; &gt; &gt;&gt; Kanagaraj<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; On 11/24/2014 07:18 PM, Punit Dambiwal wrote:<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; Hi Kanagaraj,<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;  Please find the attached VDSM logs :-<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;  ----------------<br>
&gt;&gt;&gt; &gt; &gt;&gt;  Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:17,182::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Owner.cancelAll requests {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:17,182::task::993::Storage.TaskManager.Task::(_decref)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`1691d409-9b27-4585-8281-5ec26154367a`::ref 0 aborting False<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,393::task::595::Storage.TaskManager.Task::(_updateState)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`994c7bc3-a236-4d03-a732-e068c7ed9ed4`::moving from state init<br>
&gt;&gt;&gt; &gt; &gt;&gt; -&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; state preparing<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::INFO::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,393::logUtils::44::dispatcher::(wrapper) Run and protect:<br>
&gt;&gt;&gt; &gt; &gt;&gt; repoStats(options=None)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::INFO::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,393::logUtils::47::dispatcher::(wrapper) Run and protect:<br>
&gt;&gt;&gt; &gt; &gt;&gt; repoStats, Return response: {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,393::task::1191::Storage.TaskManager.Task::(prepare)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`994c7bc3-a236-4d03-a732-e068c7ed9ed4`::finished: {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,394::task::595::Storage.TaskManager.Task::(_updateState)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`994c7bc3-a236-4d03-a732-e068c7ed9ed4`::moving from state<br>
&gt;&gt;&gt; &gt; &gt;&gt; preparing<br>
&gt;&gt;&gt; &gt; &gt;&gt; -&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; state finished<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,394::resourceManager::940::Storage.ResourceManager.Owner::(releaseAll)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Owner.releaseAll requests {} resources {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,394::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Owner.cancelAll requests {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:32,394::task::993::Storage.TaskManager.Task::(_decref)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`994c7bc3-a236-4d03-a732-e068c7ed9ed4`::ref 0 aborting False<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,550::BindingXMLRPC::1132::vds::(wrapper) client<br>
&gt;&gt;&gt; &gt; &gt;&gt; [10.10.10.2]::call<br>
&gt;&gt;&gt; &gt; &gt;&gt; getCapabilities with () {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,553::utils::738::root::(execCmd)<br>
&gt;&gt;&gt; &gt; &gt;&gt; /sbin/ip route show to <a href="http://0.0.0.0/0" target="_blank">0.0.0.0/0</a> table all (cwd None)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,560::utils::758::root::(execCmd)<br>
&gt;&gt;&gt; &gt; &gt;&gt; SUCCESS: &lt;err&gt; = &#39;&#39;; &lt;rc&gt; = 0<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,588::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,592::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift-object&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,593::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift-plugin&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,598::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift-account&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,598::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift-proxy&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,598::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift-doc&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,599::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;gluster-swift-container&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,599::caps::728::root::(_getKeyPackages) rpm package<br>
&gt;&gt;&gt; &gt; &gt;&gt; (&#39;glusterfs-geo-replication&#39;,) not found<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24 21:41:41,600::caps::646::root::(get)<br>
&gt;&gt;&gt; &gt; &gt;&gt; VirtioRNG DISABLED: libvirt version 0.10.2-29.el6_5.9 required &gt;=<br>
&gt;&gt;&gt; &gt; &gt;&gt; 0.10.2-31<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,603::BindingXMLRPC::1139::vds::(wrapper) return<br>
&gt;&gt;&gt; &gt; &gt;&gt; getCapabilities<br>
&gt;&gt;&gt; &gt; &gt;&gt; with {&#39;status&#39;: {&#39;message&#39;: &#39;Done&#39;, &#39;code&#39;: 0}, &#39;info&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;HBAInventory&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;iSCSI&#39;: [{&#39;InitiatorName&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;iqn.1994-05.com.redhat:32151ce183c8&#39;}],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;FC&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; []}, &#39;packages2&#39;: {&#39;kernel&#39;: {&#39;release&#39;: &#39;431.el6.x86_64&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;buildtime&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; 1385061309.0, &#39;version&#39;: &#39;2.6.32&#39;}, &#39;glusterfs-rdma&#39;: {&#39;release&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1.el6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;buildtime&#39;: 1403622628L, &#39;version&#39;: &#39;3.5.1&#39;}, &#39;glusterfs-fuse&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;release&#39;: &#39;1.el6&#39;, &#39;buildtime&#39;: 1403622628L, &#39;version&#39;: &#39;3.5.1&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;spice-server&#39;: {&#39;release&#39;: &#39;6.el6_5.2&#39;, &#39;buildtime&#39;: 1402324637L,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;version&#39;: &#39;0.12.4&#39;}, &#39;vdsm&#39;: {&#39;release&#39;: &#39;1.gitdb83943.el6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;buildtime&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; 1412784567L, &#39;version&#39;: &#39;4.16.7&#39;}, &#39;qemu-kvm&#39;: {&#39;release&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;2.415.el6_5.10&#39;, &#39;buildtime&#39;: 1402435700L, &#39;version&#39;: &#39;0.12.1.2&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;qemu-img&#39;: {&#39;release&#39;: &#39;2.415.el6_5.10&#39;, &#39;buildtime&#39;: 1402435700L,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;version&#39;: &#39;0.12.1.2&#39;}, &#39;libvirt&#39;: {&#39;release&#39;: &#39;29.el6_5.9&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;buildtime&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; 1402404612L, &#39;version&#39;: &#39;0.10.2&#39;}, &#39;glusterfs&#39;: {&#39;release&#39;: &#39;1.el6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;buildtime&#39;: 1403622628L, &#39;version&#39;: &#39;3.5.1&#39;}, &#39;mom&#39;: {&#39;release&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;2.el6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;buildtime&#39;: 1403794344L, &#39;version&#39;: &#39;0.4.1&#39;}, &#39;glusterfs-server&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;release&#39;: &#39;1.el6&#39;, &#39;buildtime&#39;: 1403622628L, &#39;version&#39;: &#39;3.5.1&#39;}},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;numaNodeDistance&#39;: {&#39;1&#39;: [20, 10], &#39;0&#39;: [10, 20]}, &#39;cpuModel&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;Intel(R)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Xeon(R) CPU           X5650  @ 2.67GHz&#39;, &#39;liveMerge&#39;: &#39;false&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hooks&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;cpuSockets&#39;: &#39;2&#39;, &#39;vmTypes&#39;: [&#39;kvm&#39;], &#39;selinux&#39;: {&#39;mode&#39;: &#39;1&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;kdumpStatus&#39;: 0, &#39;supportedProtocols&#39;: [&#39;2.2&#39;, &#39;2.3&#39;], &#39;networks&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;ovirtmgmt&#39;: {&#39;iface&#39;: u&#39;bond0.10&#39;, &#39;addr&#39;: &#39;43.252.176.16&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bridged&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; False, &#39;ipv6addrs&#39;: [&#39;fe80::62eb:69ff:fe20:b46c/64&#39;], &#39;mtu&#39;: &#39;1500&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bootproto4&#39;: &#39;none&#39;, &#39;netmask&#39;: &#39;255.255.255.0&#39;, &#39;ipv4addrs&#39;: [&#39;<br>
&gt;&gt;&gt; &gt; &gt;&gt; <a href="http://43.252.176.16/24" target="_blank">43.252.176.16/24</a>&#39; &lt;<a href="http://43.252.176.16/24%27" target="_blank">http://43.252.176.16/24%27</a>&gt;], &#39;interface&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; u&#39;bond0.10&#39;, &#39;ipv6gateway&#39;: &#39;::&#39;, &#39;gateway&#39;: &#39;43.25.17.1&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;Internal&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;iface&#39;: &#39;Internal&#39;, &#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {&#39;DEFROUTE&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;HOTPLUG&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;, &#39;MTU&#39;: &#39;9000&#39;, &#39;DELAY&#39;: &#39;0&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;BOOTPROTO&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;none&#39;, &#39;STP&#39;: &#39;off&#39;, &#39;DEVICE&#39;: &#39;Internal&#39;, &#39;TYPE&#39;: &#39;Bridge&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;}, &#39;bridged&#39;: True, &#39;ipv6addrs&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;fe80::210:18ff:fecd:daac/64&#39;],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;gateway&#39;: &#39;&#39;, &#39;bootproto4&#39;: &#39;none&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;stp&#39;: &#39;off&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv4addrs&#39;: [], &#39;mtu&#39;: &#39;9000&#39;, &#39;ipv6gateway&#39;: &#39;::&#39;, &#39;ports&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;bond1.100&#39;]}, &#39;storage&#39;: {&#39;iface&#39;: u&#39;bond1&#39;, &#39;addr&#39;: &#39;10.10.10.6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bridged&#39;: False, &#39;ipv6addrs&#39;: [&#39;fe80::210:18ff:fecd:daac/64&#39;],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;mtu&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;9000&#39;, &#39;bootproto4&#39;: &#39;none&#39;, &#39;netmask&#39;: &#39;255.255.255.0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv4addrs&#39;: [&#39;<br>
&gt;&gt;&gt; &gt; &gt;&gt; <a href="http://10.10.10.6/24" target="_blank">10.10.10.6/24</a>&#39; &lt;<a href="http://10.10.10.6/24%27" target="_blank">http://10.10.10.6/24%27</a>&gt;], &#39;interface&#39;: u&#39;bond1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6gateway&#39;: &#39;::&#39;, &#39;gateway&#39;: &#39;&#39;}, &#39;VMNetwork&#39;: {&#39;iface&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;VMNetwork&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {&#39;DEFROUTE&#39;: &#39;no&#39;, &#39;HOTPLUG&#39;: &#39;no&#39;, &#39;MTU&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1500&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;DELAY&#39;: &#39;0&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;BOOTPROTO&#39;: &#39;none&#39;, &#39;STP&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;off&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;DEVICE&#39;: &#39;VMNetwork&#39;, &#39;TYPE&#39;: &#39;Bridge&#39;, &#39;ONBOOT&#39;: &#39;no&#39;}, &#39;bridged&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; True,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;: [&#39;fe80::62eb:69ff:fe20:b46c/64&#39;], &#39;gateway&#39;: &#39;&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bootproto4&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;none&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;stp&#39;: &#39;off&#39;, &#39;ipv4addrs&#39;: [], &#39;mtu&#39;: &#39;1500&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6gateway&#39;: &#39;::&#39;, &#39;ports&#39;: [&#39;bond0.36&#39;]}}, &#39;bridges&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;Internal&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {&#39;DEFROUTE&#39;: &#39;no&#39;, &#39;HOTPLUG&#39;: &#39;no&#39;, &#39;MTU&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;9000&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;DELAY&#39;: &#39;0&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;BOOTPROTO&#39;: &#39;none&#39;, &#39;STP&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;off&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;DEVICE&#39;: &#39;Internal&#39;, &#39;TYPE&#39;: &#39;Bridge&#39;, &#39;ONBOOT&#39;: &#39;no&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;fe80::210:18ff:fecd:daac/64&#39;], &#39;mtu&#39;: &#39;9000&#39;, &#39;netmask&#39;: &#39;&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;stp&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;off&#39;, &#39;ipv4addrs&#39;: [], &#39;ipv6gateway&#39;: &#39;::&#39;, &#39;gateway&#39;: &#39;&#39;, &#39;opts&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;topology_change_detected&#39;: &#39;0&#39;, &#39;multicast_last_member_count&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;2&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hash_elasticity&#39;: &#39;4&#39;, &#39;multicast_query_response_interval&#39;: &#39;999&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_snooping&#39;: &#39;1&#39;, &#39;multicast_startup_query_interval&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;3124&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hello_timer&#39;: &#39;31&#39;, &#39;multicast_querier_interval&#39;: &#39;25496&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;max_age&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1999&#39;, &#39;hash_max&#39;: &#39;512&#39;, &#39;stp_state&#39;: &#39;0&#39;, &#39;root_id&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;8000.001018cddaac&#39;, &#39;priority&#39;: &#39;32768&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_membership_interval&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;25996&#39;, &#39;root_path_cost&#39;: &#39;0&#39;, &#39;root_port&#39;: &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_querier&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_startup_query_count&#39;: &#39;2&#39;, &#39;hello_time&#39;: &#39;199&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;topology_change&#39;: &#39;0&#39;, &#39;bridge_id&#39;: &#39;8000.001018cddaac&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;topology_change_timer&#39;: &#39;0&#39;, &#39;ageing_time&#39;: &#39;29995&#39;, &#39;gc_timer&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;31&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;group_addr&#39;: &#39;1:80:c2:0:0:0&#39;, &#39;tcn_timer&#39;: &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_query_interval&#39;: &#39;12498&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_last_member_interval&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;99&#39;, &#39;multicast_router&#39;: &#39;1&#39;, &#39;forward_delay&#39;: &#39;0&#39;}, &#39;ports&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;bond1.100&#39;]}, &#39;VMNetwork&#39;: {&#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {&#39;DEFROUTE&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;HOTPLUG&#39;: &#39;no&#39;, &#39;MTU&#39;: &#39;1500&#39;, &#39;DELAY&#39;: &#39;0&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;BOOTPROTO&#39;: &#39;none&#39;, &#39;STP&#39;: &#39;off&#39;, &#39;DEVICE&#39;: &#39;VMNetwork&#39;, &#39;TYPE&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;Bridge&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ONBOOT&#39;: &#39;no&#39;}, &#39;ipv6addrs&#39;: [&#39;fe80::62eb:69ff:fe20:b46c/64&#39;],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;mtu&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1500&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;stp&#39;: &#39;off&#39;, &#39;ipv4addrs&#39;: [], &#39;ipv6gateway&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;::&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;gateway&#39;: &#39;&#39;, &#39;opts&#39;: {&#39;topology_change_detected&#39;: &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_last_member_count&#39;: &#39;2&#39;, &#39;hash_elasticity&#39;: &#39;4&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_query_response_interval&#39;: &#39;999&#39;, &#39;multicast_snooping&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_startup_query_interval&#39;: &#39;3124&#39;, &#39;hello_timer&#39;: &#39;131&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_querier_interval&#39;: &#39;25496&#39;, &#39;max_age&#39;: &#39;1999&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hash_max&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;512&#39;, &#39;stp_state&#39;: &#39;0&#39;, &#39;root_id&#39;: &#39;8000.60eb6920b46c&#39;, &#39;priority&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;32768&#39;, &#39;multicast_membership_interval&#39;: &#39;25996&#39;, &#39;root_path_cost&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;root_port&#39;: &#39;0&#39;, &#39;multicast_querier&#39;: &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_startup_query_count&#39;: &#39;2&#39;, &#39;hello_time&#39;: &#39;199&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;topology_change&#39;: &#39;0&#39;, &#39;bridge_id&#39;: &#39;8000.60eb6920b46c&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;topology_change_timer&#39;: &#39;0&#39;, &#39;ageing_time&#39;: &#39;29995&#39;, &#39;gc_timer&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;31&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;group_addr&#39;: &#39;1:80:c2:0:0:0&#39;, &#39;tcn_timer&#39;: &#39;0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_query_interval&#39;: &#39;12498&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;multicast_last_member_interval&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;99&#39;, &#39;multicast_router&#39;: &#39;1&#39;, &#39;forward_delay&#39;: &#39;0&#39;}, &#39;ports&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;bond0.36&#39;]}}, &#39;uuid&#39;: &#39;44454C4C-4C00-1057-8053-B7C04F504E31&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;lastClientIface&#39;: &#39;bond1&#39;, &#39;nics&#39;: {&#39;eth3&#39;: {&#39;permhwaddr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;00:10:18:cd:da:ae&#39;, &#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {&#39;SLAVE&#39;: &#39;yes&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;NM_CONTROLLED&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;, &#39;MTU&#39;: &#39;9000&#39;, &#39;HWADDR&#39;: &#39;00:10:18:cd:da:ae&#39;, &#39;MASTER&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bond1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;DEVICE&#39;: &#39;eth3&#39;, &#39;ONBOOT&#39;: &#39;no&#39;}, &#39;ipv6addrs&#39;: [], &#39;mtu&#39;: &#39;9000&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netmask&#39;: &#39;&#39;, &#39;ipv4addrs&#39;: [], &#39;hwaddr&#39;: &#39;00:10:18:cd:da:ac&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;speed&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; 1000}, &#39;eth2&#39;: {&#39;permhwaddr&#39;: &#39;00:10:18:cd:da:ac&#39;, &#39;addr&#39;: &#39;&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;cfg&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;SLAVE&#39;: &#39;yes&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;MTU&#39;: &#39;9000&#39;, &#39;HWADDR&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;00:10:18:cd:da:ac&#39;, &#39;MASTER&#39;: &#39;bond1&#39;, &#39;DEVICE&#39;: &#39;eth2&#39;, &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;: [], &#39;mtu&#39;: &#39;9000&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;ipv4addrs&#39;: [],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hwaddr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;00:10:18:cd:da:ac&#39;, &#39;speed&#39;: 1000}, &#39;eth1&#39;: {&#39;permhwaddr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;60:eb:69:20:b4:6d&#39;, &#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {&#39;SLAVE&#39;: &#39;yes&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;NM_CONTROLLED&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;, &#39;MTU&#39;: &#39;1500&#39;, &#39;HWADDR&#39;: &#39;60:eb:69:20:b4:6d&#39;, &#39;MASTER&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bond0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;DEVICE&#39;: &#39;eth1&#39;, &#39;ONBOOT&#39;: &#39;yes&#39;}, &#39;ipv6addrs&#39;: [], &#39;mtu&#39;: &#39;1500&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netmask&#39;: &#39;&#39;, &#39;ipv4addrs&#39;: [], &#39;hwaddr&#39;: &#39;60:eb:69:20:b4:6c&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;speed&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; 1000}, &#39;eth0&#39;: {&#39;permhwaddr&#39;: &#39;60:eb:69:20:b4:6c&#39;, &#39;addr&#39;: &#39;&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;cfg&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;SLAVE&#39;: &#39;yes&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;MTU&#39;: &#39;1500&#39;, &#39;HWADDR&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;60:eb:69:20:b4:6c&#39;, &#39;MASTER&#39;: &#39;bond0&#39;, &#39;DEVICE&#39;: &#39;eth0&#39;, &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;yes&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;: [], &#39;mtu&#39;: &#39;1500&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;ipv4addrs&#39;: [],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hwaddr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;60:eb:69:20:b4:6c&#39;, &#39;speed&#39;: 1000}}, &#39;software_revision&#39;: &#39;1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;clusterLevels&#39;: [&#39;3.0&#39;, &#39;3.1&#39;, &#39;3.2&#39;, &#39;3.3&#39;, &#39;3.4&#39;, &#39;3.5&#39;],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;cpuFlags&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; u&#39;fpu,vme,de,pse,tsc,msr,pae,mce,cx8,apic,sep,mtrr,pge,mca,cmov,pat,pse36,clflush,dts,acpi,mmx,fxsr,sse,sse2,ss,ht,tm,pbe,syscall,nx,pdpe1gb,rdtscp,lm,constant_tsc,arch_perfmon,pebs,bts,rep_good,xtopology,nonstop_tsc,pni,pclmulqdq,dtes64,monitor,ds_cpl,vmx,smx,est,tm2,ssse3,cx16,xtpr,pdcm,pcid,dca,sse4_1,sse4_2,popcnt,aes,lahf_lm,tpr_shadow,vnmi,flexpriority,ept,vpid,model_Nehalem,model_Conroe,model_coreduo,model_core2duo,model_Penryn,model_Westmere,model_n270&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ISCSIInitiatorName&#39;: &#39;iqn.1994-05.com.redhat:32151ce183c8&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netConfigDirty&#39;: &#39;False&#39;, &#39;supportedENGINEs&#39;: [&#39;3.0&#39;, &#39;3.1&#39;, &#39;3.2&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;3.3&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;3.4&#39;, &#39;3.5&#39;], &#39;autoNumaBalancing&#39;: 2, &#39;reservedMem&#39;: &#39;321&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;bondings&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;bond4&#39;: {&#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {}, &#39;mtu&#39;: &#39;1500&#39;, &#39;netmask&#39;: &#39;&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;slaves&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [], &#39;hwaddr&#39;: &#39;00:00:00:00:00:00&#39;}, &#39;bond0&#39;: {&#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;HOTPLUG&#39;: &#39;no&#39;, &#39;MTU&#39;: &#39;1500&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;BONDING_OPTS&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;mode=4 miimon=100&#39;, &#39;DEVICE&#39;: &#39;bond0&#39;, &#39;ONBOOT&#39;: &#39;yes&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;fe80::62eb:69ff:fe20:b46c/64&#39;], &#39;mtu&#39;: &#39;1500&#39;, &#39;netmask&#39;: &#39;&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv4addrs&#39;: [], &#39;hwaddr&#39;: &#39;60:eb:69:20:b4:6c&#39;, &#39;slaves&#39;: [&#39;eth0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;eth1&#39;],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;opts&#39;: {&#39;miimon&#39;: &#39;100&#39;, &#39;mode&#39;: &#39;4&#39;}}, &#39;bond1&#39;: {&#39;addr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;10.10.10.6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;cfg&#39;: {&#39;DEFROUTE&#39;: &#39;no&#39;, &#39;IPADDR&#39;: &#39;10.10.10.6&#39;, &#39;HOTPLUG&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;MTU&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;9000&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;NETMASK&#39;: &#39;255.255.255.0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;BOOTPROTO&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;none&#39;, &#39;BONDING_OPTS&#39;: &#39;mode=4 miimon=100&#39;, &#39;DEVICE&#39;: &#39;bond1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;}, &#39;ipv6addrs&#39;: [&#39;fe80::210:18ff:fecd:daac/64&#39;], &#39;mtu&#39;: &#39;9000&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netmask&#39;: &#39;255.255.255.0&#39;, &#39;ipv4addrs&#39;: [&#39;<a href="http://10.10.10.6/24" target="_blank">10.10.10.6/24</a>&#39;<br>
&gt;&gt;&gt; &gt; &gt;&gt; &lt;<a href="http://10.10.10.6/24%27" target="_blank">http://10.10.10.6/24%27</a>&gt;], &#39;hwaddr&#39;: &#39;00:10:18:cd:da:ac&#39;, &#39;slaves&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [&#39;eth2&#39;, &#39;eth3&#39;], &#39;opts&#39;: {&#39;miimon&#39;: &#39;100&#39;, &#39;mode&#39;: &#39;4&#39;}}, &#39;bond2&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {}, &#39;mtu&#39;: &#39;1500&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;slaves&#39;: [],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;hwaddr&#39;: &#39;00:00:00:00:00:00&#39;}, &#39;bond3&#39;: {&#39;addr&#39;: &#39;&#39;, &#39;cfg&#39;: {},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;mtu&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1500&#39;, &#39;netmask&#39;: &#39;&#39;, &#39;slaves&#39;: [], &#39;hwaddr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;00:00:00:00:00:00&#39;}},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;software_version&#39;: &#39;4.16&#39;, &#39;memSize&#39;: &#39;24019&#39;, &#39;cpuSpeed&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;2667.000&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;numaNodes&#39;: {u&#39;1&#39;: {&#39;totalMemory&#39;: &#39;12288&#39;, &#39;cpus&#39;: [6, 7, 8, 9,<br>
&gt;&gt;&gt; &gt; &gt;&gt; 10, 11,<br>
&gt;&gt;&gt; &gt; &gt;&gt; 18, 19, 20, 21, 22, 23]}, u&#39;0&#39;: {&#39;totalMemory&#39;: &#39;12278&#39;, &#39;cpus&#39;: [0,<br>
&gt;&gt;&gt; &gt; &gt;&gt; 1, 2,<br>
&gt;&gt;&gt; &gt; &gt;&gt; 3, 4, 5, 12, 13, 14, 15, 16, 17]}}, &#39;version_name&#39;: &#39;Snow Man&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;vlans&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;bond0.10&#39;: {&#39;iface&#39;: &#39;bond0&#39;, &#39;addr&#39;: &#39;43.25.17.16&#39;, &#39;cfg&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;DEFROUTE&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;yes&#39;, &#39;VLAN&#39;: &#39;yes&#39;, &#39;IPADDR&#39;: &#39;43.25.17.16&#39;, &#39;HOTPLUG&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;GATEWAY&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;43.25.17.1&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;NETMASK&#39;: &#39;255.255.255.0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;BOOTPROTO&#39;: &#39;none&#39;, &#39;DEVICE&#39;: &#39;bond0.10&#39;, &#39;MTU&#39;: &#39;1500&#39;, &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;yes&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;: [&#39;fe80::62eb:69ff:fe20:b46c/64&#39;], &#39;vlanid&#39;: 10, &#39;mtu&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1500&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netmask&#39;: &#39;255.255.255.0&#39;, &#39;ipv4addrs&#39;: [&#39;<a href="http://43.25.17.16/24" target="_blank">43.25.17.16/24</a>&#39;]<br>
&gt;&gt;&gt; &gt; &gt;&gt; &lt;<a href="http://43.25.17.16/24%27%5D" target="_blank">http://43.25.17.16/24%27%5D</a>&gt;}, &#39;bond0.36&#39;: {&#39;iface&#39;: &#39;bond0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;addr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;&#39;, &#39;cfg&#39;: {&#39;BRIDGE&#39;: &#39;VMNetwork&#39;, &#39;VLAN&#39;: &#39;yes&#39;, &#39;HOTPLUG&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;MTU&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1500&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;DEVICE&#39;: &#39;bond0.36&#39;, &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;: [&#39;fe80::62eb:69ff:fe20:b46c/64&#39;], &#39;vlanid&#39;: 36, &#39;mtu&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;1500&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netmask&#39;: &#39;&#39;, &#39;ipv4addrs&#39;: []}, &#39;bond1.100&#39;: {&#39;iface&#39;: &#39;bond1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;addr&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;&#39;, &#39;cfg&#39;: {&#39;BRIDGE&#39;: &#39;Internal&#39;, &#39;VLAN&#39;: &#39;yes&#39;, &#39;HOTPLUG&#39;: &#39;no&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;MTU&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;9000&#39;, &#39;NM_CONTROLLED&#39;: &#39;no&#39;, &#39;DEVICE&#39;: &#39;bond1.100&#39;, &#39;ONBOOT&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;no&#39;},<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;ipv6addrs&#39;: [&#39;fe80::210:18ff:fecd:daac/64&#39;], &#39;vlanid&#39;: 100, &#39;mtu&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;9000&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;netmask&#39;: &#39;&#39;, &#39;ipv4addrs&#39;: []}}, &#39;cpuCores&#39;: &#39;12&#39;, &#39;kvmEnabled&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;true&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;guestOverhead&#39;: &#39;65&#39;, &#39;cpuThreads&#39;: &#39;24&#39;, &#39;emulatedMachines&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; [u&#39;rhel6.5.0&#39;, u&#39;pc&#39;, u&#39;rhel6.4.0&#39;, u&#39;rhel6.3.0&#39;, u&#39;rhel6.2.0&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; u&#39;rhel6.1.0&#39;, u&#39;rhel6.0.0&#39;, u&#39;rhel5.5.0&#39;, u&#39;rhel5.4.4&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; u&#39;rhel5.4.0&#39;],<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;operatingSystem&#39;: {&#39;release&#39;: &#39;5.el6.centos.11.1&#39;, &#39;version&#39;: &#39;6&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;name&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;RHEL&#39;}, &#39;lastClient&#39;: &#39;10.10.10.2&#39;}}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,620::BindingXMLRPC::1132::vds::(wrapper) client<br>
&gt;&gt;&gt; &gt; &gt;&gt; [10.10.10.2]::call<br>
&gt;&gt;&gt; &gt; &gt;&gt; getHardwareInfo with () {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,621::BindingXMLRPC::1139::vds::(wrapper) return<br>
&gt;&gt;&gt; &gt; &gt;&gt; getHardwareInfo<br>
&gt;&gt;&gt; &gt; &gt;&gt; with {&#39;status&#39;: {&#39;message&#39;: &#39;Done&#39;, &#39;code&#39;: 0}, &#39;info&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; {&#39;systemProductName&#39;: &#39;CS24-TY&#39;, &#39;systemSerialNumber&#39;: &#39;7LWSPN1&#39;,<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;systemFamily&#39;: &#39;Server&#39;, &#39;systemVersion&#39;: &#39;A00&#39;, &#39;systemUUID&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;44454c4c-4c00-1057-8053-b7c04f504e31&#39;, &#39;systemManufacturer&#39;:<br>
&gt;&gt;&gt; &gt; &gt;&gt; &#39;Dell&#39;}}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:41,733::BindingXMLRPC::1132::vds::(wrapper) client<br>
&gt;&gt;&gt; &gt; &gt;&gt; [10.10.10.2]::call<br>
&gt;&gt;&gt; &gt; &gt;&gt; hostsList with () {} flowID [222e8036]<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::ERROR::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:44,753::BindingXMLRPC::1148::vds::(wrapper) vdsm exception<br>
&gt;&gt;&gt; &gt; &gt;&gt; occured<br>
&gt;&gt;&gt; &gt; &gt;&gt; Traceback (most recent call last):<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;/usr/share/vdsm/rpc/BindingXMLRPC.py&quot;, line 1135, in wrapper<br>
&gt;&gt;&gt; &gt; &gt;&gt;     res = f(*args, **kwargs)<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;/usr/share/vdsm/gluster/api.py&quot;, line 54, in wrapper<br>
&gt;&gt;&gt; &gt; &gt;&gt;     rv = func(*args, **kwargs)<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;/usr/share/vdsm/gluster/api.py&quot;, line 251, in hostsList<br>
&gt;&gt;&gt; &gt; &gt;&gt;     return {&#39;hosts&#39;: self.svdsmProxy.glusterPeerStatus()}<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;/usr/share/vdsm/supervdsm.py&quot;, line 50, in __call__<br>
&gt;&gt;&gt; &gt; &gt;&gt;     return callMethod()<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;/usr/share/vdsm/supervdsm.py&quot;, line 48, in &lt;lambda&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;     **kwargs)<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;&lt;string&gt;&quot;, line 2, in glusterPeerStatus<br>
&gt;&gt;&gt; &gt; &gt;&gt;   File &quot;/usr/lib64/python2.6/multiprocessing/managers.py&quot;, line 740,<br>
&gt;&gt;&gt; &gt; &gt;&gt; in<br>
&gt;&gt;&gt; &gt; &gt;&gt; _callmethod<br>
&gt;&gt;&gt; &gt; &gt;&gt;     raise convert_to_error(kind, result)<br>
&gt;&gt;&gt; &gt; &gt;&gt; GlusterCmdExecFailedException: Command execution failed<br>
&gt;&gt;&gt; &gt; &gt;&gt; error: Connection failed. Please check if gluster daemon is<br>
&gt;&gt;&gt; &gt; &gt;&gt; operational.<br>
&gt;&gt;&gt; &gt; &gt;&gt; return code: 1<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,949::task::595::Storage.TaskManager.Task::(_updateState)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`c9042986-c978-4b08-adb2-616f5299e115`::moving from state init<br>
&gt;&gt;&gt; &gt; &gt;&gt; -&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; state preparing<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::INFO::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,950::logUtils::44::dispatcher::(wrapper) Run and protect:<br>
&gt;&gt;&gt; &gt; &gt;&gt; repoStats(options=None)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::INFO::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,950::logUtils::47::dispatcher::(wrapper) Run and protect:<br>
&gt;&gt;&gt; &gt; &gt;&gt; repoStats, Return response: {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,950::task::1191::Storage.TaskManager.Task::(prepare)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`c9042986-c978-4b08-adb2-616f5299e115`::finished: {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,950::task::595::Storage.TaskManager.Task::(_updateState)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`c9042986-c978-4b08-adb2-616f5299e115`::moving from state<br>
&gt;&gt;&gt; &gt; &gt;&gt; preparing<br>
&gt;&gt;&gt; &gt; &gt;&gt; -&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; state finished<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,951::resourceManager::940::Storage.ResourceManager.Owner::(releaseAll)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Owner.releaseAll requests {} resources {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,951::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Owner.cancelAll requests {}<br>
&gt;&gt;&gt; &gt; &gt;&gt; Thread-13::DEBUG::2014-11-24<br>
&gt;&gt;&gt; &gt; &gt;&gt; 21:41:50,951::task::993::Storage.TaskManager.Task::(_decref)<br>
&gt;&gt;&gt; &gt; &gt;&gt; Task=`c9042986-c978-4b08-adb2-616f5299e115`::ref 0 aborting False<br>
&gt;&gt;&gt; &gt; &gt;&gt;  -------------------------------<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;  [root@compute4 ~]# service glusterd status<br>
&gt;&gt;&gt; &gt; &gt;&gt; glusterd is stopped<br>
&gt;&gt;&gt; &gt; &gt;&gt; [root@compute4 ~]# chkconfig --list | grep glusterd<br>
&gt;&gt;&gt; &gt; &gt;&gt; glusterd        0:off   1:off   2:on    3:on    4:on    5:on<br>
&gt;&gt;&gt; &gt; &gt;&gt; 6:off<br>
&gt;&gt;&gt; &gt; &gt;&gt; [root@compute4 ~]#<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;  Thanks,<br>
&gt;&gt;&gt; &gt; &gt;&gt; Punit<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; On Mon, Nov 24, 2014 at 6:36 PM, Kanagaraj &lt;<a href="mailto:kmayilsa@redhat.com">kmayilsa@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt; wrote:<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  Can you send the corresponding error in vdsm.log from the host?<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Also check if glusterd service is running.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Thanks,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Kanagaraj<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; On 11/24/2014 03:39 PM, Punit Dambiwal wrote:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;   Hi,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  After reboot my Hypervisior host can not activate again in the<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; cluster<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; and failed with the following error :-<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  Gluster command [&lt;UNKNOWN&gt;] failed on server...<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  Engine logs :-<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  2014-11-24 18:05:28,397 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterVolumesListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-64) START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterVolumesListVDSCommand(HostName = Compute4, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 33648a90-200c-45ca-89d5-1ce305d79a6a), log id: 5f251c90<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:30,609 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterVolumesListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-64) FINISH,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterVolumesListVDSCommand,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; return:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; {26ae1672-ee09-4a38-8fd2-72dd9974cc2b=org.ovirt.engine.core.common.businessentities.gluster.GlusterVolumeEntity@d95203e0},<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; log id: 5f251c90<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:33,768 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.ActivateVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (ajp--127.0.0.1-8702-8)<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [287d570d] Lock Acquired to object EngineLock [exclusiveLocks= key:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a value: VDS<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; , sharedLocks= ]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:33,795 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.ActivateVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) [287d570d] Running command:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; ActivateVdsCommand internal: false. Entities affected :  ID:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a Type: VDSAction group<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; MANIPULATE_HOST<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; with role type ADMIN<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:33,796 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.ActivateVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) [287d570d] Before acquiring<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; lock in<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; order to prevent monitoring for host Compute5 from data-center<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SV_WTC<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:33,797 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.ActivateVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) [287d570d] Lock acquired, from<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; now a<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; monitoring of host will be skipped for host Compute5 from<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; data-center<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SV_WTC<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:33,817 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.vdsbroker.SetVdsStatusVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) [287d570d] START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SetVdsStatusVDSCommand(HostName = Compute5, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a, status=Unassigned,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; nonOperationalReason=NONE, stopSpmFailureLogged=false), log id:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 1cbc7311<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:33,820 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.vdsbroker.SetVdsStatusVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) [287d570d] FINISH,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SetVdsStatusVDSCommand, log id: 1cbc7311<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:34,086 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.ActivateVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) Activate finished. Lock<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; released.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Monitoring can run now for host Compute5 from data-center SV_WTC<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:34,088 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) Correlation ID: 287d570d, Job<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; ID:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 5ef8e4d6-b2bc-469e-8e81-7ef74b2a001a, Call Stack: null, Custom<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Event ID:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; -1, Message: Host Compute5 was activated by admin.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:34,090 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.ActivateVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-45) Lock freed to object EngineLock<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [exclusiveLocks= key: 0bf6b00f-7947-4411-b55a-cc5eea2b381a value:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; VDS<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; , sharedLocks= ]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:35,792 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterVolumesListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-55) [3706e836] START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterVolumesListVDSCommand(HostName = Compute4, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 33648a90-200c-45ca-89d5-1ce305d79a6a), log id: 48a0c832<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,064 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.vdsbroker.GetHardwareInfoVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GetHardwareInfoVDSCommand(HostName = Compute5, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; vds=Host[Compute5,0bf6b00f-7947-4411-b55a-cc5eea2b381a]), log id:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 6d560cc2<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,074 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.vdsbroker.GetHardwareInfoVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) FINISH,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GetHardwareInfoVDSCommand, log<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; id: 6d560cc2<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,093 WARN<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.vdsbroker.VdsManager]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) Host Compute5 is running with<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; disabled<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SELinux.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,127 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.bll.HandleVdsCpuFlagsOrClusterChangedCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [2b4a51cf] Running command:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; HandleVdsCpuFlagsOrClusterChangedCommand internal: true. Entities<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; affected<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; :  ID: 0bf6b00f-7947-4411-b55a-cc5eea2b381a Type: VDS<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,147 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterServersListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [2b4a51cf] START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterServersListVDSCommand(HostName = Compute5, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a), log id: 4faed87<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,164 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterServersListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [2b4a51cf] FINISH,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterServersListVDSCommand, log id: 4faed87<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,189 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.SetNonOperationalVdsCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [4a84c4e5] Running command:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SetNonOperationalVdsCommand internal: true. Entities affected :<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; ID:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a Type: VDS<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,206 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.vdsbroker.SetVdsStatusVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [4a84c4e5] START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SetVdsStatusVDSCommand(HostName = Compute5, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a, status=NonOperational,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; nonOperationalReason=GLUSTER_COMMAND_FAILED,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; stopSpmFailureLogged=false),<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; log id: fed5617<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,209 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.vdsbroker.SetVdsStatusVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [4a84c4e5] FINISH,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SetVdsStatusVDSCommand, log id: fed5617<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,223 ERROR<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [4a84c4e5] Correlation ID:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 4a84c4e5,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Job<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; ID: 4bfd4a6d-c3ef-468f-a40e-a3a6ca13011b, Call Stack: null, Custom<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Event<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; ID: -1, Message: Gluster command [&lt;UNKNOWN&gt;] failed on server<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Compute5.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,243 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [4a84c4e5] Correlation ID: null,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Call<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Stack: null, Custom Event ID: -1, Message: Status of host Compute5<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; was<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; set<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; to NonOperational.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,272 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.bll.HandleVdsVersionCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [a0c8a7f] Running command:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; HandleVdsVersionCommand internal: true. Entities affected :  ID:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a Type: VDS<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:37,274 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  [org.ovirt.engine.core.vdsbroker.VdsUpdateRunTimeInfo]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-69) [a0c8a7f] Host<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 0bf6b00f-7947-4411-b55a-cc5eea2b381a : Compute5 is already in<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; NonOperational status for reason GLUSTER_COMMAND_FAILED.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; SetNonOperationalVds command is skipped.<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:38,065 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterVolumesListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-55) [3706e836] FINISH,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterVolumesListVDSCommand, return:<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; {26ae1672-ee09-4a38-8fd2-72dd9974cc2b=org.ovirt.engine.core.common.businessentities.gluster.GlusterVolumeEntity@4e72a1b1},<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; log id: 48a0c832<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 2014-11-24 18:05:43,243 INFO<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [org.ovirt.engine.core.vdsbroker.gluster.GlusterVolumesListVDSCommand]<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; (DefaultQuartzScheduler_Worker-35) START,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; GlusterVolumesListVDSCommand(HostName = Compute4, HostId =<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; 33648a90-200c-45ca-89d5-1ce305d79a6a), log id: 3ce13ebc<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; ^C<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; [root@ccr01 ~]#<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  Thanks,<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Punit<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;  _______________________________________________<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; Users mailing<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt; listUsers@ovirt.orghttp://<a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
</div></div>&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>