<div dir="ltr"><div><div><div>Hi, and thanks for your replies.<br><br></div>The problem was the <b>quotation marks</b> in fence options, the lanplus=&quot;1&quot; and power_wait=&quot;60&quot; were misinterpreted, the correct form is lanplus=1, power_wait=60<br><br></div>After changing that the power management was configured and the test passed with : success, on.<br><br></div>thanks.<br><div><div><div><div><div class="gmail_extra"><br><div class="gmail_quote">2015-06-11 12:11 GMT+01:00 Martin Perina <span dir="ltr">&lt;<a href="mailto:mperina@redhat.com" target="_blank">mperina@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi,<br>
<br>
I have HP DL160 G6 with ILO 2.0 and Firmware 4.23, but I&#39;m really<br>
don&#39;t have an idea what is your issue right now with power management.<br>
Because oVirt just executes fence_ipmi on selected proxy host with<br>
parameters you could see in your vdsm log. And those parameters are<br>
identical to your command line options that you used when testing it<br>
with fence_ipmi directly (which worked fine). Very strange :-(<br>
<br>
Also I can&#39;t see any difference from oVirt power management code point<br>
of view in using Centos 6 or 7. Just be warned that in oVirt 3.6 not<br>
all features will be supported on Centos 6, so using Centos 7 is IMO<br>
a better option for now.<br>
<br>
But anyway could you please file a bug for oVirt 3.5.2 with the description<br>
of your issue and your logs attached? We will try to reproduce this issue,<br>
but so for I wasn&#39;t able to reproduce it.<br>
<br>
About your issue with hp watch dog, I cannot give any specifi advice, just<br>
that you can try to solve the issue by updating BIOS/firmware to latest<br>
version and/or try to contact HP support.<br>
<br>
Thanks a lot<br>
<span><br>
Martin Perina<br>
<br>
<br>
----- Original Message -----<br>
&gt; From: &quot;wodel youchi&quot; &lt;<a href="mailto:wodel.youchi@gmail.com" target="_blank">wodel.youchi@gmail.com</a>&gt;<br>
</span><span>&gt; To: &quot;Martin Perina&quot; &lt;<a href="mailto:mperina@redhat.com" target="_blank">mperina@redhat.com</a>&gt;<br>
&gt; Cc: &quot;users&quot; &lt;<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;, &quot;Eli Mesika&quot; &lt;<a href="mailto:emesika@redhat.com" target="_blank">emesika@redhat.com</a>&gt;<br>
&gt; Sent: Thursday, June 11, 2015 12:56:46 PM<br>
&gt; Subject: Re: [ovirt-users] [Centos7.1x64] [Ovirt 3.5.2] Test fence : Power management test failed for Host<br>
&gt; hosted_engine1 Done<br>
&gt;<br>
</span><div><div>&gt; Hi Martin,<br>
&gt;<br>
&gt; Could you please tell me the version of the ILO firmware you are using?<br>
&gt;<br>
&gt; I did upgrade mine from 1.40 to 2.10 but nothing changed, I did also<br>
&gt; upgrade the smart array p420i card from 5.10 to 6.34 without luck so far.<br>
&gt;<br>
&gt; I checked again all parameters, I can&#39;t find the error.<br>
&gt;<br>
&gt; I did all the updates for Centos and oVirt<br>
&gt;<br>
&gt; I have another problem when rebooting any hypervisor, the hypervisor hangs,<br>
&gt; the problem is with hpwtd (hp watch dog)<br>
&gt; &quot;hpwdt unexpected close not stopping watchdog&quot;<br>
&gt;<br>
&gt; I added this to kernel parameters &quot;intremap=no_x2apic_optout&quot; but it didn&#39;t<br>
&gt; change any thing.<br>
&gt;<br>
&gt; I am thinking to test with the latest kernel available to see if it&#39;s a<br>
&gt; kernel problem.<br>
&gt;<br>
&gt; and I am going to reinstall the platform with Centos 6 to see if there will<br>
&gt; be any differences.<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; 2015-06-10 12:00 GMT+01:00 wodel youchi &lt;<a href="mailto:wodel.youchi@gmail.com" target="_blank">wodel.youchi@gmail.com</a>&gt;:<br>
&gt;<br>
&gt; &gt; Hi,<br>
&gt; &gt;<br>
&gt; &gt; engine log is already in debug mode<br>
&gt; &gt;<br>
&gt; &gt; here it is:<br>
&gt; &gt; 2015-06-10 11:48:23,653 INFO<br>
&gt; &gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Correlation ID: null, Call Stack: null, Custom<br>
&gt; &gt; Event ID: -1, Message: Host hosted_engine_2 from cluster Default was chosen<br>
&gt; &gt; as a proxy to execute Status command on Host hosted_engine_1.<br>
&gt; &gt; 2015-06-10 11:48:23,653 INFO  [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Using Host hosted_engine_2 from cluster Default as<br>
&gt; &gt; proxy to execute Status command on Host<br>
&gt; &gt; 2015-06-10 11:48:23,673 INFO  [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Executing &lt;Status&gt; Power Management command, Proxy<br>
&gt; &gt; Host:hosted_engine_2, Agent:ipmilan, Target Host:, Management<br>
&gt; &gt; IP:192.168.2.2, User:Administrator, Options: power_wait=&quot;60&quot;,lanplus=&quot;1&quot;,<br>
&gt; &gt; Fencing policy:null<br>
&gt; &gt; 2015-06-10 11:48:23,703 INFO<br>
</div></div>&gt; &gt; *[org.ovirt.engine.core.vdsbroker.vdsbroker.FenceVdsVDSCommand]<br>
<span>&gt; &gt; (ajp--127.0.0.1-8702-12) START, FenceVdsVDSCommand(HostName =<br>
&gt; &gt; hosted_engine_2, HostId = 0192d1ac-b905-4660-b149-4bef578985dd, targetVdsId<br>
&gt; &gt; = cf2d1260-7bb3-451a-9cd7-80e6a0ede52a, action = Status, ip = 192.168.2.2,<br>
&gt; &gt; port = , type = ipmilan, user = Administrator, password = ******, options =<br>
&gt; &gt; &#39; power_wait=&quot;60&quot;,lanplus=&quot;1&quot;&#39;, policy = &#39;null&#39;), log id:<br>
</span>&gt; &gt; 2bda01bd2015-06-10 11:48:23,892 WARN<br>
<span>&gt; &gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Correlation ID: null, Call Stack: null, Custom<br>
&gt; &gt; Event ID: -1, Message: Power Management test failed for Host<br>
</span>&gt; &gt; hosted_engine_1.Done*<br>
<span>&gt; &gt; 2015-06-10 11:48:23,892 INFO<br>
&gt; &gt; [org.ovirt.engine.core.vdsbroker.vdsbroker.FenceVdsVDSCommand]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) FINISH, FenceVdsVDSCommand, return:<br>
</span>&gt; &gt; *Test Succeeded, unknown, log id: 2bda01bd2015-06-10 11:48:23,897 WARN<br>
&gt; &gt; [org.ovirt.engine.core.bll.FenceExecutor] (ajp--127.0.0.1-8702-12) Fencing<br>
&gt; &gt; operation failed with proxy host 0192d1ac-b905-4660-*b149-4bef578985dd,<br>
<span>&gt; &gt; trying another proxy...<br>
&gt; &gt; 2015-06-10 11:48:24,039 ERROR [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Failed to run Power Management command on Host ,<br>
&gt; &gt; no running proxy Host was found.<br>
&gt; &gt; 2015-06-10 11:48:24,039 WARN  [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Failed to find other proxy to re-run failed fence<br>
&gt; &gt; operation, retrying with the same proxy...<br>
&gt; &gt; 2015-06-10 11:48:24,143 INFO<br>
</span>&gt; &gt; *[org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
<span>&gt; &gt; (ajp--127.0.0.1-8702-12) Correlation ID: null, Call Stack: null, Custom<br>
&gt; &gt; Event ID: -1, Message: Host hosted_engine_2 from cluster Default was chosen<br>
</span>&gt; &gt; as a proxy to execute Status command on Host hosted_engine_1.*<br>
<span>&gt; &gt; 2015-06-10 11:48:24,143 INFO  [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Using Host hosted_engine_2 from cluster Default as<br>
&gt; &gt; proxy to execute Status command on Host<br>
&gt; &gt;<br>
</span>&gt; &gt; *2015-06-10 11:48:24,148 INFO  [org.ovirt.engine.core.bll.FenceExecutor]<br>
<span>&gt; &gt; (ajp--127.0.0.1-8702-12) Executing &lt;Status&gt; Power Management command, Proxy<br>
&gt; &gt; Host:hosted_engine_2, Agent:ipmilan, Target Host:, Management<br>
&gt; &gt; IP:192.168.2.2, User:Administrator, Options: power_wait=&quot;60&quot;,lanplus=&quot;1&quot;,<br>
&gt; &gt; Fencing policy:null2015-06-10 11:48:24,165 INFO<br>
</span>&gt; &gt; *[org.ovirt.engine.core.vdsbroker.vdsbroker.FenceVdsVDSCommand]<br>
<span>&gt; &gt; (ajp--127.0.0.1-8702-12) START, FenceVdsVDSCommand(HostName =<br>
&gt; &gt; hosted_engine_2, HostId = 0192d1ac-b905-4660-b149-4bef578985dd, targetVdsId<br>
&gt; &gt; = cf2d1260-7bb3-451a-9cd7-80e6a0ede52a, action = Status, ip = 192.168.2.2,<br>
&gt; &gt; port = , type = ipmilan, user = Administrator, password = ******, options =<br>
&gt; &gt; &#39; power_wait=&quot;60&quot;,lanplus=&quot;1&quot;&#39;, policy = &#39;null&#39;), log id: 7e7f2726<br>
&gt; &gt; 2015-06-10 11:48:24,360 WARN<br>
&gt; &gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt; &gt; (ajp--127.0.0.1-8702-12) Correlation ID: null, Call Stack: null, Custom<br>
&gt; &gt; Event ID: -1, Message: Power Management test failed for Host<br>
&gt; &gt; hosted_engine_1.Done<br>
&gt; &gt; 2015-06-10 11:48:24,360 INFO<br>
</span>&gt; &gt; *[org.ovirt.engine.core.vdsbroker.vdsbroker.FenceVdsVDSCommand]<br>
<span>&gt; &gt; (ajp--127.0.0.1-8702-12) FINISH, FenceVdsVDSCommand, return: Test<br>
</span>&gt; &gt; Succeeded, unknown, log id: 7e7f2726*<br>
<span>&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; VDSM log from hosted_engine_2<br>
&gt; &gt;<br>
&gt; &gt; JsonRpcServer::DEBUG::2015-06-10<br>
&gt; &gt; 11:48:23,640::__init__::506::jsonrpc.JsonRpcServer::(serve_requests)<br>
&gt; &gt; Waiting for request<br>
&gt; &gt; Thread-2201::DEBUG::2015-06-10 11:48:23,642::API::1209::vds::(fenceNode)<br>
</span>&gt; &gt; *fenceNode(addr=192.168.2.2,port=,agent=ipmilan,user=Administrator,passwd=XXXX,action=status,secure=False,options=<br>
&gt; &gt; power_wait=&quot;60&quot;lanplus=&quot;1&quot;,policy=None)*<br>
<span>&gt; &gt; Thread-2201::DEBUG::2015-06-10 11:48:23,642::utils::739::root::(execCmd)<br>
&gt; &gt; /usr/sbin/fence_ipmilan (cwd None)<br>
&gt; &gt; Thread-2201::DEBUG::2015-06-10 11:48:23,709::utils::759::root::(execCmd)<br>
</span>&gt; &gt; *FAILED:<br>
<span>&gt; &gt; &lt;err&gt; = &#39;Failed: Unable to obtain correct plug status or plug is not<br>
</span>&gt; &gt; available\n\n\n*&#39;; &lt;rc&gt; = 1<br>
<div><div>&gt; &gt; Thread-2201::DEBUG::2015-06-10 11:48:23,710::API::1164::vds::(fence) rc 1<br>
&gt; &gt; inp agent=fence_ipmilan<br>
&gt; &gt; ipaddr=192.168.2.2<br>
&gt; &gt; login=Administrator<br>
&gt; &gt; action=status<br>
&gt; &gt; passwd=XXXX<br>
&gt; &gt;  power_wait=&quot;60&quot;<br>
&gt; &gt; lanplus=&quot;1&quot; out [] err [&#39;Failed: Unable to obtain correct plug status or<br>
&gt; &gt; plug is not available&#39;, &#39;&#39;, &#39;&#39;]<br>
&gt; &gt; Thread-2201::DEBUG::2015-06-10 11:48:23,710::API::1235::vds::(fenceNode)<br>
&gt; &gt; rc 1 in agent=fence_ipmilan<br>
&gt; &gt; ipaddr=192.168.2.2<br>
&gt; &gt; login=Administrator<br>
&gt; &gt; action=status<br>
&gt; &gt; passwd=XXXX<br>
&gt; &gt;  power_wait=&quot;60&quot;<br>
&gt; &gt; lanplus=&quot;1&quot; out [] err [&#39;Failed: Unable to obtain correct plug status or<br>
&gt; &gt; plug is not available&#39;, &#39;&#39;, &#39;&#39;]<br>
&gt; &gt; Thread-2201::DEBUG::2015-06-10<br>
&gt; &gt; 11:48:23,710::stompReactor::163::yajsonrpc.StompServer::(send) Sending<br>
&gt; &gt; response<br>
&gt; &gt; JsonRpc (StompReactor)::DEBUG::2015-06-10<br>
&gt; &gt; 11:48:23,712::stompReactor::98::Broker.StompAdapter::(handle_frame)<br>
&gt; &gt; Handling message &lt;StompFrame command=&#39;SEND&#39;&gt;<br>
&gt; &gt; JsonRpcServer::DEBUG::2015-06-10<br>
&gt; &gt; 11:48:23,713::__init__::506::jsonrpc.JsonRpcServer::(serve_requests)<br>
&gt; &gt; Waiting for request<br>
&gt; &gt; Thread-2202::DEBUG::2015-06-10 11:48:23,715::API::1209::vds::(fenceNode)<br>
&gt; &gt; fenceNode(addr=192.168.2.2,port=,agent=ipmilan,user=Administrator,passwd=XXXX,action=status,secure=False,options=<br>
&gt; &gt; power_wait=&quot;60&quot;<br>
&gt; &gt; lanplus=&quot;1&quot;,policy=None)<br>
&gt; &gt; Thread-2202::DEBUG::2015-06-10 11:48:23,715::utils::739::root::(execCmd)<br>
&gt; &gt; /usr/sbin/fence_ipmilan (cwd None)<br>
&gt; &gt; Thread-2202::DEBUG::2015-06-10 11:48:23,781::utils::759::root::(execCmd)<br>
&gt; &gt; FAILED: &lt;err&gt; = &#39;Failed: Unable to obtain correct plug status or plug is<br>
&gt; &gt; not available\n\n\n&#39;; &lt;rc&gt; = 1<br>
&gt; &gt; Thread-2202::DEBUG::2015-06-10 11:48:23,781::API::1164::vds::(fence) rc 1<br>
&gt; &gt; inp agent=fence_ipmilan<br>
&gt; &gt; ipaddr=192.168.2.2<br>
&gt; &gt; login=Administrator<br>
&gt; &gt; action=status<br>
&gt; &gt; passwd=XXXX<br>
&gt; &gt;  power_wait=&quot;60&quot;<br>
&gt; &gt; lanplus=&quot;1&quot; out [] err [&#39;Failed: Unable to obtain correct plug status or<br>
&gt; &gt; plug is not available&#39;, &#39;&#39;, &#39;&#39;]<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; I triple checked, I used the correct IPs and login password, the test in<br>
&gt; &gt; console works.<br>
&gt; &gt;<br>
&gt; &gt; 2015-06-10 10:31 GMT+01:00 Martin Perina &lt;<a href="mailto:mperina@redhat.com" target="_blank">mperina@redhat.com</a>&gt;:<br>
&gt; &gt;<br>
&gt; &gt;&gt; Hi,<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; I just install engine 3.5.2 on Centos 7.1, added 2 Centos 7.1 hosts (both<br>
&gt; &gt;&gt; with ipmilan fence devices) and everything worked fine. I also tried to<br>
&gt; &gt;&gt; add<br>
&gt; &gt;&gt; options<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;   lanplus=&quot;1&quot;, power_wait=&quot;60&quot;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; and even with them getting power status of hosts worked fine.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; So could you please check again settings of your hosts in webadmin?<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;  hosted_engine1<br>
&gt; &gt;&gt;    PM address: IP address of ILO4 interface of the host hosted_engine1<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;  hosted_engine2<br>
&gt; &gt;&gt;    PM address: IP address of ILO4 interface of the host hosted_engine2<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; If the IP addresses are entered correctly, please allow DEBUG log for<br>
&gt; &gt;&gt; engine,<br>
&gt; &gt;&gt; execute test of PM settings for one host and attach logs from engine and<br>
&gt; &gt;&gt; VDSM logs from both hosts.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Thanks<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Martin Perina<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; ----- Original Message -----<br>
&gt; &gt;&gt; &gt; From: &quot;wodel youchi&quot; &lt;<a href="mailto:wodel.youchi@gmail.com" target="_blank">wodel.youchi@gmail.com</a>&gt;<br>
&gt; &gt;&gt; &gt; To: &quot;users&quot; &lt;<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt; &gt;&gt; &gt; Sent: Tuesday, June 9, 2015 2:41:02 PM<br>
&gt; &gt;&gt; &gt; Subject: [ovirt-users] [Centos7.1x64] [Ovirt 3.5.2] Test fence : Power<br>
&gt; &gt;&gt; management test failed for Host hosted_engine1<br>
&gt; &gt;&gt; &gt; Done<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; Hi,<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; I have a weird problem with fencing<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; I have a cluster of two HP DL380p G8 (ILO4)<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; Centos7.1x64 and oVirt 3.5.2 ALL UPDATED<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; I configured fencing first with ilo4 then ipmilan<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; When testing fence from the engine I get : Succeeded, Unknown<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; And in alerts tab I get : Power management test failed for Host<br>
&gt; &gt;&gt; &gt; hosted_engine1 Done (the same for host2)<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; I tested with fence_ilo4 and fence_ipmilan and they report the result<br>
&gt; &gt;&gt; &gt; correctly<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; # fence_ipmilan -P -a 192.168.2.2 -o status -l Administrator -p ertyuiop<br>
&gt; &gt;&gt; &gt; -vExecuting: /usr/bin/ipmitool -I lanplus -H 192.168.2.2 -U<br>
&gt; &gt;&gt; Administrator -P<br>
&gt; &gt;&gt; &gt; ertyuiop -p 623 -L ADMINISTRATOR chassis power status<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; 0 Chassis Power is on<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; Status: ON<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; # fence_ilo4 -l Administrator -p ertyuiop -a 192.168.2.2 -o status -v<br>
&gt; &gt;&gt; &gt; Executing: /usr/bin/ipmitool -I lanplus -H 192.168.2.2 -U Administrator<br>
&gt; &gt;&gt; -P<br>
&gt; &gt;&gt; &gt; ertyuiop -p 623 -L ADMINISTRATOR chassis power status<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; 0 Chassis Power is on<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; Status: ON<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; ----------------------------------<br>
&gt; &gt;&gt; &gt; These are the options passed to fence_ipmilan (I tested with the<br>
&gt; &gt;&gt; options and<br>
&gt; &gt;&gt; &gt; without them)<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; lanplus=&quot;1&quot;, power_wait=&quot;60&quot;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; This is the engine log:<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; 2015-06-09 13:35:29,287 INFO [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt;&gt; &gt; (ajp--127.0.0.1-8702-7) Using Host hosted_engine_2 from cluster Default<br>
&gt; &gt;&gt; as<br>
&gt; &gt;&gt; &gt; proxy to execute Status command on Host<br>
&gt; &gt;&gt; &gt; 2015-06-09 13:35:29,289 INFO [org.ovirt.engine.core.bll.FenceExecutor]<br>
&gt; &gt;&gt; &gt; (ajp--127.0.0.1-8702-7) Executing &lt;Status&gt; Power Management command,<br>
&gt; &gt;&gt; Proxy<br>
&gt; &gt;&gt; &gt; Host:hosted_engine_2, Agent:ipmilan, Target Host:, Management<br>
&gt; &gt;&gt; &gt; IP:192.168.2.2, User:Administrator, Options:<br>
&gt; &gt;&gt; power_wait=&quot;60&quot;,lanplus=&quot;1&quot;,<br>
&gt; &gt;&gt; &gt; Fencing policy:null<br>
&gt; &gt;&gt; &gt; 2015-06-09 13:35:29,306 INFO<br>
&gt; &gt;&gt; &gt; [org.ovirt.engine.core.vdsbroker.vdsbroker.FenceVdsVDSCommand]<br>
&gt; &gt;&gt; &gt; (ajp--127.0.0.1-8702-7) START, FenceVdsVDSCommand(<br>
&gt; &gt;&gt; &gt; HostName = hosted_engine_2,<br>
&gt; &gt;&gt; &gt; HostId = 0192d1ac-b905-4660-b149-4bef578985dd,<br>
&gt; &gt;&gt; &gt; targetVdsId = cf2d1260-7bb3-451a-9cd7-80e6a0ede52a,<br>
&gt; &gt;&gt; &gt; action = Status,<br>
&gt; &gt;&gt; &gt; ip = 192.168.2.2,<br>
&gt; &gt;&gt; &gt; port = ,<br>
&gt; &gt;&gt; &gt; type = ipmilan,<br>
&gt; &gt;&gt; &gt; user = Administrator,<br>
&gt; &gt;&gt; &gt; password = ******,<br>
&gt; &gt;&gt; &gt; options = &#39; power_wait=&quot;60&quot;,lanplus=&quot;1&quot;&#39;,<br>
&gt; &gt;&gt; &gt; policy = &#39;null&#39;), log id: 24ce6206<br>
&gt; &gt;&gt; &gt; 2015-06-09 13:35:29,516 WARN<br>
&gt; &gt;&gt; &gt; [org.ovirt.engine.core.dal.dbbroker.auditloghandling.AuditLogDirector]<br>
&gt; &gt;&gt; &gt; (ajp--127.0.0.1-8702-7) Correlation ID: null, Call Stack: null, Custom<br>
&gt; &gt;&gt; Event<br>
&gt; &gt;&gt; &gt; ID: -1, Message: Power Management test failed for Host<br>
&gt; &gt;&gt; hosted_engine_1.Done<br>
&gt; &gt;&gt; &gt; 2015-06-09 13:35:29,516 INFO<br>
&gt; &gt;&gt; &gt; [org.ovirt.engine.core.vdsbroker.vdsbroker.FenceVdsVDSCommand]<br>
&gt; &gt;&gt; &gt; (ajp--127.0.0.1-8702-7) FINISH, FenceVdsVDSCommand, return: Test<br>
&gt; &gt;&gt; Succeeded,<br>
&gt; &gt;&gt; &gt; unknown , log id: 24ce6206<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; and here the vdsm log from the proxy<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; JsonRpcServer::DEBUG::2015-06-09<br>
&gt; &gt;&gt; &gt; 13:37:52,461::__init__::506::jsonrpc.JsonRpcServer::(serve_requests)<br>
&gt; &gt;&gt; Waiting<br>
&gt; &gt;&gt; &gt; for request<br>
&gt; &gt;&gt; &gt; Thread-131907::DEBUG::2015-06-09<br>
&gt; &gt;&gt; 13:37:52,463::API::1209::vds::(fenceNode)<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; fenceNode(addr=192.168.2.2,port=,agent=ipmilan,user=Administrator,passwd=XXXX,action=status,secure=False,options=<br>
&gt; &gt;&gt; &gt; power_wait=&quot;60&quot;<br>
&gt; &gt;&gt; &gt; lanplus=&quot;1&quot;,policy=None)<br>
&gt; &gt;&gt; &gt; Thread-131907::DEBUG::2015-06-09<br>
&gt; &gt;&gt; 13:37:52,463::utils::739::root::(execCmd)<br>
&gt; &gt;&gt; &gt; /usr/sbin/fence_ipmilan (cwd None)<br>
&gt; &gt;&gt; &gt; Thread-131907::DEBUG::2015-06-09<br>
&gt; &gt;&gt; 13:37:52,533::utils::759::root::(execCmd)<br>
&gt; &gt;&gt; &gt; FAILED: &lt;err&gt; = &#39;Failed: Unable to obtain correct plug status or plug<br>
&gt; &gt;&gt; is not<br>
&gt; &gt;&gt; &gt; available\n\n\n&#39;; &lt;rc&gt; = 1<br>
&gt; &gt;&gt; &gt; Thread-131907::DEBUG::2015-06-09 13:37:52,533::API::1164::vds::(fence)<br>
&gt; &gt;&gt; rc 1<br>
&gt; &gt;&gt; &gt; inp agent=fence_ipmilan<br>
&gt; &gt;&gt; &gt; ipaddr=192.168.2.2<br>
&gt; &gt;&gt; &gt; login=Administrator<br>
&gt; &gt;&gt; &gt; action=status<br>
&gt; &gt;&gt; &gt; passwd=XXXX<br>
&gt; &gt;&gt; &gt; power_wait=&quot;60&quot;<br>
&gt; &gt;&gt; &gt; lanplus=&quot;1&quot; out [] err [&#39;Failed: Unable to obtain correct plug status<br>
&gt; &gt;&gt; or plug<br>
&gt; &gt;&gt; &gt; is not available&#39;, &#39;&#39;, &#39;&#39;]<br>
&gt; &gt;&gt; &gt; Thread-131907::DEBUG::2015-06-09<br>
&gt; &gt;&gt; 13:37:52,533::API::1235::vds::(fenceNode) rc<br>
&gt; &gt;&gt; &gt; 1 in agent=fence_ipmilan<br>
&gt; &gt;&gt; &gt; ipaddr=192.168.2.2<br>
&gt; &gt;&gt; &gt; login=Administrator<br>
&gt; &gt;&gt; &gt; action=status<br>
&gt; &gt;&gt; &gt; passwd=XXXX<br>
&gt; &gt;&gt; &gt; power_wait=&quot;60&quot;<br>
&gt; &gt;&gt; &gt; lanplus=&quot;1&quot; out [] err [&#39; Failed: Unable to obtain correct plug status<br>
&gt; &gt;&gt; or<br>
&gt; &gt;&gt; &gt; plug is not available &#39;, &#39;&#39;, &#39;&#39;]<br>
&gt; &gt;&gt; &gt; Thread-131907::DEBUG::2015-06-09<br>
&gt; &gt;&gt; &gt; 13:37:52,534::stompReactor::163::yajsonrpc.StompServer::(send) Sending<br>
&gt; &gt;&gt; &gt; response<br>
&gt; &gt;&gt; &gt; Detector thread::DEBUG::2015-06-09<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; 13:37:53,670::protocoldetector::187::vds.MultiProtocolAcceptor::(_add_connection)<br>
&gt; &gt;&gt; &gt; Adding connection from <a href="http://127.0.0.1:55761" rel="noreferrer" target="_blank">127.0.0.1:55761</a><br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; VDSM rpms<br>
&gt; &gt;&gt; &gt; # rpm -qa | grep vdsm<br>
&gt; &gt;&gt; &gt; vdsm-cli-4.16.14-0.el7.noarch<br>
&gt; &gt;&gt; &gt; vdsm-python-zombiereaper-4.16.14-0.el7.noarch<br>
&gt; &gt;&gt; &gt; vdsm-xmlrpc-4.16.14-0.el7.noarch<br>
&gt; &gt;&gt; &gt; vdsm-yajsonrpc-4.16.14-0.el7.noarch<br>
&gt; &gt;&gt; &gt; vdsm-4.16.14-0.el7.x86_64<br>
&gt; &gt;&gt; &gt; vdsm-python-4.16.14-0.el7.noarch<br>
&gt; &gt;&gt; &gt; vdsm-jsonrpc-4.16.14-0.el7.noarch<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; any idea?<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; Thanks in advance.<br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt; &gt; _______________________________________________<br>
&gt; &gt;&gt; &gt; Users mailing list<br>
&gt; &gt;&gt; &gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt; &gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt; &gt;&gt; &gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div></div></div></div></div></div>