<div dir="ltr"><div class="gmail_default" style="font-size:large">Hi<br></div><div class="gmail_default" style="font-size:large">Currently ilo3 and ilo4 are mapped implicitly to ipmilan with default parameters of &#39;ilo4:lanplus=1,power_wait=4&#39;<br></div><div class="gmail_default" style="font-size:large">So, I think that in your case overriding only the power_wait parameter should work as well (it seems that te default is too short for your host)<br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, May 10, 2016 at 1:01 PM, Wee Sritippho <span dir="ltr">&lt;<a href="mailto:wee.s@forest.go.th" target="_blank">wee.s@forest.go.th</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Found a workaround.<br>
<br>
Changed the fence agent type from &quot;ilo4&quot; to &quot;ipmilan&quot; then added &quot;lanplus=1,power_wait=30&quot; (without quotes) to options.<br>
<br>
Now the host can be fenced successfully and all HA VMs in that host will be restarted in another hosts.<br>
<br>
Did a small experiment with power_wait parameter, here are the results:<br>
- power_wait=60 : HA VMs restarted and are pingable in ~2:45 minutes after connection lost<br>
- power_wait=30 : HA VMs restarted and are pingable in ~2:15 minutes after connection lost<div class="HOEnZb"><div class="h5"><br>
<br>
On 10/5/2559 12:52, Wee Sritippho wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
I&#39;m running an oVirt hosted-engine environment on 3 hosts. To test VMs&#39; HA functionality, I shutdown host02&#39;s link, where one of my HA VMs is running on, using this command:<br>
<br>
2016-05-10 09:59:19 ICT [root@host02 ~]# ip link set bond0 down<br>
<br>
Few seconds later, an attempt to fence host02 was issued, and this entry appears in the web UI event tab &quot;May 10, 2016 10:00:34 ... Executing power management status on Host hosted_engine_2 using Proxy Host hosted_engine_1 and Fence Agent ipmilan:172.16.3.5.&quot;. The IP &quot;172.16.3.5&quot; was correct the Fence Agent &quot;ipmilan&quot; was not.<br>
<br>
Even though a failure message &quot;May 10, 2016 10:00:36 ... Execution of power management status on Host hosted_engine_2 using Proxy Host hosted_engine_1 and Fence Agent ipmilan:172.16.3.5 failed.&quot; appears in the web UI event tab, host02 was successfully powered off.<br>
<br>
The last message in the web GUI event tab is &quot;May 10, 2016 10:00:40 AM ... Host hosted_engine_2 is rebooting.&quot;, but the host wasn&#39;t actually rebooted - I have to boot it manually using iLo web UI.<br>
<br>
How can fix this issue in order to make VMs&#39; HA work?<br>
<br>
Thank you.<br>
<br>
Here is my power management settings:<br>
hosted_engine_1 -&gt; ilo4 : 172.16.3.4<br>
hosted_engine_2 -&gt; ilo4 : 172.16.3.5<br>
hosted_engine_3 -&gt; ilo4 : 172.16.3.6<br>
<br>
Here are the log files:<br>
<a href="https://app.box.com/s/fs5let8955rjbcuxuy0p42ixj4dzou6m" rel="noreferrer" target="_blank">https://app.box.com/s/fs5let8955rjbcuxuy0p42ixj4dzou6m</a><br>
<br>
[root@engine ~]# rpm -qa | grep ovirt<br>
ovirt-engine-wildfly-8.2.1-1.el7.x86_64<br>
ovirt-engine-setup-plugin-ovirt-engine-common-3.6.5.3-1.el7.centos.noarch<br>
ovirt-vmconsole-1.0.0-1.el7.centos.noarch<br>
ovirt-engine-cli-3.6.2.0-1.el7.centos.noarch<br>
ovirt-engine-setup-plugin-ovirt-engine-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-backend-3.6.5.3-1.el7.centos.noarch<br>
ovirt-iso-uploader-3.6.0-1.el7.centos.noarch<br>
ovirt-engine-extensions-api-impl-3.6.5.3-1.el7.centos.noarch<br>
ovirt-host-deploy-1.4.1-1.el7.centos.noarch<br>
ovirt-release36-007-1.noarch<br>
ovirt-engine-sdk-python-3.6.5.0-1.el7.centos.noarch<br>
ovirt-image-uploader-3.6.0-1.el7.centos.noarch<br>
ovirt-engine-extension-aaa-jdbc-1.0.6-1.el7.noarch<br>
ovirt-setup-lib-1.0.1-1.el7.centos.noarch<br>
ovirt-host-deploy-java-1.4.1-1.el7.centos.noarch<br>
ovirt-engine-setup-base-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-setup-plugin-websocket-proxy-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-tools-backup-3.6.5.3-1.el7.centos.noarch<br>
ovirt-vmconsole-proxy-1.0.0-1.el7.centos.noarch<br>
ovirt-engine-vmconsole-proxy-helper-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-setup-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-webadmin-portal-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-tools-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-restapi-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-3.6.5.3-1.el7.centos.noarch<br>
ovirt-guest-agent-common-1.0.11-1.el7.noarch<br>
ovirt-engine-wildfly-overlay-8.0.5-1.el7.noarch<br>
ovirt-engine-lib-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-websocket-proxy-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-setup-plugin-vmconsole-proxy-helper-3.6.5.3-1.el7.centos.noarch <br>
ovirt-engine-userportal-3.6.5.3-1.el7.centos.noarch<br>
ovirt-engine-dbscripts-3.6.5.3-1.el7.centos.noarch<br>
<br>
[root@host03 ~]# rpm -qa | grep ovirt<br>
ovirt-vmconsole-1.0.0-1.el7.centos.noarch<br>
ovirt-host-deploy-1.4.1-1.el7.centos.noarch<br>
ovirt-vmconsole-host-1.0.0-1.el7.centos.noarch<br>
ovirt-engine-sdk-python-3.6.5.0-1.el7.centos.noarch<br>
ovirt-hosted-engine-ha-1.3.5.3-1.1.el7.noarch<br>
libgovirt-0.3.3-1.el7_2.1.x86_64<br>
ovirt-hosted-engine-setup-1.3.5.0-1.1.el7.noarch<br>
ovirt-setup-lib-1.0.1-1.el7.centos.noarch<br>
<br>
[root@host03 ~]# rpm -qa | grep vdsm<br>
vdsm-cli-4.17.26-1.el7.noarch<br>
vdsm-4.17.26-1.el7.noarch<br>
vdsm-infra-4.17.26-1.el7.noarch<br>
vdsm-xmlrpc-4.17.26-1.el7.noarch<br>
vdsm-yajsonrpc-4.17.26-1.el7.noarch<br>
vdsm-hook-vmfex-dev-4.17.26-1.el7.noarch<br>
vdsm-python-4.17.26-1.el7.noarch<br>
vdsm-jsonrpc-4.17.26-1.el7.noarch<br>
<br>
</blockquote>
<br>
-- <br>
Wee<br>
<br>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</div></div></blockquote></div><br></div>