<div dir="ltr">You also have fencing policies around the cluster.<div>Those allow you to disable fencing entirely, so define the criteria for disabling fencing (do not fence if the host maintains its storage lease, and do not fence in case more than X% of the hosts in the cluster aren&#39;t responding).</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, May 11, 2017 at 8:41 AM, plysan <span dir="ltr">&lt;<a href="mailto:plysab@gmail.com" target="_blank">plysab@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">did you restart your nfs service or reboot your nfs host during the upgrade progress ?<div>if you did, what&#39;s the webadmin portal&#39;s storage domain&#39;s status at the time ?</div><div><br></div><div>what i&#39;m suspecting is that you were restarting nfs while ovirt-engine is using it.</div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">2017-05-11 2:02 GMT+08:00 Jason Keltz <span dir="ltr">&lt;<a href="mailto:jas@cse.yorku.ca" target="_blank">jas@cse.yorku.ca</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi.<br>
<br>
I recently upgraded my oVirt infrastructure to the latest 4.1.1.8-1.el7.centos, which went smoothly.  Thanks oVirt team! This morning, I upgraded my NFS file server which manages the storage domain.  I stopped ovirt engine, did a yum update to bring the server from its older CentOS 7.2 release to CentOS 7.3, rebooted it, then restarted engine.   At that point, engine was unhappy because our 4 virtualization hosts had a total of 30 VMs all waiting to reconnect to storage.  The status of all the VMs went to unknown in engine.  It took almost 2 hours before everything was completely normal again.  It seems that the hosts were available long before engine updated status.  I&#39;m assuming it&#39;s better to restart engine when I know that NFS has resumed on all the 30 virtalized hosts.  However, it&#39;s hard to know when that&#39;s happened, without trying to connect manually to all the hosts.  Is there a way to warn engine that you&#39;re about to mess with the storage domain, and you don&#39;t want it to do anything drastic? Sort of like a &quot;maintenance mode&quot; for storage?    I would hate for it to start trying to power off hosts via power management or migrate hosts when it just needs to wait a bit...<br>
<br>
Thanks!<br>
<br>
Jason.<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
</blockquote></div><br></div>
</div></div><br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
<br></blockquote></div><br></div>