<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Sun, Sep 4, 2016 at 10:54 AM, Yedidyah Bar David <span dir="ltr">&lt;<a href="mailto:didi@redhat.com" target="_blank">didi@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><span class="gmail-">On Sat, Sep 3, 2016 at 1:18 PM, Gianluca Cecchi<br>
&lt;<a href="mailto:gianluca.cecchi@gmail.com">gianluca.cecchi@gmail.com</a>&gt; wrote:<br>
&gt; Hello,<br>
&gt; how do the two modes apply in case of single host?<br>
&gt; During an upgrade phase, after having upgraded the self hosted engine and<br>
&gt; leaving global maintenance and having checked all is ok, what is the correct<br>
&gt; mode then to put host if I want finally to update it too?<br>
<br>
</span>The docs say to put hosts to maintenance from the engine before upgrading them.<br>
<br>
This is (also) so that VMs on them are migrated away to other hosts.<br>
<br>
With a single host, you have no other hosts to migrate VMs to.<br>
<br>
So you should do something like this:<br>
<br>
1. Set global maintenance (because you are going to take down the<br>
engine and its vm)<br>
2. Shutdown all other VMs<br>
3. Shutdown engine vm from itself<br>
At this point, you should be able to simply stop HA services. But it<br>
might be cleaner to first set local maintenance. Not sure but perhaps<br>
this might be required for vdsm. So:<br>
4. Set local maintenance<br>
5. Stop HA services. If setting local maintenance didn&#39;t work, perhaps<br>
better stop also vdsm services. This stop should obviously happen<br>
automatically by yum/rpm, but perhaps better do this manually to see<br>
that it worked.<br>
6. yum (or dnf) update stuff.<br>
7. Start HA services<br>
8. Check status. I think you&#39;ll see that both local and global maint<br>
are still set.<br>
9. Set maintenance to none<br>
10. Check status again - I think that after some time HA will decide<br>
to start engine vm and should succeed.<br>
11. Start all other VMs.<br>
<br>
Didn&#39;t try this myself.<br>
<br>
Best,<br>
<span class="gmail-HOEnZb"><font color="#888888">--<br>
Didi<br>
</font></span></blockquote></div><br></div><div class="gmail_extra">I tested on one of the 2 environments.<br></div><div class="gmail_extra">It seems it worked.<br></div><div class="gmail_extra">But I update the kernel on host without restarting it. I would try that with the other one.<br></div><div class="gmail_extra">Some notes:<br><br></div><div class="gmail_extra">8. Check status. I think you&#39;ll see that both local and global maint<br>
are still set.<br><br></div><div class="gmail_extra">Actually even if I&#39;m on global maintenance and then I set local maintenance, it seems I &quot;loose&quot; the global maintenance state...<br><br></div><div class="gmail_extra">I see this output, without the line with Global Maintenance and exclamation marks....:<br><br>[root@ractor ~]# hosted-engine --vm-status<br>/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/lib/storage_backends.py:15: DeprecationWarning: vdscli uses xmlrpc. since ovirt 3.6 xmlrpc is deprecated, please use vdsm.jsonrpcvdscli<br>  import vdsm.vdscli<br><br><br>--== Host 1 status ==--<br><br>Status up-to-date                  : False<br>Hostname                           : ractor.mydomain<br>Host ID                            : 1<br>Engine status                      : unknown stale-data<br>Score                              : 0<br>stopped                            : False<br>Local maintenance                  : True<br>crc32                              : d616dde1<br>Host timestamp                     : 3304360<br>Extra metadata (valid at timestamp):<br>    metadata_parse_version=1<br>    metadata_feature_version=1<br>    timestamp=3304360 (Mon Oct  3 22:27:07 2016)<br>    host-id=1<br>    score=0<br>    maintenance=True<br>    state=LocalMaintenance<br>    stopped=False<br>[root@ractor ~]# <br></div><div class="gmail_extra"><br><br></div><div class="gmail_extra">I&#39;m able to exit maintenance, connect to engine and start the other VMs.<br></div><div class="gmail_extra">Now I have to try considering also the restart of the hypervisor host, due to new kernel package install.<br><br></div><div class="gmail_extra">Gianluca<br></div></div>