<div dir="ltr">Hi David,<div><br></div><div>Thanks for reply, I have Ovirt env which is in very bad shape, and as a new employer I have to fix it :). I have 5 hosts in whole env. There is broken HA for hosted engine, so engine can only works on host1. I can&#39;t add another host because it shows me that it was deployed with version 3.5 (If I&#39;m not wrong it&#39;s fixed in 4.0). Also I can&#39;t update/upgrade ovirt-engine because there is 500MB of free space (after cleaning up) without LVM, so I&#39;m afraid that I&#39;ll run out off space during update. Because of that I decided to add completely new server and migrate hosted-engine on fixed HE (with LVM) and properly configured HA on new host.</div><div><br></div><div>Below short summary:</div><div><br></div><div>Hosted engine:</div><div><br></div><div>CentOS Linux release 7.2.1511 (Core) <br></div><div><br></div><div><div>ovirt-engine-3.6.7.5-1.el7.centos.noarch</div></div><div><br></div><div>Host0: with running hosted Hosted-Engine which I need to update/upgrade<br></div><div><br></div><div>CentOS Linux release 7.2.1511 (Core)<br></div><div><br></div><div><div>ovirt-vmconsole-1.0.0-1.el7.centos.noarch</div><div>ovirt-hosted-engine-ha-1.3.5.1-1.el7.centos.noarch</div><div>ovirt-host-deploy-1.4.1-1.el7.centos.noarch</div><div>ovirt-release36-007-1.noarch</div><div>ovirt-engine-sdk-python-3.6.3.0-1.el7.centos.noarch</div><div>ovirt-image-uploader-3.6.0-1.el7.centos.noarch</div><div>ovirt-setup-lib-1.0.1-1.el7.centos.noarch</div><div>libgovirt-0.3.3-1.el7_2.1.x86_64</div><div>ovirt-vmconsole-host-1.0.0-1.el7.centos.noarch</div><div>ovirt-hosted-engine-setup-1.3.4.0-1.el7.centos.noarch</div><div>ovirt-engine-appliance-3.6-20160301.1.el7.centos.noarch</div></div><div><br></div><div><div>vdsm-jsonrpc-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-yajsonrpc-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-python-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-infra-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-hook-vmfex-dev-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-xmlrpc-4.17.23.2-0.el7.centos.noarch</div><div>vdsm-cli-4.17.23.2-0.el7.centos.noarch</div></div><div><br></div><div>Output from hosted-engine --vm-status from host1</div><div><br></div><div><div>--== Host 1 status ==--</div><div><br></div><div>Status up-to-date                  : True</div><div>Hostname                           : <a href="http://dev-ovirtnode0.example.com">dev-ovirtnode0.example.com</a></div><div>Host ID                            : 1</div><div>Engine status                      : {&quot;health&quot;: &quot;good&quot;, &quot;vm&quot;: &quot;up&quot;, &quot;detail&quot;: &quot;up&quot;}</div><div>Score                              : 3400</div><div>stopped                            : False</div><div>Local maintenance                  : False</div><div>crc32                              : d7fdf8b6</div><div>Host timestamp                     : 1243846</div><div><br></div><div><br></div><div>--== Host 2 status ==--                &lt;- it&#39;s garbage because there is not installed and configured HA on host2 </div><div><br></div><div>Status up-to-date                  : False</div><div>Hostname                           : <a href="http://dev-ovirtnode1.example.com">dev-ovirtnode1.example.com</a></div><div>Host ID                            : 2</div><div>Engine status                      : unknown stale-data</div><div>Score                              : 0</div><div>stopped                            : True</div><div>Local maintenance                  : False</div><div>crc32                              : fb5f379e</div><div>Host timestamp                     : 563</div></div><div><br></div><div><br></div><div>Remaining Hosts1 - 4 are updated and configured in the same way (it was done by me). I had to replace network cards and now there is LACP on 4x10G cards (before was only 1G card). </div><div>Because there is CentOS 7.4 I decided to install vdsm  in version 4.17.43 (from repo) to fix bugs. I aware that 3.6 is only supported with verision 7.2, but I want to update whole env to 3.6.X then to 4.0. then to 4.1 to be up to date. </div><div><br></div><div><div>vdsm-jsonrpc-4.17.43-1.el7.centos.noarch</div><div>vdsm-xmlrpc-4.17.43-1.el7.centos.noarch</div><div>vdsm-4.17.43-1.el7.centos.noarch</div><div>vdsm-infra-4.17.43-1.el7.centos.noarch</div><div>vdsm-yajsonrpc-4.17.43-1.el7.centos.noarch</div><div>vdsm-cli-4.17.43-1.el7.centos.noarch</div><div>vdsm-python-4.17.43-1.el7.centos.noarch</div><div>vdsm-hook-vmfex-dev-4.17.43-1.el7.centos.noarch</div></div><div><br></div><div>On those host1-4 I have around 400 vm&#39;s for  used by developers, and I need to shorten downtime as much as possible (the best option is without downtime, but I&#39;m not sure if it&#39;s possible). I decided to restore HE on completely new host because I believe that in my case it&#39;s the easiest way to update then upgrade the whole env :)</div><div><br></div><div>Many thanks for all advises</div><div><br></div><div>Regards </div><div><br></div><div>Krzysztof </div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">2017-11-14 8:50 GMT+01:00 Yedidyah Bar David <span dir="ltr">&lt;<a href="mailto:didi@redhat.com" target="_blank">didi@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Mon, Nov 13, 2017 at 11:58 PM, Krzysztof Wajda &lt;<a href="mailto:vajdovski@gmail.com">vajdovski@gmail.com</a>&gt; wrote:<br>
&gt; Hello,<br>
&gt;<br>
&gt; I have to restore Hosted Engine on another host (completely new hardware).<br>
&gt; Based on this<br>
&gt; <a href="https://www.ovirt.org/documentation/self-hosted/chap-Backing_up_and_Restoring_an_EL-Based_Self-Hosted_Environment/" rel="noreferrer" target="_blank">https://www.ovirt.org/<wbr>documentation/self-hosted/<wbr>chap-Backing_up_and_Restoring_<wbr>an_EL-Based_Self-Hosted_<wbr>Environment/</a><br>
&gt; is not clear for me if vm&#39;s will be rebooted during synchronization hosts<br>
&gt; with engine ?<br>
<br>
</span>They should not be rebooted automatically, but you might need to do<br>
this yourself, see below.<br>
<span class=""><br>
&gt;<br>
&gt; I have 5 hosts + 1 completely fresh. On host1 I have HE and there is no vm&#39;s<br>
&gt; on other 4 (host1-4) there are around 400 vm which can&#39;t be rebooted. Host5<br>
&gt; for restore HE.<br>
<br>
</span>Please provide more details about your backup/restore flow.<br>
What died (storage? hosts? data?), what are you going to restore,<br>
how, etc.<br>
<br>
Which hosts are hosted-engine hosts. Do they have running VMs.<br>
<br>
We are working on updating the documentation, but it will take some time.<br>
<br>
For now, you should assume that the safest way is to pass during restore,<br>
to engine-backup, &#39;--he-remove-storage-vm&#39; and &#39;--he-remove-hosts&#39;. This<br>
will remove from the engine all the hosted-engine hosts and storage. So<br>
when you add the hosts back, you&#39;ll have to somehow power off the VMs<br>
there - the engine will refuse to add them with running VMs. If you do<br>
not want to use these options, you should plan carefully and test.<br>
<br>
See also:<br>
<br>
<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1235200" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/<wbr>show_bug.cgi?id=1235200</a><br>
<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1240466" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/<wbr>show_bug.cgi?id=1240466</a><br>
<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1441322" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/<wbr>show_bug.cgi?id=1441322</a><br>
<br>
Best regards,<br>
<span class="HOEnZb"><font color="#888888">--<br>
Didi<br>
</font></span></blockquote></div><br></div>