<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, Nov 28, 2017 at 6:36 PM, Kasturi Narra <span dir="ltr">&lt;<a href="mailto:knarra@redhat.com" target="_blank">knarra@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><span class="gmail-m_2912091932839983331gmail-">Hello,<div>I have an environment with 3 hosts and gluster HCI on 4.1.3.</div><div>I&#39;m following this link to take it to 4.1.7</div><div><a href="https://www.ovirt.org/documentation/how-to/hosted-engine/#upgrade-hosted-engine" target="_blank">https://www.ovirt.org/document<wbr>ation/how-to/hosted-engine/#up<wbr>grade-hosted-engine</a><br></div><div><br></div></span></div></div></div></blockquote><div><br></div><div>[snip] </div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><span class="gmail-m_2912091932839983331gmail-"><div></div><div>7. Exit the global maintenance mode: in a few minutes the engine VM should migrate to the fresh upgraded host cause it will get an higher score</div><div><br></div><div>One note: actually exiting from global maintenance doesn&#39;t imply that the host previously put into maintenance exiting from it, correct?</div><div><br></div></span><div>[kasturi] - you are right. Global maintenance main use is to allow administrator start / stop / modify the engine vm with out any worry of interference from the HA agents .</div></div></div></div></blockquote><div><br></div><div>So probably one item between 6. and 7. has to be added </div><div><br></div><div>. exit hosted-engine host from maintenance (Select Host -&gt; Management -&gt; activate)</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><span class="gmail-m_2912091932839983331gmail-"><div><br></div><div><div>Then after exiting from global maintenance I don&#39;t see the engine vm migrating to it.</div></div></span><div>[kasturi] - which is expected. </div></div></div></div></blockquote><div><br></div><div>Reading documents I thought it should have migrated to the &quot;higher&quot; version host...</div><div>Perhaps this applies only when there is a cluster version upgrade in the datacenter, such as 3.6 -&gt; 4.0 or 4.0 -&gt; 4.1 and it is not true in general?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div><div class="gmail-m_2912091932839983331gmail-h5"><div>Can I manually migrate engine vm to ovirt03?</div><div><br></div></div></div><div>[kasturi]</div><div><br></div><div>yes, definitely. You should be able to migrate. </div><div>hosted-engine --vm-status looks fine</div><div><div class="gmail-m_2912091932839983331gmail-h5"><div><br></div></div></div></div></div></div></blockquote><div><br></div><div>Yes, it worked as expected</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div><div class="gmail-m_2912091932839983331gmail-h5"><div></div><div><br></div><div>On ovirt03:</div><div><br></div><div><div>[root@ovirt03 ~]# gluster volume info engine</div><div> </div><div>Volume Name: engine</div><div>Type: Replicate</div><div>Volume ID: 6e2bd1d7-9c8e-4c54-9d85-f36e1b<wbr>871771</div><div>Status: Started</div><div>Snapshot Count: 0</div><div>Number of Bricks: 1 x (2 + 1) = 3</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: ovirt01.localdomain.local:/glu<wbr>ster/brick1/engine</div><div>Brick2: ovirt02.localdomain.local:/glu<wbr>ster/brick1/engine</div><div>Brick3: ovirt03.localdomain.local:/glu<wbr>ster/brick1/engine (arbiter)</div><div>Options Reconfigured:</div><div>performance.strict-o-direct: on</div><div>nfs.disable: on</div><div>user.cifs: off</div><div>network.ping-timeout: 30</div><div>cluster.shd-max-threads: 6</div><div>cluster.shd-wait-qlength: 10000</div><div>cluster.locking-scheme: granular</div><div>cluster.data-self-heal-algorit<wbr>hm: full</div><div>performance.low-prio-threads: 32</div><div>features.shard-block-size: 512MB</div><div>features.shard: on</div><div>storage.owner-gid: 36</div><div>storage.owner-uid: 36</div><div>cluster.server-quorum-type: server</div><div>cluster.quorum-type: auto</div><div>network.remote-dio: off</div><div>cluster.eager-lock: enable</div><div>performance.stat-prefetch: off</div><div>performance.io-cache: off</div><div>performance.read-ahead: off</div><div>performance.quick-read: off</div><div>performance.readdir-ahead: on</div><div>transport.address-family: inet</div><div>[root@ovirt03 ~]# </div></div><div><br></div></div></div></div></div></div></blockquote><div><br></div><div>[snip]</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div><div class="gmail-m_2912091932839983331gmail-h5"><div></div><div><br></div></div></div><div>[kasturi] - By the way, any reason why the engine volume is configured to be an arbiter volume? We always recommend engine volume to be a replicated volume to maintain High Availability of the Hosted Engine vm.</div><div><br></div><div><br></div></div></div></div></blockquote><div><br></div><div>Can I mix in general volumes with arbiter and volumes fully replicated in the same infrastructure, correct?</div><div><br></div><div>Actually this particular system<span style="color:rgb(0,0,0);white-space:pre-wrap"> is based on a single NUC6i5SYH with 32Gb of ram and 2xSSD disks, where I </span><span style="color:rgb(0,0,0);white-space:pre-wrap">have ESXi 6.0U2 installed. </span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">The 3 oVirt HCI hosts are 3 vSphere VMs, so the </span><span style="color:rgb(0,0,0);white-space:pre-wrap">engine VM is an L2 guest.</span></div><div><span style="color:rgb(0,0,0);white-space:pre-wrap">Moreover in oVirt I have another CentOS 6 VM (L2 guest) configured and there is also another CentOS 7 vSphere VM running side by side.</span></div><div><font color="#000000"><span style="white-space:pre-wrap">Without arbiter it would have been too cruel... ;-)</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">It was 4 months I didn&#39;t come at it and I found it rock solid active, so I decided to verify update from 4.1.3 to 4.1.7 and all went ok now.</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><br></span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">Remaining points I&#39;m going to investigate more are:</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><br></span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">- edit of running options for the Engine VM.</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">Right now I&#39;m force to manually run engine in my particular nested environment with </span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">hosted-engine --vm-start --vm-conf=/root/alternate_engine_vm.conf</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">where I have </span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">emulatedMachine=pc-i440fx-rhel7.2.0</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">because with 7.3 and 7.4 it doesn&#39; start as described through this thread:</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><a href="http://lists.ovirt.org/pipermail/users/2017-July/083149.html">http://lists.ovirt.org/pipermail/users/2017-July/083149.html</a></span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><br></span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">Still it seems I cannot set it from the web admin gui in 4.1.7 and the same happens for other engine vm parameters. I don&#39;t know if in 4.2 there will be any improvement in managing this.</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><br></span></font></div><div><br></div><div><font color="#000000"><span style="white-space:pre-wrap">- migrate from fuse to libgfapi</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><br></span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">- migrate the gluster network volumes from ovirtmgmt to another defined logical network</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">I tried (after updating to gluster 3.10) with some problems in 4.1.3 for an export domain. It seems more critical for data and engine storage domains.</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">See also this thread here with my attempts at that time: </span></font></div><div><font color="#000000"><span style="white-space:pre-wrap"><a href="http://lists.ovirt.org/pipermail/users/2017-July/083077.html">http://lists.ovirt.org/pipermail/users/2017-July/083077.html</a></span></font><br></div><div><font color="#000000"><span style="white-space:pre-wrap"><br></span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">Thanks for your time,</span></font></div><div><font color="#000000"><span style="white-space:pre-wrap">Gianluca</span></font></div><div> </div></div></div></div>