I&#39;m not planning to move to ovirt 4 until it gets stable, so would be great to backport to 3.6 or ,ideally, gets developed on the next release of 3.6 branch. Considering the urgency (its a single point of failure) x complexity wouldn&#39;t be hard to make the proposed fix.<div><br></div><div>I&#39;m using today a production environment on top of gluster replica 3 and this is the only SPF I have.</div><div><br></div><div>Thanks</div><div>Luiz<br><br><div class="gmail_quote"><div dir="ltr">Em sex, 15 de abr de 2016 03:05, Sandro Bonazzola &lt;<a href="mailto:sbonazzo@redhat.com">sbonazzo@redhat.com</a>&gt; escreveu:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Thu, Apr 14, 2016 at 7:35 PM, Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span>On Wed, Apr 13, 2016 at 4:34 PM, Luiz Claudio Prazeres Goncalves<br>
&lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt; wrote:<br>
&gt; Nir, here is the problem:<br>
&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1298693" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1298693</a><br>
&gt;<br>
&gt; When you do a hosted-engine --deploy and pick &quot;glusterfs&quot; you don&#39;t have a<br>
&gt; way to define the mount options, therefore, the use of the<br>
&gt; &quot;backupvol-server&quot;, however when you create a storage domain from the UI you<br>
&gt; can, like the attached screen shot.<br>
&gt;<br>
&gt;<br>
&gt; In the hosted-engine --deploy, I would expect a flow which includes not only<br>
&gt; the &quot;gluster&quot; entrypoint, but also the gluster mount options which is<br>
&gt; missing today. This option would be optional, but would remove the single<br>
&gt; point of failure described on the Bug 1298693.<br>
&gt;<br>
&gt; for example:<br>
&gt;<br>
&gt; Existing entry point on the &quot;hosted-engine --deploy&quot; flow<br>
&gt; gluster1.xyz.com:/engine<br>
<br>
</span>I agree, this feature must be supported.<br></blockquote><div><br></div></div></div></div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div>It will, and it&#39;s currently targeted to 4.0.</div></div></div></div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div><div><br>
&gt; Missing option on the &quot;hosted-engine --deploy&quot; flow :<br>
&gt; backupvolfile-server=<a href="http://gluster2.xyz.com" rel="noreferrer" target="_blank">gluster2.xyz.com</a>,fetch-attempts=3,log-level=WARNING,log-file=/var/log/glusterfs/gluster_engine_domain.log<br>
&gt;<br>
&gt; Sandro, it seems to me a simple solution which can be easily fixed.<br>
&gt;<br>
&gt; What do you think?<br>
&gt;<br>
&gt; Regards<br>
&gt; -Luiz<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; 2016-04-13 4:15 GMT-03:00 Sandro Bonazzola &lt;<a href="mailto:sbonazzo@redhat.com" target="_blank">sbonazzo@redhat.com</a>&gt;:<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Apr 12, 2016 at 6:47 PM, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Tue, Apr 12, 2016 at 3:05 PM, Luiz Claudio Prazeres Goncalves<br>
&gt;&gt;&gt; &lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt; Hi Sandro, I&#39;ve been using gluster with 3 external hosts for a while<br>
&gt;&gt;&gt; &gt; and<br>
&gt;&gt;&gt; &gt; things are working pretty well, however this single point of failure<br>
&gt;&gt;&gt; &gt; looks<br>
&gt;&gt;&gt; &gt; like a simple feature to implement,but critical to anyone who wants to<br>
&gt;&gt;&gt; &gt; use<br>
&gt;&gt;&gt; &gt; gluster on production  . This is not hyperconvergency which has other<br>
&gt;&gt;&gt; &gt; issues/implications. So , why not have this feature out on 3.6 branch?<br>
&gt;&gt;&gt; &gt; It<br>
&gt;&gt;&gt; &gt; looks like just let vdsm use the &#39;backupvol-server&#39; option when<br>
&gt;&gt;&gt; &gt; mounting the<br>
&gt;&gt;&gt; &gt; engine domain and make the property tests.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Can you explain what is the problem, and what is the suggested solution?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Engine and vdsm already support the backupvol-server option - you can<br>
&gt;&gt;&gt; define this option in the storage domain options when you create a<br>
&gt;&gt;&gt; gluster<br>
&gt;&gt;&gt; storage domain. With this option vdsm should be able to connect to<br>
&gt;&gt;&gt; gluster<br>
&gt;&gt;&gt; storage domain even if a brick is down.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; If you don&#39;t have this option in engine , you probably cannot add it with<br>
&gt;&gt;&gt; hosted<br>
&gt;&gt;&gt; engine setup, since for editing it you must put the storage domain in<br>
&gt;&gt;&gt; maintenance<br>
&gt;&gt;&gt; and if you do this the engine vm will be killed :-) This is is one of<br>
&gt;&gt;&gt; the issues with<br>
&gt;&gt;&gt; engine managing the storage domain it runs on.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I think the best way to avoid this issue, is to add a DNS entry<br>
&gt;&gt;&gt; providing the addresses<br>
&gt;&gt;&gt; of all the gluster bricks, and use this address for the gluster<br>
&gt;&gt;&gt; storage domain. This way<br>
&gt;&gt;&gt; the glusterfs mount helper can mount the domain even if one of the<br>
&gt;&gt;&gt; gluster bricks<br>
&gt;&gt;&gt; are down.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Again, we will need some magic from the hosted engine developers to<br>
&gt;&gt;&gt; modify the<br>
&gt;&gt;&gt; address of the hosted engine gluster domain on existing system.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Magic won&#39;t happen without a bz :-) please open one describing what&#39;s<br>
&gt;&gt; requested.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Nir<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Could you add this feature to the next release of 3.6 branch?<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thanks<br>
&gt;&gt;&gt; &gt; Luiz<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Em ter, 12 de abr de 2016 05:03, Sandro Bonazzola &lt;<a href="mailto:sbonazzo@redhat.com" target="_blank">sbonazzo@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt; escreveu:<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; On Mon, Apr 11, 2016 at 11:44 PM, Bond, Darryl &lt;<a href="mailto:dbond@nrggos.com.au" target="_blank">dbond@nrggos.com.au</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; My setup is hyperconverged. I have placed my test results in<br>
&gt;&gt;&gt; &gt;&gt;&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1298693" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1298693</a><br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Ok, so you&#39;re aware about the limitation of the single point of<br>
&gt;&gt;&gt; &gt;&gt; failure.<br>
&gt;&gt;&gt; &gt;&gt; If you drop the host referenced in hosted engine configuration for the<br>
&gt;&gt;&gt; &gt;&gt; initial setup it won&#39;t be able to connect to shared storage even if<br>
&gt;&gt;&gt; &gt;&gt; the<br>
&gt;&gt;&gt; &gt;&gt; other hosts in the cluster are up since the entry point is down.<br>
&gt;&gt;&gt; &gt;&gt; Note that hyperconverged deployment is not supported in 3.6.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Short description of setup:<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; 3 hosts with 2 disks each set up with gluster replica 3 across the 6<br>
&gt;&gt;&gt; &gt;&gt;&gt; disks volume name hosted-engine.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Hostname hosted-storage configured in /etc//hosts to point to the<br>
&gt;&gt;&gt; &gt;&gt;&gt; host1.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Installed hosted engine on host1 with the hosted engine storage path<br>
&gt;&gt;&gt; &gt;&gt;&gt; =<br>
&gt;&gt;&gt; &gt;&gt;&gt; hosted-storage:/hosted-engine<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Install first engine on h1 successful. Hosts h2 and h3 added to the<br>
&gt;&gt;&gt; &gt;&gt;&gt; hosted engine. All works fine.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Additional storage and non-hosted engine hosts added etc.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Additional VMs added to hosted-engine storage (oVirt Reports VM and<br>
&gt;&gt;&gt; &gt;&gt;&gt; Cinder VM). Additional VM&#39;s are hosted by other storage - cinder and<br>
&gt;&gt;&gt; &gt;&gt;&gt; NFS.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; The system is in production.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Engine can be migrated around with the web interface.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - 3.6.4 upgrade released, follow the upgrade guide, engine is<br>
&gt;&gt;&gt; &gt;&gt;&gt; upgraded<br>
&gt;&gt;&gt; &gt;&gt;&gt; first , new Centos kernel requires host reboot.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - Engine placed on h2 -  h3 into maintenance (local) upgrade and<br>
&gt;&gt;&gt; &gt;&gt;&gt; Reboot<br>
&gt;&gt;&gt; &gt;&gt;&gt; h3 - No issues - Local maintenance removed from h3.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - Engine placed on h3 -  h2 into maintenance (local) upgrade and<br>
&gt;&gt;&gt; &gt;&gt;&gt; Reboot<br>
&gt;&gt;&gt; &gt;&gt;&gt; h2 - No issues - Local maintenance removed from h2.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - Engine placed on h3 -h1 into mainteance (local) upgrade and reboot<br>
&gt;&gt;&gt; &gt;&gt;&gt; h1 -<br>
&gt;&gt;&gt; &gt;&gt;&gt; engine crashes and does not start elsewhere, VM(cinder)  on h3 on<br>
&gt;&gt;&gt; &gt;&gt;&gt; same<br>
&gt;&gt;&gt; &gt;&gt;&gt; gluster volume pauses.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - Host 1 takes about 5 minutes to reboot (Enterprise box with all<br>
&gt;&gt;&gt; &gt;&gt;&gt; it&#39;s<br>
&gt;&gt;&gt; &gt;&gt;&gt; normal BIOS probing)<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - Engine starts after h1 comes back and stabilises<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - VM(cinder) unpauses itself,  VM(reports) continued fine the whole<br>
&gt;&gt;&gt; &gt;&gt;&gt; time.<br>
&gt;&gt;&gt; &gt;&gt;&gt; I can do no diagnosis on the 2 VMs as the engine is not available.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; - Local maintenance removed from h1<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; I don&#39;t believe the issue is with gluster itself as the volume<br>
&gt;&gt;&gt; &gt;&gt;&gt; remains<br>
&gt;&gt;&gt; &gt;&gt;&gt; accessible on all hosts during this time albeit with a missing server<br>
&gt;&gt;&gt; &gt;&gt;&gt; (gluster volume status) as each gluster server is rebooted.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Gluster was upgraded as part of the process, no issues were seen<br>
&gt;&gt;&gt; &gt;&gt;&gt; here.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; I have been able to duplicate the issue without the upgrade by<br>
&gt;&gt;&gt; &gt;&gt;&gt; following<br>
&gt;&gt;&gt; &gt;&gt;&gt; the same sort of timeline.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; ________________________________<br>
&gt;&gt;&gt; &gt;&gt;&gt; From: Sandro Bonazzola &lt;<a href="mailto:sbonazzo@redhat.com" target="_blank">sbonazzo@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Sent: Monday, 11 April 2016 7:11 PM<br>
&gt;&gt;&gt; &gt;&gt;&gt; To: Richard Neuboeck; Simone Tiraboschi; Roy Golan; Martin Sivak;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Sahina<br>
&gt;&gt;&gt; &gt;&gt;&gt; Bose<br>
&gt;&gt;&gt; &gt;&gt;&gt; Cc: Bond, Darryl; users<br>
&gt;&gt;&gt; &gt;&gt;&gt; Subject: Re: [ovirt-users] Hosted engine on gluster problem<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; On Mon, Apr 11, 2016 at 9:37 AM, Richard Neuboeck<br>
&gt;&gt;&gt; &gt;&gt;&gt; &lt;<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;&gt; Hi Darryl,<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; I&#39;m still experimenting with my oVirt installation so I tried to<br>
&gt;&gt;&gt; &gt;&gt;&gt; recreate the problems you&#39;ve described.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; My setup has three HA hosts for virtualization and three machines<br>
&gt;&gt;&gt; &gt;&gt;&gt; for the gluster replica 3 setup.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; I manually migrated the Engine from the initial install host (one)<br>
&gt;&gt;&gt; &gt;&gt;&gt; to host three. Then shut down host one manually and interrupted the<br>
&gt;&gt;&gt; &gt;&gt;&gt; fencing mechanisms so the host stayed down. This didn&#39;t bother the<br>
&gt;&gt;&gt; &gt;&gt;&gt; Engine VM at all.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Did you move the host one to maintenance before shutting down?<br>
&gt;&gt;&gt; &gt;&gt;&gt; Or is this a crash recovery test?<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; To make things a bit more challenging I then shut down host three<br>
&gt;&gt;&gt; &gt;&gt;&gt; while running the Engine VM. Of course the Engine was down for some<br>
&gt;&gt;&gt; &gt;&gt;&gt; time until host two detected the problem. It started the Engine VM<br>
&gt;&gt;&gt; &gt;&gt;&gt; and everything seems to be running quite well without the initial<br>
&gt;&gt;&gt; &gt;&gt;&gt; install host.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Thanks for the feedback!<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; My only problem is that the HA agent on host two and three refuse to<br>
&gt;&gt;&gt; &gt;&gt;&gt; start after a reboot due to the fact that the configuration of the<br>
&gt;&gt;&gt; &gt;&gt;&gt; hosted engine is missing. I wrote another mail to<br>
&gt;&gt;&gt; &gt;&gt;&gt; <a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&lt;mailto:<a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; about that.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; This is weird. Martin,  Simone can you please investigate on this?<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Cheers<br>
&gt;&gt;&gt; &gt;&gt;&gt; Richard<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; On 04/08/2016 01:38 AM, Bond, Darryl wrote:<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; There seems to be a pretty severe bug with using hosted engine on<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; gluster.<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; If the host that was used as the initial hosted-engine --deploy<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; host<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; goes away, the engine VM wil crash and cannot be restarted until<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; the host<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; comes back.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; is this an Hyperconverged setup?<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; This is regardless of which host the engine was currently running.<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; The issue seems to be buried in the bowels of VDSM and is not an<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; issue<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; with gluster itself.<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; Sahina, can you please investigate on this?<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; The gluster filesystem is still accessable from the host that was<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; running the engine. The issue has been submitted to bugzilla but<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; the fix is<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; some way off (4.1).<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; Can my hosted engine be converted to use NFS (using the gluster NFS<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; server on the same filesystem) without rebuilding my hosted engine<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; (ie<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; change domainType=glusterfs to domainType=nfs)?<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; What effect would that have on the hosted-engine storage domain<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; inside<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; oVirt, ie would the same filesystem be mounted twice or would it<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; just break.<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; Will this actually fix the problem, does it have the same issue<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; when<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; the hosted engine is on NFS?<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; Darryl<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; ________________________________<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; The contents of this electronic message and any attachments are<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; intended only for the addressee and may contain legally privileged,<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; personal, sensitive or confidential information. If you are not the<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; intended<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; addressee, and have received this email, any transmission,<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; distribution,<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; downloading, printing or photocopying of the contents of this<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; message or<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; attachments is strictly prohibited. Any legal privilege or<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; confidentiality<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; attached to this message and attachments is not waived, lost or<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; destroyed by<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; reason of delivery to any person other than intended addressee. If<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; you have<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; received this message and are not the intended addressee you should<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; notify<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; the sender by return email and destroy all copies of the message<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; and any<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; attachments. Unless expressly attributed, the views expressed in<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; this email<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; do not necessarily represent the views of the company.<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; Users mailing list<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; --<br>
&gt;&gt;&gt; &gt;&gt;&gt; /dev/null<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; &gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt; &gt;&gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;&gt; --<br>
&gt;&gt;&gt; &gt;&gt;&gt; Sandro Bonazzola<br>
&gt;&gt;&gt; &gt;&gt;&gt; Better technology. Faster innovation. Powered by community<br>
&gt;&gt;&gt; &gt;&gt;&gt; collaboration.<br>
&gt;&gt;&gt; &gt;&gt;&gt; See how it works at <a href="http://redhat.com" rel="noreferrer" target="_blank">redhat.com</a>&lt;<a href="http://redhat.com" rel="noreferrer" target="_blank">http://redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; --<br>
&gt;&gt;&gt; &gt;&gt; Sandro Bonazzola<br>
&gt;&gt;&gt; &gt;&gt; Better technology. Faster innovation. Powered by community<br>
&gt;&gt;&gt; &gt;&gt; collaboration.<br>
&gt;&gt;&gt; &gt;&gt; See how it works at <a href="http://redhat.com" rel="noreferrer" target="_blank">redhat.com</a><br>
&gt;&gt;&gt; &gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; &gt;&gt; Users mailing list<br>
&gt;&gt;&gt; &gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt;&gt; &gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt;&gt; &gt; Users mailing list<br>
&gt;&gt;&gt; &gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Sandro Bonazzola<br>
&gt;&gt; Better technology. Faster innovation. Powered by community collaboration.<br>
&gt;&gt; See how it works at <a href="http://redhat.com" rel="noreferrer" target="_blank">redhat.com</a><br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div></div></div><div dir="ltr"><div class="gmail_extra"><br><br clear="all"><div><br></div>-- <br><div><div dir="ltr"><div><div dir="ltr">Sandro Bonazzola<br>Better technology. Faster innovation. Powered by community collaboration.<br>See how it works at <a href="http://redhat.com" target="_blank">redhat.com</a><br></div></div></div></div>
</div></div></blockquote></div></div>