<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Apr 14, 2016 at 7:07 PM, Luiz Claudio Prazeres Goncalves <span dir="ltr">&lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span>Sandro, any word here? Btw, I&#39;m not talking about hyperconvergency in this case, but 3 external gluster nodes using replica 3</span><br><br><span>Regards</span><span class="HOEnZb"><font color="#888888"><div>Luiz</div></font></span><div class="HOEnZb"><div class="h5"><div><br><div class="gmail_quote"><div dir="ltr">Em qua, 13 de abr de 2016 10:34, Luiz Claudio Prazeres Goncalves &lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt; escreveu:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div style="font-family:verdana,sans-serif;font-size:small">Nir, here is the problem:  <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1298693" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1298693</a> </div><div style="font-family:verdana,sans-serif;font-size:small"><br></div><div style="font-size:small"><span style="font-family:verdana,sans-serif">When you do a hosted-engine --deploy and pick &quot;glusterfs&quot; you don&#39;t have a way to define the mount options, therefore, the use of the &quot;backupvol-server&quot;, however when you create a storage domain from the UI you can, like the attached screen shot.</span></div><div style="font-size:small"><span style="font-family:verdana,sans-serif"><br></span></div><div style="font-size:small"><span style="font-family:verdana,sans-serif"><br></span></div><div style="font-size:small"><span style="font-family:verdana,sans-serif">In the hosted-engine --deploy, I would expect a flow which includes not only the &quot;gluster&quot; entrypoint, but also the gluster mount options which is missing today. This option would be optional, but would remove the single point of failure described on the </span>Bug 1298693.</div>







<div style="font-size:small"><span style="font-family:verdana,sans-serif"><br></span></div><div style="font-size:small"><span style="font-family:verdana,sans-serif">for example:</span></div><div style="font-size:small">

<div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px"><br></div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px"><font color="#ff0000">Existing entry point on the &quot;hosted-engine --deploy&quot; flow</font></div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px">gluster1.xyz.com:/engine </div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px"><br></div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px"><br></div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px"><font color="#ff0000">Missing option on the &quot;hosted-engine --deploy&quot; flow :</font></div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px">backupvolfile-server=<a href="http://gluster2.xyz.com" target="_blank">gluster2.xyz.com</a>,fetch-attempts=3,log-level=WARNING,log-file=/var/log/glusterfs/gluster_engine_domain.log<br></div><div style="font-family:&#39;Helvetica Neue&#39;;font-size:14px"> </div></div><div class="gmail_extra"><div style="font-family:verdana,sans-serif;font-size:small">​Sandro, it seems to me a simple solution which can be easily fixed.</div><div style="font-family:verdana,sans-serif;font-size:small"><br></div><div style="font-family:verdana,sans-serif;font-size:small">What do you think?</div></div></div></blockquote></div></div></div></div></blockquote><div><br></div><div><br></div><div>The whole integration team is currently busy and we have not enough resources to handle this for 3.6.6 time frame.</div><div>We&#39;ll be happy to help reviewing patches but we have more urgent items to handle right now.</div><div><br></div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5"><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div style="font-family:verdana,sans-serif;font-size:small"><br></div><div style="font-family:verdana,sans-serif;font-size:small">Regards</div></div></div><div dir="ltr"><div class="gmail_extra"><div style="font-family:verdana,sans-serif;font-size:small">-Luiz​</div><br></div></div><div dir="ltr"><div class="gmail_extra"><br></div><div class="gmail_extra"><br><div class="gmail_quote">2016-04-13 4:15 GMT-03:00 Sandro Bonazzola <span dir="ltr">&lt;<a href="mailto:sbonazzo@redhat.com" target="_blank">sbonazzo@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><div><div>On Tue, Apr 12, 2016 at 6:47 PM, Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span>On Tue, Apr 12, 2016 at 3:05 PM, Luiz Claudio Prazeres Goncalves<br>
&lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt; wrote:<br>
&gt; Hi Sandro, I&#39;ve been using gluster with 3 external hosts for a while and<br>
&gt; things are working pretty well, however this single point of failure looks<br>
&gt; like a simple feature to implement,but critical to anyone who wants to use<br>
&gt; gluster on production  . This is not hyperconvergency which has other<br>
&gt; issues/implications. So , why not have this feature out on 3.6 branch? It<br>
&gt; looks like just let vdsm use the &#39;backupvol-server&#39; option when mounting the<br>
&gt; engine domain and make the property tests.<br>
<br>
</span>Can you explain what is the problem, and what is the suggested solution?<br>
<br>
Engine and vdsm already support the backupvol-server option - you can<br>
define this option in the storage domain options when you create a gluster<br>
storage domain. With this option vdsm should be able to connect to gluster<br>
storage domain even if a brick is down.<br>
<br>
If you don&#39;t have this option in engine , you probably cannot add it with hosted<br>
engine setup, since for editing it you must put the storage domain in<br>
maintenance<br>
and if you do this the engine vm will be killed :-) This is is one of<br>
the issues with<br>
engine managing the storage domain it runs on.<br>
<br>
I think the best way to avoid this issue, is to add a DNS entry<br>
providing the addresses<br>
of all the gluster bricks, and use this address for the gluster<br>
storage domain. This way<br>
the glusterfs mount helper can mount the domain even if one of the<br>
gluster bricks<br>
are down.<br>
<br>
Again, we will need some magic from the hosted engine developers to modify the<br>
address of the hosted engine gluster domain on existing system.<br></blockquote><div><br></div></div></div><div>Magic won&#39;t happen without a bz :-) please open one describing what&#39;s requested.</div><div><div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<span><font color="#888888"><br>
Nir<br>
</font></span><div><div><br>
&gt;<br>
&gt; Could you add this feature to the next release of 3.6 branch?<br>
&gt;<br>
&gt; Thanks<br>
&gt; Luiz<br>
&gt;<br>
&gt; Em ter, 12 de abr de 2016 05:03, Sandro Bonazzola &lt;<a href="mailto:sbonazzo@redhat.com" target="_blank">sbonazzo@redhat.com</a>&gt;<br>
&gt; escreveu:<br>
&gt;&gt;<br>
&gt;&gt; On Mon, Apr 11, 2016 at 11:44 PM, Bond, Darryl &lt;<a href="mailto:dbond@nrggos.com.au" target="_blank">dbond@nrggos.com.au</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; My setup is hyperconverged. I have placed my test results in<br>
&gt;&gt;&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1298693" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1298693</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Ok, so you&#39;re aware about the limitation of the single point of failure.<br>
&gt;&gt; If you drop the host referenced in hosted engine configuration for the<br>
&gt;&gt; initial setup it won&#39;t be able to connect to shared storage even if the<br>
&gt;&gt; other hosts in the cluster are up since the entry point is down.<br>
&gt;&gt; Note that hyperconverged deployment is not supported in 3.6.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Short description of setup:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 3 hosts with 2 disks each set up with gluster replica 3 across the 6<br>
&gt;&gt;&gt; disks volume name hosted-engine.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hostname hosted-storage configured in /etc//hosts to point to the host1.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Installed hosted engine on host1 with the hosted engine storage path =<br>
&gt;&gt;&gt; hosted-storage:/hosted-engine<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Install first engine on h1 successful. Hosts h2 and h3 added to the<br>
&gt;&gt;&gt; hosted engine. All works fine.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Additional storage and non-hosted engine hosts added etc.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Additional VMs added to hosted-engine storage (oVirt Reports VM and<br>
&gt;&gt;&gt; Cinder VM). Additional VM&#39;s are hosted by other storage - cinder and NFS.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The system is in production.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Engine can be migrated around with the web interface.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - 3.6.4 upgrade released, follow the upgrade guide, engine is upgraded<br>
&gt;&gt;&gt; first , new Centos kernel requires host reboot.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - Engine placed on h2 -  h3 into maintenance (local) upgrade and Reboot<br>
&gt;&gt;&gt; h3 - No issues - Local maintenance removed from h3.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - Engine placed on h3 -  h2 into maintenance (local) upgrade and Reboot<br>
&gt;&gt;&gt; h2 - No issues - Local maintenance removed from h2.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - Engine placed on h3 -h1 into mainteance (local) upgrade and reboot h1 -<br>
&gt;&gt;&gt; engine crashes and does not start elsewhere, VM(cinder)  on h3 on same<br>
&gt;&gt;&gt; gluster volume pauses.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - Host 1 takes about 5 minutes to reboot (Enterprise box with all it&#39;s<br>
&gt;&gt;&gt; normal BIOS probing)<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - Engine starts after h1 comes back and stabilises<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - VM(cinder) unpauses itself,  VM(reports) continued fine the whole time.<br>
&gt;&gt;&gt; I can do no diagnosis on the 2 VMs as the engine is not available.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; - Local maintenance removed from h1<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I don&#39;t believe the issue is with gluster itself as the volume remains<br>
&gt;&gt;&gt; accessible on all hosts during this time albeit with a missing server<br>
&gt;&gt;&gt; (gluster volume status) as each gluster server is rebooted.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Gluster was upgraded as part of the process, no issues were seen here.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I have been able to duplicate the issue without the upgrade by following<br>
&gt;&gt;&gt; the same sort of timeline.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ________________________________<br>
&gt;&gt;&gt; From: Sandro Bonazzola &lt;<a href="mailto:sbonazzo@redhat.com" target="_blank">sbonazzo@redhat.com</a>&gt;<br>
&gt;&gt;&gt; Sent: Monday, 11 April 2016 7:11 PM<br>
&gt;&gt;&gt; To: Richard Neuboeck; Simone Tiraboschi; Roy Golan; Martin Sivak; Sahina<br>
&gt;&gt;&gt; Bose<br>
&gt;&gt;&gt; Cc: Bond, Darryl; users<br>
&gt;&gt;&gt; Subject: Re: [ovirt-users] Hosted engine on gluster problem<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Mon, Apr 11, 2016 at 9:37 AM, Richard Neuboeck<br>
&gt;&gt;&gt; &lt;<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&lt;mailto:<a href="mailto:hawk@tbi.univie.ac.at" target="_blank">hawk@tbi.univie.ac.at</a>&gt;&gt; wrote:<br>
&gt;&gt;&gt; Hi Darryl,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I&#39;m still experimenting with my oVirt installation so I tried to<br>
&gt;&gt;&gt; recreate the problems you&#39;ve described.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; My setup has three HA hosts for virtualization and three machines<br>
&gt;&gt;&gt; for the gluster replica 3 setup.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I manually migrated the Engine from the initial install host (one)<br>
&gt;&gt;&gt; to host three. Then shut down host one manually and interrupted the<br>
&gt;&gt;&gt; fencing mechanisms so the host stayed down. This didn&#39;t bother the<br>
&gt;&gt;&gt; Engine VM at all.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Did you move the host one to maintenance before shutting down?<br>
&gt;&gt;&gt; Or is this a crash recovery test?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; To make things a bit more challenging I then shut down host three<br>
&gt;&gt;&gt; while running the Engine VM. Of course the Engine was down for some<br>
&gt;&gt;&gt; time until host two detected the problem. It started the Engine VM<br>
&gt;&gt;&gt; and everything seems to be running quite well without the initial<br>
&gt;&gt;&gt; install host.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Thanks for the feedback!<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; My only problem is that the HA agent on host two and three refuse to<br>
&gt;&gt;&gt; start after a reboot due to the fact that the configuration of the<br>
&gt;&gt;&gt; hosted engine is missing. I wrote another mail to<br>
&gt;&gt;&gt; <a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&lt;mailto:<a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&gt;<br>
&gt;&gt;&gt; about that.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; This is weird. Martin,  Simone can you please investigate on this?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Cheers<br>
&gt;&gt;&gt; Richard<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On 04/08/2016 01:38 AM, Bond, Darryl wrote:<br>
&gt;&gt;&gt; &gt; There seems to be a pretty severe bug with using hosted engine on<br>
&gt;&gt;&gt; &gt; gluster.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; If the host that was used as the initial hosted-engine --deploy host<br>
&gt;&gt;&gt; &gt; goes away, the engine VM wil crash and cannot be restarted until the host<br>
&gt;&gt;&gt; &gt; comes back.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; is this an Hyperconverged setup?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; This is regardless of which host the engine was currently running.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; The issue seems to be buried in the bowels of VDSM and is not an issue<br>
&gt;&gt;&gt; &gt; with gluster itself.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Sahina, can you please investigate on this?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; The gluster filesystem is still accessable from the host that was<br>
&gt;&gt;&gt; &gt; running the engine. The issue has been submitted to bugzilla but the fix is<br>
&gt;&gt;&gt; &gt; some way off (4.1).<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Can my hosted engine be converted to use NFS (using the gluster NFS<br>
&gt;&gt;&gt; &gt; server on the same filesystem) without rebuilding my hosted engine (ie<br>
&gt;&gt;&gt; &gt; change domainType=glusterfs to domainType=nfs)?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; What effect would that have on the hosted-engine storage domain inside<br>
&gt;&gt;&gt; &gt; oVirt, ie would the same filesystem be mounted twice or would it just break.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Will this actually fix the problem, does it have the same issue when<br>
&gt;&gt;&gt; &gt; the hosted engine is on NFS?<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Darryl<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; ________________________________<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; The contents of this electronic message and any attachments are<br>
&gt;&gt;&gt; &gt; intended only for the addressee and may contain legally privileged,<br>
&gt;&gt;&gt; &gt; personal, sensitive or confidential information. If you are not the intended<br>
&gt;&gt;&gt; &gt; addressee, and have received this email, any transmission, distribution,<br>
&gt;&gt;&gt; &gt; downloading, printing or photocopying of the contents of this message or<br>
&gt;&gt;&gt; &gt; attachments is strictly prohibited. Any legal privilege or confidentiality<br>
&gt;&gt;&gt; &gt; attached to this message and attachments is not waived, lost or destroyed by<br>
&gt;&gt;&gt; &gt; reason of delivery to any person other than intended addressee. If you have<br>
&gt;&gt;&gt; &gt; received this message and are not the intended addressee you should notify<br>
&gt;&gt;&gt; &gt; the sender by return email and destroy all copies of the message and any<br>
&gt;&gt;&gt; &gt; attachments. Unless expressly attributed, the views expressed in this email<br>
&gt;&gt;&gt; &gt; do not necessarily represent the views of the company.<br>
&gt;&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt;&gt; &gt; Users mailing list<br>
&gt;&gt;&gt; &gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt;&gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; /dev/null<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt;&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Sandro Bonazzola<br>
&gt;&gt;&gt; Better technology. Faster innovation. Powered by community collaboration.<br>
&gt;&gt;&gt; See how it works at <a href="http://redhat.com" rel="noreferrer" target="_blank">redhat.com</a>&lt;<a href="http://redhat.com" rel="noreferrer" target="_blank">http://redhat.com</a>&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Sandro Bonazzola<br>
&gt;&gt; Better technology. Faster innovation. Powered by community collaboration.<br>
&gt;&gt; See how it works at <a href="http://redhat.com" rel="noreferrer" target="_blank">redhat.com</a><br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Users mailing list<br>
&gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
</div></div></blockquote></div></div></div><div><div><br><br clear="all"><div><br></div>-- <br><div><div dir="ltr"><div><div dir="ltr">Sandro Bonazzola<br>Better technology. Faster innovation. Powered by community collaboration.<br>See how it works at <a href="http://redhat.com" target="_blank">redhat.com</a><br></div></div></div></div>
</div></div></div></div>
</blockquote></div><br></div></div></blockquote></div></div>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr">Sandro Bonazzola<br>Better technology. Faster innovation. Powered by community collaboration.<br>See how it works at <a href="http://redhat.com" target="_blank">redhat.com</a><br></div></div></div></div>
</div></div>