<div dir="ltr"><div class="gmail_default" style="font-family:tahoma,sans-serif"><span style="font-family:arial">On Sat, Dec 21, 2013 at 11:56 PM, Grégoire Leroy </span><span dir="ltr" style="font-family:arial">&lt;<a href="mailto:gregoire.leroy@retenodus.net" target="_blank">gregoire.leroy@retenodus.net</a>&gt;</span><span style="font-family:arial"> wrote:</span><br>

</div><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">Hello,<br>


<div class="im"><br>
&gt; &gt;  If you disable quorum then you won&#39;t have the issue of &quot;read only&quot; when<br>
&gt; &gt;<br>
&gt; &gt;&gt; you lose a host, but you &gt; won&#39;t have protection from split brain (if<br>
&gt; &gt;&gt; your<br>
&gt; &gt;&gt; two hosts lose network connectivity). VMs will<br>
&gt; &gt;&gt; keep writing to the hosts, as you have the gluster server and client on<br>
&gt; &gt;&gt; the same host this is<br>
&gt; &gt;&gt; inevitable.<br>
<br>
&gt; &gt; Ok, I get the problem caused by disabling the quorum. So, what if while<br>
&gt; &gt; I&#39;ve two hosts the lack of HA is not so dramatic but will be necessary<br>
&gt; &gt; when<br>
&gt;<br>
&gt; &gt; I&#39;ll have more hosts ? (3 or 4). Here is the scenario I would like to have<br>
:<br>
&gt; Quorum generally requires 3 hosts, I believe the default configuration when<br>
&gt; you press &quot;Optimize for virt store&quot; will require a minimum of 2 bricks<br>
&gt; connected before writing is allowed.<br>
<br>
</div>Ok, if I understand, the quorum thing is very specific to gluster (bricks) and<br>
not to ovirt (hosts). So, maybe what I need is just another gluster server<br>
with very few space on a dummy VM (not hosted by a ovirt host but outside of<br>
my cluster) to add as a brick. It wouldn&#39;t be use at all, just to check<br>
connectivity<br></blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><br>
Then, if a host lose connectivity, it can&#39;t join neither the real gluster<br>
server nor the &quot;dummy&quot; one and so, doesn&#39;t run VM. The other one, which is<br>
able to join the dummy one becomes the SPM (the dummy wouldn&#39;t have vdsm<br>
server, so it couldn&#39;t become) and runs VM.<br>
<br>
Maybe by this way could I have HA with two hosts, right ? Is there a reason it<br>
shouldn&#39;t work ?<span style="font-family:tahoma,sans-serif"></span></blockquote><div> </div><div class="gmail_default" style="font-family:tahoma,sans-serif">I guess this would work as quroum is based on how many peers are in the cluster. Actually quite a good idea and I&#39;d love to hear from you on how it goes. I&#39;d be interested to see how gluster will work with this though, I assume it has to be apart of the volume. If you&#39;re doing distribute-replicate I think this &quot;dummy&quot; VM will need to hold hold the full replicated data? </div>

<div class="gmail_default" style="font-family:tahoma,sans-serif"><pre style="font-size:1em;background-color:rgb(238,238,238);border:1px dashed rgb(102,102,102);padding:15px 20px;overflow:auto;color:rgb(0,0,0)"> cluster.server-quorum-ratio - this is % &gt; 50. If the volume is not set with any ratio the equation for quorum is:
 active_peer_count &gt; 50% of all peers in cluster. But when the percentage (P)
 is specified the equation for quorum is active_peer_count &gt;= P % of all the <span style="font-size:1em;font-family:tahoma,sans-serif">befriended peers in cluster.</span></pre></div><div><div class="gmail_default" style="font-family:tahoma,sans-serif">

<br></div></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div class="im">
&gt; &gt; 1) I have two hosts : HOSTA and HOSTB. They have glusterfs bricks<br>
&gt; &gt; configured as Distribute Replicated and data is replicated.<br>
&gt; &gt; =&gt; For now, I&#39;m totally ok with the fact that if a node fails, then VM on<br>
&gt; &gt; this hosts are stopped and unreachable. However, I would like that if a<br>
&gt; &gt; node fails, the DC keeps running so that VM on the other hosts are not<br>
&gt; &gt; stopped and a human intervention make possible to start the VM on the<br>
&gt; &gt; other<br>
&gt; &gt; host. Would it be possible without disabling the quorum ?<br>
&gt;<br>
&gt; For the 2 host scenario, disable quorum will allow you to do this.<br>
<br>
</div>Unfortunately, not for all cases. If the network interface used by glusterfs<br>
to reach each other falls, I get the following behaviour :<br>
<br>
1) HOSTB, on which the VM run, detect that HOSTA&#39;s brick is unreachable. So it<br>
keeps running. Fine.<br>
2) HOSTA detects that HOSTB&#39;s brick is unreachable. So it starts to run the VM<br>
=&gt; Split brain. If the network interfaces not used for management of the<br>
cluster but for VM are OK, I&#39;m going to have a split network.<br>
3) Conclusion, the fall of HOSTA has impact on the VM of HOSTB<br>
<br>
Does this scenario seem correct to you, or have I miss something ? Maybe power<br>
management could avoid this issue.<br></blockquote><div class="gmail_default" style="font-family:tahoma,sans-serif">Yes you&#39;ll need the power management which they call &quot;fencing&quot;, so it will ensure that the host which has dropped from the cluster is sent for a reboot thus making any VMs running on it be shut off immediately and ready to be brought up on another ovirt host.</div>

<div class="gmail_default" style="font-family:tahoma,sans-serif"></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">


<div class="im"><br>
&gt; &gt; 2) In few months, I&#39;ll add two other hosts to the glusterfs volum. Their<br>
&gt; &gt; bricks will be replicated.<br>
&gt; &gt; =&gt; At that time, I would like to be able to make evolve my architecture<br>
&gt; &gt; (without shut my VM and export/import them on a new cluster) so that if a<br>
&gt; &gt; node fails, VM on this host start to run on the other host of the same<br>
&gt; &gt; brick (without manual intervention).<br>
&gt;<br>
&gt; Later on you just enable quorum, it&#39;s only a setting in the gluster volume.<br>
&gt; gluster volume set DATA cluster.quorum-type auto<br>
<br>
</div>Thanks you,<br>
Regards,<br>
Grégoire Leroy<br><br></blockquote></div><br></div></div>