<div dir="ltr">Hi Nir,<div><br></div><div>I have a thread open on the gluster side about heal-failed operations, so I&#39;ll wait for a response on that side.</div><div><br></div><div>Agreed on two node quorum, I&#39;m waiting for a 3rd node right now :) But in the meantime or for anyone who reads this thread, if you only have 2 storage nodes you have to weigh the risks of 2 nodes in quorum ensuring storage consistency, or 2 nodes no quorum with an extra shot at uptime.</div>
</div><div class="gmail_extra"><br clear="all"><div><div dir="ltr"><span style="font-family:arial,sans-serif;font-size:16px"><strong>Steve Dainard </strong></span><span style="font-size:12px"></span><br>
<span style="font-family:arial,sans-serif;font-size:12px">IT Infrastructure Manager<br>
<a href="http://miovision.com/" target="_blank">Miovision</a> | <em>Rethink Traffic</em><br><br>
<strong style="font-family:arial,sans-serif;font-size:13px;color:#999999"><a href="http://miovision.com/blog" target="_blank">Blog</a>  |  </strong><font color="#999999" style="font-family:arial,sans-serif;font-size:13px"><strong><a href="https://www.linkedin.com/company/miovision-technologies" target="_blank">LinkedIn</a>  |  <a href="https://twitter.com/miovision" target="_blank">Twitter</a>  |  <a href="https://www.facebook.com/miovision" target="_blank">Facebook</a></strong></font> </span>
<hr style="font-family:arial,sans-serif;font-size:13px;color:#333333;clear:both">
<div style="color:#999999;font-family:arial,sans-serif;font-size:13px;padding-top:5px">
        <span style="font-family:arial,sans-serif;font-size:12px">Miovision Technologies Inc. | 148 Manitou Drive, Suite 101, Kitchener, ON, Canada | N2C 1L3</span><br>
        <span style="font-family:arial,sans-serif;font-size:12px">This e-mail may contain information that is privileged or confidential. If you are not the intended recipient, please delete the e-mail and any attachments and notify us immediately.</span></div>
</div></div>
<br><br><div class="gmail_quote">On Wed, Feb 19, 2014 at 4:13 AM, Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="">----- Original Message -----<br>
&gt; From: &quot;Steve Dainard&quot; &lt;<a href="mailto:sdainard@miovision.com">sdainard@miovision.com</a>&gt;<br>
&gt; To: &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt;<br>
&gt; Cc: &quot;users&quot; &lt;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&gt;<br>
</div><div class="">&gt; Sent: Tuesday, February 11, 2014 7:42:37 PM<br>
&gt; Subject: Re: [Users] Ovirt 3.3.2 Cannot attach POSIX (gluster) storage domain<br>
&gt;<br>
</div>&gt; Enabled logging, logs attached.<br>
<br>
According to sanlock and gluster log:<br>
<br>
1. on the host, sanlock is failing write to the ids volume<br>
2. on the gluster side we see failure to heal the ids file.<br>
<br>
This looks like glusterfs issue, and should be handled by glusterfs folks.<br>
<br>
You probably should configure sanlock log level back to the default by commenting<br>
out the configuration I suggested in the previous mail.<br>
<br>
According to gluster configuration in this log, this looks like 2 replicas with auto quorum.<br>
This setup is not recommended because both machines must be up all the time.<br>
When one machine is down, your entire storage is down.<br>
<br>
Check this post explaining this issue:<br>
<a href="http://lists.ovirt.org/pipermail/users/2014-February/021541.html" target="_blank">http://lists.ovirt.org/pipermail/users/2014-February/021541.html</a><br>
<br>
Thanks,<br>
Nir<br>
</blockquote></div><br></div>