<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Mar 25, 2017 at 9:20 AM, Charles Tassell <span dir="ltr">&lt;<a href="mailto:ctassell@gmail.com" target="_blank">ctassell@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Everyone,<br>
<br>
  I&#39;m about to setup an oVirt cluster with two hosts hitting a Linux storage server.  Since the Linux box can provide the storage in pretty much any form, I&#39;m wondering which option is &quot;best.&quot; Our primary focus is on reliability, with performance being a close second.  Since we will only be using a single storage server I was thinking NFS would probably beat out GlusterFS, and that NFSv4 would be a better choice than NFSv3.  I had assumed that that iSCSI would be better performance wise, but from what I&#39;m seeing online that might not be the case.<br></blockquote><div><br></div><div>NFS 4.2 is better than NFS 3 in the sense that you&#39;ll get DISCARD support, which is nice.</div><div>Gluster probably requires 3 servers.</div><div>In most cases, I don&#39;t think people see the difference in performance between NFS and iSCSI. The theory is that block storage is faster, but in practice, most don&#39;t get to those limits where it matters really.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
  Our servers will be using a 1G network backbone for regular traffic and a dedicated 10G backbone with LACP for redundancy and extra bandwidth for storage traffic if that makes a difference.<br></blockquote><div><br></div><div>LCAP many times (especially on NFS) does not provide extra bandwidth, as the (single) NFS connection tends to be sticky to a single physical link.</div><div>It&#39;s one of the reasons I personally prefer iSCSI with multipathing.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
  I&#39;ll probably try to do some performance benchmarks with 2-3 options, but the reliability issue is a little harder to test for.  Has anyone had any particularly bad experiences with a particular storage option?  We have been using iSCSI with a Dell MD3x00 SAN and have run into a bunch of issues with the multipath setup, but that won&#39;t be a problem with the new SAN since it&#39;s only got a single controller interface.<br></blockquote><div><br></div><div>A single controller is not very reliable. If reliability is your primary concern, I suggest ensuring there is no single point of failure - or at least you are aware of all of them (does the storage server have redundant power supply? to two power sources? Of course in some scenarios it&#39;s an overkill and perhaps not practical, but you should be aware of your weak spots).</div><div><br></div><div>I&#39;d stick with what you are most comfortable managing - creating, backing up, extending, verifying health, etc.</div><div>Y.</div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
</blockquote></div><br></div></div>