<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr">On Fri, Apr 6, 2018, 12:39 AM Jayme &lt;<a href="mailto:jaymef@gmail.com">jaymef@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div>Vincent,<br><br></div>I&#39;ve been back and forth on SSDs vs HDDs and can&#39;t really get a clear answer.  You are correct though, it would only equal 4TB usable in the end which is pretty crazy but that amount of 7200 RPM HDDs equals about the same cost as 3 2TB ssds would.  I actually posted a question to this list not long ago asking how GlusterFS might perform with a small amount of disks such as one 2TB SSD per host and some glusterFS users commented stating that network would be the bottleneck long before the disks and a small amount of SSDs could bottleneck at RPC layer.   Also, I believe at this time GlusterFS is not exactly developed to take full advantage of SSDs (but I believe there has been strides being made in that regard, I could be wrong here).  <br></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Coming real soon now are some very cool features that will make decisions somewhat harder: dedup+compression (from VDO) and lvmcache setup. </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><br></div>As for replica 3 being overkill that may be true as well but from what I&#39;ve read on Ovirt and GlusterFS list archives people typically feel safer with replica 3 and run in to less disaster scenarios and can provide easier recovery.  I&#39;m not sold on Replica 3 either, Rep 3 Arbiter 1 may be more than fine but I wanted to err on the side of caution as this setup may host production servers sometime in the future. <br><br></div>I really wish I could get some straight answers on best configuration for Ovirt + GlusterFS but thus far it has been a big question mark.  I don&#39;t know if Raid is better than JBOD and I don&#39;t know if a smaller number of SSDs would perform any better/worse than larger number of spinning disks in raid 10.   <br></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">RAID is better than JBOD in terms of availability and most likely performance. </div><div dir="auto">It&#39;s also more expensive and requires initial setup. </div><div dir="auto">SSD will perform better than HDD. </div><div dir="auto">It&#39;s also more expensive than HDD. </div><div dir="auto"><br></div><div dir="auto">No one but you can provide what works best for your requirements. </div><div dir="auto">Y. </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Apr 5, 2018 at 5:38 PM, Vincent Royer <span dir="ltr">&lt;<a href="mailto:vincent@epicenergy.ca" target="_blank" rel="noreferrer">vincent@epicenergy.ca</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Jayme, <div><br></div><div>I&#39;m doing a very similar build, the only difference really is I am using SSDs instead of HDDs.   I have similar questions as you regarding expected performance. Have you considered JBOD + NFS?   Putting a Gluster Replica 3 on top of RAID 10 arrays sounds very safe, but my gosh the capacity takes a massive hit.  Am I correct in saying you will only get 4TB total usable capacity out of 24TB worth of disks?  The cost per TB in that sort of scenario is immense. </div><div><br></div><div>My plan is two 2TB SSDs per server in JBOD with a caching raid card, with replica 3.  I would end up with the same 4TB total capacity using 12TB of SSDs. </div><div><br></div><div>I think Replica 3 is safe enough that you could forgo the RAID 10. But I&#39;m talking from zero experience...  Would love others to chime in with their opinions on both these setups. </div></div><div class="gmail_extra"><br clear="all"><div><div class="m_6525636091569527619m_-5691852617193667630gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div><div dir="ltr" style="font-size:12.8px"><font face="arial narrow, sans-serif" size="4"><b>Vincent Royer</b></font></div><div dir="ltr"><div style="font-size:12.8px"><font face="arial narrow, sans-serif" size="4"><b>778-825-1057</b></font></div><div style="font-size:12.8px"><font face="arial narrow, sans-serif" size="4"><b><br></b></font></div><div style="font-size:12.8px"><a href="http://www.epicenergy.ca/" target="_blank" rel="noreferrer"><img src="https://lh3.googleusercontent.com/ezD9JxeN67lTscselHjW4ZEqvQRj_i_T_Ky_s__GkR0AtanG1nK52CD1Rdhmyzbk7XRPf-Rhhnr2-SLPmhtd0J8xVMp0xOiR20ebQVb6jU2xwJPKN4lePRq5G2p93ybqA4SnqjCWCvEsNlK37a9FtStdFcTJyIoS2aHKiL69L3bZg1g7mEAMr7IHXVYvHgq3MX9rNaqIQx9T3uPuIHEDIfxrgpCrsBoEamgaRHj5hcpEobnogqCqpa1sRcKy927TSeR5BbVLM1-wn0h-4LvE8CMqj30jpQULxZ9uXEg_S6sR3ZeZjtkkRvgK4l_wiivWlyV_SjCDQ5QREG3jkuCjXC04i1NNmziGZZNWYsaohE6khrN4JGVtvaSOiS2woYJNz3Gt0EucxJp3eUBYspzTl9iZia7bLvFEGIODvmfjRVZJmnCrFucJxGkAtWn_EUIbxJXS5NWAFnvBoixQP563Fbu7dFKL77lDcb4PHwrnJVjqcgU0OTeiMBlMvEt97YgMpMvdi7rx9L4DeEbrIGUovgx4QLfRRoF_9u2mxFu8FHupCxfocSyB3vs8gqOLvVdx42qwiLN0sGLAg8K3G_vFwVNddXQ_yb3cGeCEAOTnk7jfiP4O4jsPIW2RRbnKKL-usL11Tp7gkxbgRouLOoyqpbisjA4vRWDeylj1yDGyBg=w400-h38-no" width="200" height="18"><br></a></div><div><b><font face="arial narrow, sans-serif" size="2">SUSTAINABLE MOBILE <font color="#6aa84f">ENERGY </font>SOLUTIONS</font></b></div></div></div><div><br></div><div><br><div><div><br></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div><div><div class="m_6525636091569527619h5">
<br><div class="gmail_quote">On Thu, Apr 5, 2018 at 12:22 PM, Jayme <span dir="ltr">&lt;<a href="mailto:jaymef@gmail.com" target="_blank" rel="noreferrer">jaymef@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Thanks for your feedback.  Any other opinions on this proposed setup?  I&#39;m very torn over using GlusterFS and what the expected performance may be, there seems to be little information out there.  Would love to hear any feedback specifically from ovirt users on hyperconverged configurations.  </div><div class="m_6525636091569527619m_-5691852617193667630HOEnZb"><div class="m_6525636091569527619m_-5691852617193667630h5"><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Apr 5, 2018 at 2:56 AM, Alex K <span dir="ltr">&lt;<a href="mailto:rightkicktech@gmail.com" target="_blank" rel="noreferrer">rightkicktech@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">Hi,<div dir="auto"><br></div><div dir="auto">You should be ok with the setup.</div><div dir="auto">I am running around 20 vms (linux and windows, small and medium size) with the half of your specs. With 10G network replica 3 is ok. </div><div dir="auto"><br></div><div dir="auto">Alex</div></div><br><div class="gmail_quote"><div><div class="m_6525636091569527619m_-5691852617193667630m_-2395917300502361481h5"><div dir="ltr">On Wed, Apr 4, 2018, 16:13 Jayme &lt;<a href="mailto:jaymef@gmail.com" target="_blank" rel="noreferrer">jaymef@gmail.com</a>&gt; wrote:<br></div></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="m_6525636091569527619m_-5691852617193667630m_-2395917300502361481h5"><div dir="ltr">I&#39;m spec&#39;ing hardware for a 3-node oVirt build (on somewhat of a budget).  I plan to do 20-30 Linux VMs most of them very light weight + a couple of heavier hitting web and DB servers with frequent rsync backups.  Some have a lot of small files from large github repos etc.  <div><br></div><div>3X of the following:</div><div><br></div><div><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">Dell PowerEdge R720</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial"><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">2x 2.9 GHz 8 Core E5-2690 (SR0L0)</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial"><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">256GB RAM</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial"><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">PERC H710</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial">2x10GB Nic</div><div><br></div><div>Boot/OS will likely be two cheaper small sata/ssd in raid 1.  </div><div><br></div><div>Gluster bricks comprised of 4x2TB WD Gold 7200RPM SATA HDDs in RAID 10 per server.  Using a replica 3 setup (and I&#39;m thinking right now with no arbiter for extra redundancy, although I&#39;m not sure what the performance hit may be as a result).  Will this allow for two host failure or just one? </div><div><br></div><div>I&#39;ve been really struggling with storage choices, it seems very difficult to predict the performance of glusterFS due to the variance in hardware (everyone is using something different).  I&#39;m not sure if the performance will be adequate enough for my needs. </div><div><br></div><div>I will be using an all ready existing Netgear XS716T 10GB switch for Gluster storage network. </div><div><br></div><div>In addition I plan to build another simple glusterFS storage server that I can use to georeplicate the gluster volume to for DR purposes and use existing hardware to build an independent standby oVirt host that is able to start up a few high priority VMs from the georeplicated glusterFS volume if for some reason the primary oVirt cluster/glusterFS volume ever failed. <br></div><div><br></div><div>I would love to hear any advice or critiques on this plan.  </div><div><br></div><div>Thanks!</div></div></div></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" rel="noreferrer noreferrer" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div>
</blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank" rel="noreferrer">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br></div></div></div>
</blockquote></div><br></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank" rel="noreferrer">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div></div></div>