<html><body><SPAN style="font-size: 11pt"><div dir='auto'><div><br><div class="gmail_extra"><br><div class="gmail_quote">Den 6 apr. 2018 15:46 skrev Jayme &lt;jaymef@gmail.com&gt;:<br type="attribution"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div dir="ltr">Yaniv,<div><br></div><div>I appreciate your input, thanks!&nbsp;&nbsp;</div><div><br></div><div>I understand that everyone's use case is different, but I was hoping to hear from some users that are using oVirt hyper-converged setup and get some input on the performance.&nbsp; When I research GlusterFS I hear a lot about how it can be slow especially when dealing with small files.&nbsp; I'm starting to wonder if a straight up NFS server with a few SSDs would be less hassle and perhaps offer better VM performance than glusterFS can currently.&nbsp;&nbsp;</div><div><br></div><div>I want to get the best oVirt performance I can get (on somewhat of a budget) with a fairly small amount of required disk space (under 2TB).&nbsp; I'm not sure if hyper-converged setup w/GlusterFS is the answer or not.&nbsp; I'd like to avoid spending 15k only to find out that it's too slow.&nbsp;</div></div></div></blockquote></div></div></div><div dir="auto"><br></div><div dir="auto">What is "too slow" for you, what are your expectations?</div><div dir="auto"><br></div><div dir="auto">Much depending on that, you will find that different goals require different tools. Like hammering on a screw and all that :)</div><div dir="auto"><br></div><div dir="auto">/K</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><br><div class="elided-text">On Fri, Apr 6, 2018 at 6:05 AM, Yaniv Kaul <span dir="ltr">&lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt;</span> wrote:<br><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div><br><br><div class="elided-text"><div dir="ltr">On Thu, Apr 5, 2018, 11:39 PM Vincent Royer &lt;<a href="mailto:vincent@epicenergy.ca">vincent@epicenergy.ca</a>&gt; wrote:<br></div><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Jayme,&nbsp;<div><br></div><div>I'm doing a very similar build, the only difference really is I am using SSDs instead of HDDs.&nbsp; &nbsp;I have similar questions as you regarding expected performance. Have you considered JBOD + NFS?&nbsp; &nbsp;Putting a Gluster Replica 3 on top of RAID 10 arrays sounds very safe, but my gosh the capacity takes a massive hit.&nbsp; Am I correct in saying you will only get 4TB total usable capacity out of 24TB worth of disks?&nbsp; The cost per TB in that sort of scenario is immense.&nbsp;</div><div><br></div><div>My plan is two 2TB SSDs per server in JBOD with a caching raid card, with replica 3.&nbsp; I would end up with the same 4TB total capacity using 12TB of SSDs.&nbsp;</div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">I'm not sure I see the value in RAID card if you don't use RAID and I'm not sure you really need caching on the card.&nbsp;</div><font color="#888888"><div dir="auto">Y.&nbsp;</div></font><div><div><div dir="auto"><br></div><div dir="auto"><div class="elided-text"><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div>I think Replica 3 is safe enough that you could forgo the RAID 10. But I'm talking from zero experience...&nbsp; Would love others to chime in with their opinions on both these setups.&nbsp;</div></div><div><br clear="all"><div><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div><div dir="ltr" style="font-size:12.8px"><font size="4" face="arial narrow, sans-serif"><b>Vincent Royer</b></font></div><div dir="ltr"><div style="font-size:12.8px"><font size="4" face="arial narrow, sans-serif"><b>778-825-1057</b></font></div><div style="font-size:12.8px"><font size="4" face="arial narrow, sans-serif"><b><br></b></font></div><div style="font-size:12.8px"><a href="http://www.epicenergy.ca/"><img src="https://lh3.googleusercontent.com/ezD9JxeN67lTscselHjW4ZEqvQRj_i_T_Ky_s__GkR0AtanG1nK52CD1Rdhmyzbk7XRPf-Rhhnr2-SLPmhtd0J8xVMp0xOiR20ebQVb6jU2xwJPKN4lePRq5G2p93ybqA4SnqjCWCvEsNlK37a9FtStdFcTJyIoS2aHKiL69L3bZg1g7mEAMr7IHXVYvHgq3MX9rNaqIQx9T3uPuIHEDIfxrgpCrsBoEamgaRHj5hcpEobnogqCqpa1sRcKy927TSeR5BbVLM1-wn0h-4LvE8CMqj30jpQULxZ9uXEg_S6sR3ZeZjtkkRvgK4l_wiivWlyV_SjCDQ5QREG3jkuCjXC04i1NNmziGZZNWYsaohE6khrN4JGVtvaSOiS2woYJNz3Gt0EucxJp3eUBYspzTl9iZia7bLvFEGIODvmfjRVZJmnCrFucJxGkAtWn_EUIbxJXS5NWAFnvBoixQP563Fbu7dFKL77lDcb4PHwrnJVjqcgU0OTeiMBlMvEt97YgMpMvdi7rx9L4DeEbrIGUovgx4QLfRRoF_9u2mxFu8FHupCxfocSyB3vs8gqOLvVdx42qwiLN0sGLAg8K3G_vFwVNddXQ_yb3cGeCEAOTnk7jfiP4O4jsPIW2RRbnKKL-usL11Tp7gkxbgRouLOoyqpbisjA4vRWDeylj1yDGyBg=w400-h38-no" width="200" height="18"><br></a></div><div><b><font face="arial narrow, sans-serif" size="2">SUSTAINABLE MOBILE&nbsp;<font color="#6aa84f">ENERGY&nbsp;</font>SOLUTIONS</font></b></div></div></div><div><br></div><div><br><div><div><br></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
<br><div class="elided-text">On Thu, Apr 5, 2018 at 12:22 PM, Jayme <span dir="ltr">&lt;<a href="mailto:jaymef@gmail.com">jaymef@gmail.com</a>&gt;</span> wrote:<br><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Thanks for your feedback.&nbsp; Any other opinions on this proposed setup?&nbsp; I'm very torn over using GlusterFS and what the expected performance may be, there seems to be little information out there.&nbsp; Would love to hear any feedback specifically from ovirt users on hyperconverged configurations.&nbsp;&nbsp;</div><div><div><div><br><div class="elided-text">On Thu, Apr 5, 2018 at 2:56 AM, Alex K <span dir="ltr">&lt;<a href="mailto:rightkicktech@gmail.com">rightkicktech@gmail.com</a>&gt;</span> wrote:<br><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">Hi,<div dir="auto"><br></div><div dir="auto">You should be ok with the setup.</div><div dir="auto">I am running around 20 vms (linux and windows, small and medium size) with the half of your specs. With 10G network replica 3 is ok.&nbsp;</div><div dir="auto"><br></div><div dir="auto">Alex</div></div><br><div class="elided-text"><div><div><div dir="ltr">On Wed, Apr 4, 2018, 16:13 Jayme &lt;<a href="mailto:jaymef@gmail.com">jaymef@gmail.com</a>&gt; wrote:<br></div></div></div><blockquote style="margin:0 0 0 0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div dir="ltr">I'm spec'ing hardware for a 3-node oVirt build (on somewhat of a budget).&nbsp; I plan to do 20-30 Linux VMs most of them very light weight + a couple of heavier hitting web and DB servers with frequent rsync backups.&nbsp; Some have a lot of small files from large github repos etc.&nbsp;&nbsp;<div><br></div><div>3X of the following:</div><div><br></div><div><span style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 );float:none;display:inline">Dell PowerEdge R720</span><br style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 )"><span style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 );float:none;display:inline">2x 2.9 GHz 8 Core E5-2690 (SR0L0)</span><br style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 )"><span style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 );float:none;display:inline">256GB RAM</span><br style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 )"><span style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 );float:none;display:inline">PERC H710</span><br style="color:rgb( 35 , 31 , 32 );font-family:'helvetica' , 'arial' , sans-serif;font-size:14px;font-style:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb( 255 , 255 , 255 )">2x10GB Nic</div><div><br></div><div>Boot/OS will likely be two cheaper small sata/ssd in raid 1.&nbsp;&nbsp;</div><div><br></div><div>Gluster bricks comprised of 4x2TB WD Gold 7200RPM SATA HDDs in RAID 10 per server.&nbsp; Using a replica 3 setup (and I'm thinking right now with no arbiter for extra redundancy, although I'm not sure what the performance hit may be as a result).&nbsp; Will this allow for two host failure or just one?&nbsp;</div><div><br></div><div>I've been really struggling with storage choices, it seems very difficult to predict the performance of glusterFS due to the variance in hardware (everyone is using something different).&nbsp; I'm not sure if the performance will be adequate enough for my needs.&nbsp;</div><div><br></div><div>I will be using an all ready existing&nbsp;Netgear XS716T 10GB switch for Gluster storage network.&nbsp;</div><div><br></div><div>In addition I plan to build another simple glusterFS storage server that I can use to georeplicate the gluster volume to for DR purposes and use existing hardware to build an independent standby oVirt host that is able to start up a few high priority VMs from the georeplicated glusterFS volume if for some reason the primary oVirt cluster/glusterFS volume ever failed.&nbsp;<br></div><div><br></div><div>I would love to hear any advice or critiques on this plan.&nbsp;&nbsp;</div><div><br></div><div>Thanks!</div></div></div></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div>
</blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div></div></div></div></div>
</blockquote></div><br></div>
_______________________________________________
<br>Users mailing list
<br>Users@ovirt.org
<br>http://lists.ovirt.org/mailman/listinfo/users
<br></div></blockquote></div><br></div></div></div></SPAN><div dir="ltr">Yaniv,<div><br></div><div>I appreciate your input, thanks!&nbsp;&nbsp;</div><div><br></div><div>I understand that everyone&#39;s use case is different, but I was hoping to hear from some users that are using oVirt hyper-converged setup and get some input on the performance.&nbsp; When I research GlusterFS I hear a lot about how it can be slow especially when dealing with small files.&nbsp; I&#39;m starting to wonder if a straight up NFS server with a few SSDs would be less hassle and perhaps offer better VM performance than glusterFS can currently.&nbsp;&nbsp;</div><div><br></div><div>I want to get the best oVirt performance I can get (on somewhat of a budget) with a fairly small amount of required disk space (under 2TB).&nbsp; I&#39;m not sure if hyper-converged setup w/GlusterFS is the answer or not.&nbsp; I&#39;d like to avoid spending 15k only to find out that it&#39;s too slow.&nbsp;</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Apr 6, 2018 at 6:05 AM, Yaniv Kaul <span dir="ltr">&lt;<a href="mailto:ykaul&#64;redhat.com" target="_blank">ykaul@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><span class=""><div><br><br><div class="gmail_quote"><div dir="ltr">On Thu, Apr 5, 2018, 11:39 PM Vincent Royer &lt;<a href="mailto:vincent&#64;epicenergy.ca" target="_blank">vincent@epicenergy.ca</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Jayme,&nbsp;<div><br></div><div>I&#39;m doing a very similar build, the only difference really is I am using SSDs instead of HDDs.&nbsp; &nbsp;I have similar questions as you regarding expected performance. Have you considered JBOD + NFS?&nbsp; &nbsp;Putting a Gluster Replica 3 on top of RAID 10 arrays sounds very safe, but my gosh the capacity takes a massive hit.&nbsp; Am I correct in saying you will only get 4TB total usable capacity out of 24TB worth of disks?&nbsp; The cost per TB in that sort of scenario is immense.&nbsp;</div><div><br></div><div>My plan is two 2TB SSDs per server in JBOD with a caching raid card, with replica 3.&nbsp; I would end up with the same 4TB total capacity using 12TB of SSDs.&nbsp;</div></div></blockquote></div></div><div dir="auto"><br></div></span><div dir="auto">I&#39;m not sure I see the value in RAID card if you don&#39;t use RAID and I&#39;m not sure you really need caching on the card.&nbsp;</div><span class="HOEnZb"><font color="#888888"><div dir="auto">Y.&nbsp;</div></font></span><div><div class="h5"><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div>I think Replica 3 is safe enough that you could forgo the RAID 10. But I&#39;m talking from zero experience...&nbsp; Would love others to chime in with their opinions on both these setups.&nbsp;</div></div><div class="gmail_extra"><br clear="all"><div><div class="m_-157098227340179066m_1656318568188939082gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div><div dir="ltr" style="font-size:12.8px"><font size="4" face="arial narrow, sans-serif"><b>Vincent Royer</b></font></div><div dir="ltr"><div style="font-size:12.8px"><font size="4" face="arial narrow, sans-serif"><b>778-825-1057</b></font></div><div style="font-size:12.8px"><font size="4" face="arial narrow, sans-serif"><b><br></b></font></div><div style="font-size:12.8px"><a href="http://www.epicenergy.ca/" rel="noreferrer" target="_blank"><img src="https://lh3.googleusercontent.com/ezD9JxeN67lTscselHjW4ZEqvQRj_i_T_Ky_s__GkR0AtanG1nK52CD1Rdhmyzbk7XRPf-Rhhnr2-SLPmhtd0J8xVMp0xOiR20ebQVb6jU2xwJPKN4lePRq5G2p93ybqA4SnqjCWCvEsNlK37a9FtStdFcTJyIoS2aHKiL69L3bZg1g7mEAMr7IHXVYvHgq3MX9rNaqIQx9T3uPuIHEDIfxrgpCrsBoEamgaRHj5hcpEobnogqCqpa1sRcKy927TSeR5BbVLM1-wn0h-4LvE8CMqj30jpQULxZ9uXEg_S6sR3ZeZjtkkRvgK4l_wiivWlyV_SjCDQ5QREG3jkuCjXC04i1NNmziGZZNWYsaohE6khrN4JGVtvaSOiS2woYJNz3Gt0EucxJp3eUBYspzTl9iZia7bLvFEGIODvmfjRVZJmnCrFucJxGkAtWn_EUIbxJXS5NWAFnvBoixQP563Fbu7dFKL77lDcb4PHwrnJVjqcgU0OTeiMBlMvEt97YgMpMvdi7rx9L4DeEbrIGUovgx4QLfRRoF_9u2mxFu8FHupCxfocSyB3vs8gqOLvVdx42qwiLN0sGLAg8K3G_vFwVNddXQ_yb3cGeCEAOTnk7jfiP4O4jsPIW2RRbnKKL-usL11Tp7gkxbgRouLOoyqpbisjA4vRWDeylj1yDGyBg&#61;w400-h38-no" width="200" height="18"><br></a></div><div><b><font face="arial narrow, sans-serif" size="2">SUSTAINABLE MOBILE&nbsp;<font color="#6aa84f">ENERGY&nbsp;</font>SOLUTIONS</font></b></div></div></div><div><br></div><div><br><div><div><br></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
<br><div class="gmail_quote">On Thu, Apr 5, 2018 at 12:22 PM, Jayme <span dir="ltr">&lt;<a href="mailto:jaymef&#64;gmail.com" rel="noreferrer" target="_blank">jaymef@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Thanks for your feedback.&nbsp; Any other opinions on this proposed setup?&nbsp; I&#39;m very torn over using GlusterFS and what the expected performance may be, there seems to be little information out there.&nbsp; Would love to hear any feedback specifically from ovirt users on hyperconverged configurations.&nbsp;&nbsp;</div><div class="m_-157098227340179066m_1656318568188939082HOEnZb"><div class="m_-157098227340179066m_1656318568188939082h5"><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Apr 5, 2018 at 2:56 AM, Alex K <span dir="ltr">&lt;<a href="mailto:rightkicktech&#64;gmail.com" rel="noreferrer" target="_blank">rightkicktech@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">Hi,<div dir="auto"><br></div><div dir="auto">You should be ok with the setup.</div><div dir="auto">I am running around 20 vms (linux and windows, small and medium size) with the half of your specs. With 10G network replica 3 is ok.&nbsp;</div><div dir="auto"><br></div><div dir="auto">Alex</div></div><br><div class="gmail_quote"><div><div class="m_-157098227340179066m_1656318568188939082m_-2395917300502361481h5"><div dir="ltr">On Wed, Apr 4, 2018, 16:13 Jayme &lt;<a href="mailto:jaymef&#64;gmail.com" rel="noreferrer" target="_blank">jaymef@gmail.com</a>&gt; wrote:<br></div></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="m_-157098227340179066m_1656318568188939082m_-2395917300502361481h5"><div dir="ltr">I&#39;m spec&#39;ing hardware for a 3-node oVirt build (on somewhat of a budget).&nbsp; I plan to do 20-30 Linux VMs most of them very light weight + a couple of heavier hitting web and DB servers with frequent rsync backups.&nbsp; Some have a lot of small files from large github repos etc.&nbsp;&nbsp;<div><br></div><div>3X of the following:</div><div><br></div><div><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">Dell PowerEdge R720</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial"><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">2x 2.9 GHz 8 Core E5-2690 (SR0L0)</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial"><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">256GB RAM</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial"><span style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">PERC H710</span><br style="color:rgb(35,31,32);font-family:Helvetica,Arial,sans-serif;font-size:14px;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:left;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial">2x10GB Nic</div><div><br></div><div>Boot/OS will likely be two cheaper small sata/ssd in raid 1.&nbsp;&nbsp;</div><div><br></div><div>Gluster bricks comprised of 4x2TB WD Gold 7200RPM SATA HDDs in RAID 10 per server.&nbsp; Using a replica 3 setup (and I&#39;m thinking right now with no arbiter for extra redundancy, although I&#39;m not sure what the performance hit may be as a result).&nbsp; Will this allow for two host failure or just one?&nbsp;</div><div><br></div><div>I&#39;ve been really struggling with storage choices, it seems very difficult to predict the performance of glusterFS due to the variance in hardware (everyone is using something different).&nbsp; I&#39;m not sure if the performance will be adequate enough for my needs.&nbsp;</div><div><br></div><div>I will be using an all ready existing&nbsp;Netgear XS716T 10GB switch for Gluster storage network.&nbsp;</div><div><br></div><div>In addition I plan to build another simple glusterFS storage server that I can use to georeplicate the gluster volume to for DR purposes and use existing hardware to build an independent standby oVirt host that is able to start up a few high priority VMs from the georeplicated glusterFS volume if for some reason the primary oVirt cluster/glusterFS volume ever failed.&nbsp;<br></div><div><br></div><div>I would love to hear any advice or critiques on this plan.&nbsp;&nbsp;</div><div><br></div><div>Thanks!</div></div></div></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users&#64;ovirt.org" rel="noreferrer noreferrer" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer noreferrer noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div>
</blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users&#64;ovirt.org" rel="noreferrer" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br></div>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users&#64;ovirt.org" rel="noreferrer" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
</blockquote></div></div></div></div></div>
</blockquote></div><br></div>
_______________________________________________ <br>Users mailing list <br>Users@ovirt.org <br>http://lists.ovirt.org/mailman/listinfo/users <br></body></html>