<div dir="ltr">Hello Jayme,<div><br></div><div>       Please find the responses inline.</div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jan 19, 2018 at 7:44 PM, Jayme <span dir="ltr">&lt;<a href="mailto:jaymef@gmail.com" target="_blank">jaymef@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">I am attempting to narrow down choices for storage in a new oVirt build that will eventually be used for a mix of dev and production servers. <div><br></div><div>My current space usage excluding backups sits at about only 1TB so I figure 3-5 TB would be more than enough for VM storage only + some room to grow.  There will be around 24 linux VMs total but 80% of them are VERY low usage and low spec servers.</div><div><br></div><div>I&#39;ve been considering a 3 host hyperconverged oVirt setup, replica 3 arbiter 1 setup with a disaster recovery plan to replicate the gluster volume to a separate server.  I would of course do additional incremental backups to an alternate server as well probably with rsync or some other method. </div><div><br></div><div>Some questions:</div><div><br></div><div>1. Is it recommended to use SSDs for glusterFS or can the performance of regular server/sas drives be sufficient enough performance.  If using SSDs is it recommended to use enterprise SSDs are consumer SSDs good enough due to the redundancy of glusterFS?   I would love to hear of any use cases from any of you regarding hardware specs you used in hyperconverged setups and what level of performance you are seeing. </div></div></blockquote><div><br></div><div>You can use SSD&#39;s if you would like to. But you could use regular server/ sas drives too. </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div>2. Is it recommended to RAID the drives that form the gluster bricks?  If so what raid level? </div></div></blockquote><div><br></div><div>RAID level can be Raid5/6. </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div>3. How do I calculate how much space will be usable in a replicate 3 arbiter 1 configuration?  Will it be 75% of total drive capacity minus what I lose from raid (if I raid the drives)? </div></div></blockquote><div>Each replica subvolume is defined to have 1 arbiter out of the 3 bricks. The arbiter bricks are taken from the end of each replica subvolume. Since the arbiter brick does not store file data, its disk usage will be considerably less than the other bricks of the replica. The sizing of the brick will depend on how many files you plan to store in the volume. A good estimate will be 4kb times the number of files in the replica. In the other two nodes if the size of the brick is 1TB, then total capacity will be 1 TB .</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div>4. For replication of the gluster volume, is it possible for me to replicate the entire volume to a single drive/raid array in an alternate server or does the replicated volume need to match the configuration of the main glusterFS volume (i.e. same amount of drives/configuration etc). </div></div></blockquote><div><br></div><div>you could replicate the entire volume to another single volume but please make sure that size of the volume is more so that no data is lost.  </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div>5. Has the meltdown bug caused or expected to cause major issues with oVirt hyperconverged setup due to performance loss from the patches.  I&#39;ve been reading articles suggesting up to 30% performance loss on some converged/storage setups due to how CPU intensive converged setups are.   </div><div><br></div><div>Thanks in advance!</div><div><br></div><div><br></div><div><br></div></div>
<br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
<br></blockquote></div><br></div></div>