<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Mar 19, 2018 at 7:39 AM, Jim Kusznir <span dir="ltr">&lt;<a href="mailto:jim@palousetech.com" target="_blank">jim@palousetech.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hello:<div><br></div><div>This past week, I created a new gluster store, as I was running out of disk space on my main, SSD-backed storage pool.  I used 2TB Seagate FireCuda drives (hybrid SSD/spinning).  Hardware is Dell R610&#39;s with integral PERC/6i cards.  I placed one disk per machine, exported the disk as a single disk volume from the raid controller, formatted it XFS, mounted it, and dedicated it to a new replica 3 gluster volume.</div><div><br></div><div>Since doing so, I&#39;ve been having major performance problems.  One of my windows VMs sits at 100% disk utilization nearly continously, and its painful to do anything on it.  A Zabbix install on CentOS using mysql as the backing has 70%+ iowait nearly all the time, and I can&#39;t seem to get graphs loaded from the web console.  Its also always spewing errors that ultimately come down to insufficient disk performance issues.</div><div><br></div><div>All of this was working OK before the changes.  There are two:</div><div><br></div><div>Old storage was SSD backed, Replica 2 + arb, and running on the same GigE network as management and main VM network.</div><div><br></div><div>New storage was created using the dedicated Gluster network (running on em4 on these servers, completely different subnet (174.x vs 192.x), and was created replica 3 (no arb), on the FireCuda disks (seem to be the fastest I could afford for non-SSD, as I needed a lot more storage).</div><div><br></div><div>My attempts to watch so far have NOT shown maxed network interfaces (using bwm-ng on the command line); in fact, the gluster interface is usually below 20% utilized.</div><div><br></div><div>I&#39;m not sure how to meaningfully measure the performance of the disk itself; I&#39;m not sure what else to look at.  My cluster is not very usable currently, though.  IOWait on my hosts appears to be below 0.5%, usually 0.0 to 0.1.  Inside the VMs is a whole different story.</div><div><br></div><div>My cluster is currently running ovirt 4.1.  I&#39;m interested in going to 4.2, but I think I need to fix this first.</div></div></blockquote><div><br></div><div><br></div><div>Can you provide the info of the volume using &quot;gluster volume info&quot; and also profile the volume while running the tests where you experience the performance issue, and share results?</div><div><br></div><div>For info on how to profile (server-side profiling) - <a href="https://docs.gluster.org/en/latest/Administrator%20Guide/Performance%20Testing/">https://docs.gluster.org/en/latest/Administrator%20Guide/Performance%20Testing/</a><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div>Thanks!</div><span class="gmail-HOEnZb"><font color="#888888"><div>--Jim</div></font></span></div>
<br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
<br></blockquote></div><br></div></div>