<div dir="ltr">Hello:<div><br></div><div>This past week, I created a new gluster store, as I was running out of disk space on my main, SSD-backed storage pool.  I used 2TB Seagate FireCuda drives (hybrid SSD/spinning).  Hardware is Dell R610&#39;s with integral PERC/6i cards.  I placed one disk per machine, exported the disk as a single disk volume from the raid controller, formatted it XFS, mounted it, and dedicated it to a new replica 3 gluster volume.</div><div><br></div><div>Since doing so, I&#39;ve been having major performance problems.  One of my windows VMs sits at 100% disk utilization nearly continously, and its painful to do anything on it.  A Zabbix install on CentOS using mysql as the backing has 70%+ iowait nearly all the time, and I can&#39;t seem to get graphs loaded from the web console.  Its also always spewing errors that ultimately come down to insufficient disk performance issues.</div><div><br></div><div>All of this was working OK before the changes.  There are two:</div><div><br></div><div>Old storage was SSD backed, Replica 2 + arb, and running on the same GigE network as management and main VM network.</div><div><br></div><div>New storage was created using the dedicated Gluster network (running on em4 on these servers, completely different subnet (174.x vs 192.x), and was created replica 3 (no arb), on the FireCuda disks (seem to be the fastest I could afford for non-SSD, as I needed a lot more storage).</div><div><br></div><div>My attempts to watch so far have NOT shown maxed network interfaces (using bwm-ng on the command line); in fact, the gluster interface is usually below 20% utilized.</div><div><br></div><div>I&#39;m not sure how to meaningfully measure the performance of the disk itself; I&#39;m not sure what else to look at.  My cluster is not very usable currently, though.  IOWait on my hosts appears to be below 0.5%, usually 0.0 to 0.1.  Inside the VMs is a whole different story.</div><div><br></div><div>My cluster is currently running ovirt 4.1.  I&#39;m interested in going to 4.2, but I think I need to fix this first.</div><div><br></div><div>Thanks!</div><div>--Jim</div></div>