<div dir="ltr"><div><div>Thanks for the responses everyone, really appreciate it.<br></div><div><br></div><div>I&#39;ve condensed the other questions into this reply.</div></div><div><br></div><div><br></div><div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<div dir="ltr"><div dir="ltr" style="font-family:Calibri,&#39;Segoe UI&#39;,Meiryo,&#39;Microsoft YaHei UI&#39;,&#39;Microsoft JhengHei UI&#39;,&#39;Malgun Gothic&#39;,sans-serif;font-size:12pt"><div>Steve,</div><div>What is the CPU load of the GlusterFS host when comparing the raw brick test to the gluster mount point test? Give it 30 seconds and see what top reports. You’ll probably have to significantly increase the count on the test so that it runs that long.<br>

</div><div><div><br></div><div>- Nick</div></div></div></div></blockquote></div><div><br></div><div><br></div><div>Gluster mount point:<br></div><div><br></div><div>*4K* on GLUSTER host</div><div>[root@gluster1 rep2]# dd if=/dev/zero of=/mnt/rep2/test1 bs=4k count=500000</div>

<div>500000+0 records in</div><div>500000+0 records out</div><div><a href="tel:2048000000" value="+12048000000" target="_blank">2048000000</a> bytes (2.0 GB) copied, 100.076 s, 20.5 MB/s</div><div><br></div><div>Top reported this right away:</div>
<div><div>PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                 </div>
<div> 1826 root      20   0  294m  33m 2540 S 27.2  0.4   0:04.31 glusterfs               </div><div> 2126 root      20   0 1391m  31m 2336 S 22.6  0.4  11:25.48 glusterfsd </div></div><div><br></div><div>Then at about 20+ seconds top reports this:</div>

<div><div>  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                 </div><div> 1826 root      20   0  294m  35m 2660 R 141.7  0.5   1:14.94 glusterfs              </div><div> 2126 root      20   0 1392m  31m 2344 S 33.7  0.4  11:46.56 glusterfsd  </div>

</div><div><br></div><div>*4K* Directly on the brick:</div><div><div>dd if=/dev/zero of=test1 bs=4k count=500000<br></div><div><div>500000+0 records in</div><div>500000+0 records out</div><div><a href="tel:2048000000" value="+12048000000" target="_blank">2048000000</a> bytes (2.0 GB) copied, 4.99367 s, 410 MB/s</div>

</div><div><br></div><div> 7750 root      20   0  102m  648  544 R 50.3  0.0   0:01.52 dd                      </div><div> 7719 root      20   0     0    0    0 D  1.0  0.0   0:01.50 flush-253:2   </div></div><div><br></div>

<div>Same test, gluster mount point on OVIRT host:</div><div><div>dd if=/dev/zero of=/mnt/rep2/test1 bs=4k count=500000</div><div>500000+0 records in</div><div>500000+0 records out</div><div><a href="tel:2048000000" value="+12048000000" target="_blank">2048000000</a> bytes (2.0 GB) copied, 42.4518 s, 48.2 MB/s</div>

</div><div><br></div><div><div>  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                 </div><div> 2126 root      20   0 1396m  31m 2360 S 40.5  0.4  13:28.89 glusterfsd  </div></div><div><br>

</div><div><br></div><div>Same test, on OVIRT host but against NFS mount point:</div><div><div>dd if=/dev/zero of=/mnt/rep2-nfs/test1 bs=4k count=500000</div><div>500000+0 records in</div><div>500000+0 records out</div><div>

<a href="tel:2048000000" value="+12048000000" target="_blank">2048000000</a> bytes (2.0 GB) copied, 18.8911 s, 108 MB/s</div></div><div><br></div><div><div>PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                 </div>
<div> 2141 root      20   0  550m 184m 2840 R 84.6  2.3  16:43.10 glusterfs               </div>
<div> 2126 root      20   0 1407m  30m 2368 S 49.8  0.4  13:49.07 glusterfsd   </div><div><br></div><div>  </div></div><div>Interesting - It looks like if I use a NFS mount point, I incur a cpu hit on two processes instead of just the daemon. I also get much better performance if I&#39;m not running dd (fuse) on the GLUSTER host.</div>

<div><blockquote style="margin:0px 0px 0px 40px;border:none;padding:0px"><div><br></div><div><div style="font-family:arial,sans-serif;font-size:13px"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

The storage servers are a bit older, but are both dual socket quad core</blockquote></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

opterons with 4x 7200rpm drives.</blockquote></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><br></div></div><div><span style="font-family:arial,sans-serif;font-size:13px">A block size of 4k is quite small so that the context switch overhead involved with fuse would be more perceivable.</span></div>

<div><br style="font-family:arial,sans-serif;font-size:13px"></div><div><span style="font-family:arial,sans-serif;font-size:13px">Would it be possible to increase the block size for dd and test?</span></div><div><div style="font-family:arial,sans-serif;font-size:13px">

<br></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><br></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<br></blockquote></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

I&#39;m in the process of setting up a share from my desktop and I&#39;ll see if</blockquote></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

I can bench between the two systems. Not sure if my ssd will impact the</blockquote></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

tests, I&#39;ve heard there isn&#39;t an advantage using ssd storage for glusterfs.</blockquote></div></div><div><div style="font-family:arial,sans-serif;font-size:13px"><br></div></div><div><span style="font-family:arial,sans-serif;font-size:13px">Do you have any pointers to this source of information? Typically glusterfs performance for virtualization work loads is bound by the slowest element in the entire stack. Usually storage/disks happen to be the bottleneck and ssd storage does benefit glusterfs.</span></div>

<div><br style="font-family:arial,sans-serif;font-size:13px"></div><div><span style="font-family:arial,sans-serif;font-size:13px">-Vijay</span></div></blockquote></div><div><br></div><div>I had a couple technical calls with RH (re: RHSS), and when I asked if SSD&#39;s could add any benefit I was told no. The context may have been in a product comparison to other storage vendors, where they use SSD&#39;s for read/write caching, versus having an all SSD storage domain (which I&#39;m not proposing, but which is effectively what my desktop would provide).</div>

<div><br></div><div><div>Increasing bs against NFS mount point (gluster backend):</div><div>dd if=/dev/zero of=/mnt/rep2-nfs/test1 bs=128k count=16000</div><div>16000+0 records in</div><div>16000+0 records out</div><div>
<a href="tel:2097152000" value="+12097152000" target="_blank">2097152000</a> bytes (2.1 GB) copied, 19.1089 s, 110 MB/s</div>
</div><div><br></div><div><br></div><div>GLUSTER host top reports:</div><div><div>  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                 </div><div> 2141 root      20   0  550m 183m 2844 R 88.9  2.3  17:30.82 glusterfs               </div>

<div> 2126 root      20   0 1414m  31m 2408 S 46.1  0.4  14:18.18 glusterfsd      </div></div><div><br></div><div>So roughly the same performance as 4k writes remotely. I&#39;m guessing if I could randomize these writes we&#39;d see a large difference.</div>

<div><br></div><div><br></div><blockquote style="margin:0px 0px 0px 40px;border:none;padding:0px"><div><div class="gmail_default" style="font-size:13px;font-family:tahoma,sans-serif">Check this thread out, <a href="http://raobharata.wordpress.com/2012/10/29/qemu-glusterfs-native-integration/" style="font-family:arial" target="_blank">http://raobharata.wordpress.com/2012/10/29/qemu-glusterfs-native-integration/</a> it&#39;s quite dated but I remember seeing similar figures. </div>

</div><div><div class="gmail_default" style="font-size:13px;font-family:tahoma,sans-serif"><br></div></div><div><div class="gmail_default" style="font-size:13px;font-family:tahoma,sans-serif">In fact when I used FIO on a libgfapi mounted VM I got slightly faster read/write speeds than on the physical box itself (I assume because of some level of caching). On NFS it was close to half.. You&#39;ll probably get a little more interesting results using FIO opposed to dd</div>

</div></blockquote><blockquote style="margin:0px 0px 0px 40px;border:none;padding:0px"><div>( -Andrew)</div></blockquote><div><br></div><div class="gmail_extra">Sorry Andrew, I meant to reply to your other message - it looks like CentOS 6.5 can&#39;t use libgfapi right now, I stumbled across this info in a couple threads. Something about how the CentOS build has different flags set on build for RHEV snapshot support then RHEL, so native gluster storage domains are disabled because snapshot support is assumed and would break otherwise. I&#39;m assuming this is still valid as I cannot get a storage lock when I attempt a gluster storage domain.</div>

<div class="gmail_extra"><br></div><div class="gmail_extra"><br></div><div class="gmail_extra">--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------</div>

<div class="gmail_extra"><br></div><div class="gmail_extra">I&#39;ve setup a NFS storage domain on my desktops SSD. I&#39;ve re-installed win 2008 r2 and initially it was running smoother.</div><div class="gmail_extra"><br>

</div><div class="gmail_extra">Disk performance peaks at 100MB/s.</div><div class="gmail_extra"><br></div><div class="gmail_extra">If I copy a 250MB file from a share into the Windows VM, it writes out quickly, less than 5 seconds.</div>

<div class="gmail_extra"><br></div><div class="gmail_extra">If I copy 20 files, ranging in file sizes from 4k to 200MB, totaling in 650MB from the share - windows becomes unresponsive, in top the desktop&#39;s nfs daemon is barely being touched at all, and then eventually is not hit. I can still interact with the VM&#39;s windows through the spice console. Eventually the file transfer will start and rocket through the transfer.</div>

<div class="gmail_extra"><br></div><div class="gmail_extra">I&#39;ve opened a 271MB zip file with 4454 files and started the extract process but the progress windows will sit on &#39;calculating...&#39; after a significant period of time the decompression starts and runs at &lt;200KB/second. Windows is guesstimating 1HR completion time. Eventually even this freezes up, and my spice console mouse won&#39;t grab. I can still see the resource monitor in the Windows VM doing its thing but have to poweroff the VM as its no longer usable.</div>

<div class="gmail_extra"><br></div><div class="gmail_extra"><div class="gmail_extra">The windows update process is the same. It seems like when the guest needs quick large writes its fine, but lots of io causes serious hanging, unresponsiveness, spice mouse cursor freeze, and eventually poweroff/reboot is the only way to get it back.</div>
<div class="gmail_extra"><br></div><div class="gmail_extra">Also, during window 2008 r2 install the &#39;expanding windows files&#39; task is quite slow, roughly 1% progress every 20 seconds (~30 mins to complete). The GLUSTER host shows these stats pretty consistently:</div>
<div class="gmail_extra"><div class="gmail_extra"> </div><div class="gmail_extra">PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                       </div><div class="gmail_extra"> 8139 root      20   0 1380m  28m 2476 R 83.1  0.4   8:35.78 glusterfsd                    </div>
<div class="gmail_extra"> 8295 root      20   0  550m 186m 2980 S  4.3  2.4   1:52.56 glusterfs   </div><div class="gmail_extra"><br></div><div class="gmail_extra"><div class="gmail_extra">bwm-ng v0.6 (probing every 2.000s), press &#39;h&#39; for help</div>
<div>input: /proc/net/dev type: rate<br></div></div><div class="gmail_extra"><div class="gmail_extra">  \         iface                   Rx                   Tx                Total</div><div class="gmail_extra">  ==============================================================================</div>
<div class="gmail_extra">               lo:        3719.31 KB/s         3719.31 KB/s         7438.62 KB/s</div><div class="gmail_extra">             eth0:        3405.12 KB/s         3903.28 KB/s         7308.40 KB/s</div>
<div><br></div></div></div>
</div><div class="gmail_extra"><br></div><div class="gmail_extra">I&#39;ve copied the same zip file to an nfs mount point on the OVIRT host (gluster backend) and get about 25 - 600 KB/s during unzip. The same test on NFS mount point (desktop SSD ext4 backend) averaged a network transfer speed of 5MB/s and completed in about 40 seconds.</div>

<div class="gmail_extra"><br></div><div class="gmail_extra">I have a RHEL 6.5 guest running on the NFS/gluster backend storage domain, and just did the same test. Extracting the file took 22.3 seconds (faster than the fuse mount point on the host !?!?).</div>

<div class="gmail_extra"><br></div><div class="gmail_extra">GLUSTER host top reported this while the RHEL guest was decompressing the zip file:</div><div class="gmail_extra"><div class="gmail_extra">  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                 </div>

<div class="gmail_extra"> 2141 root      20   0  555m 187m 2844 S  4.0  2.4  18:17.00 glusterfs               </div><div class="gmail_extra"> 2122 root      20   0 1380m  31m 2396 S  2.3  0.4  83:19.40 glusterfsd  </div>
<div class="gmail_extra">
<br></div><div class="gmail_extra"><br></div><div class="gmail_extra"><br></div></div><div class="gmail_extra"><br></div><div class="gmail_extra"><br clear="all"><div><div dir="ltr"><span style="font-family:arial,sans-serif;font-size:16px"><strong>Steve Dainard </strong></span><span style="font-size:12px"></span><br>


<span style="font-family:arial,sans-serif;font-size:12px">IT Infrastructure Manager<br>
<a href="http://miovision.com/" target="_blank">Miovision</a> | <em>Rethink Traffic</em><br>
<a href="tel:519-513-2407" value="+15195132407" target="_blank">519-513-2407</a> ex.250<br>
<a href="tel:877-646-8476" value="+18776468476" target="_blank">877-646-8476</a> (toll-free)<br>
<br>
<strong style="font-family:arial,sans-serif;font-size:13px;color:rgb(153,153,153)"><a href="http://miovision.com/blog" target="_blank">Blog</a>  |  </strong><font color="#999999" style="font-family:arial,sans-serif;font-size:13px"><strong><a href="https://www.linkedin.com/company/miovision-technologies" target="_blank">LinkedIn</a>  |  <a href="https://twitter.com/miovision" target="_blank">Twitter</a>  |  <a href="https://www.facebook.com/miovision" target="_blank">Facebook</a></strong></font> </span>
<hr style="font-family:arial,sans-serif;font-size:13px;color:rgb(51,51,51);clear:both">
<div style="color:rgb(153,153,153);font-family:arial,sans-serif;font-size:13px;padding-top:5px">
        <span style="font-family:arial,sans-serif;font-size:12px">Miovision Technologies Inc. | 148 Manitou Drive, Suite 101, Kitchener, ON, Canada | N2C 1L3</span><br>
        <span style="font-family:arial,sans-serif;font-size:12px">This e-mail may contain information that is privileged or confidential. If you are not the intended recipient, please delete the e-mail and any attachments and notify us immediately.</span></div>

</div></div>
<div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div dir="ltr" style="font-family:Calibri,&#39;Segoe UI&#39;,Meiryo,&#39;Microsoft YaHei UI&#39;,&#39;Microsoft JhengHei UI&#39;,&#39;Malgun Gothic&#39;,sans-serif;font-size:12pt">

<div><div><div><br></div></div></div></div></div></blockquote></div></div></div>