<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=iso-8859-1"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><!--[if !mso]><style>v\:* {behavior:url(#default#VML);}
o\:* {behavior:url(#default#VML);}
w\:* {behavior:url(#default#VML);}
.shape {behavior:url(#default#VML);}
</style><![endif]--><style><!--
/* Font Definitions */
@font-face
        {font-family:Helvetica;
        panose-1:2 11 6 4 2 2 2 2 2 4;}
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:Consolas;
        panose-1:2 11 6 9 2 2 4 3 2 4;}
@font-face
        {font-family:Verdana;
        panose-1:2 11 6 4 3 5 4 4 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman",serif;
        color:black;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
p
        {mso-style-priority:99;
        margin:0cm;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman",serif;
        color:black;}
pre
        {mso-style-priority:99;
        mso-style-link:"HTML Vorformatiert Zchn";
        margin:0cm;
        margin-bottom:.0001pt;
        font-size:10.0pt;
        font-family:"Courier New";
        color:black;}
span.HTMLVorformatiertZchn
        {mso-style-name:"HTML Vorformatiert Zchn";
        mso-style-priority:99;
        mso-style-link:"HTML Vorformatiert";
        font-family:"Consolas",serif;
        color:black;}
span.E-MailFormatvorlage20
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:#1F497D;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:70.85pt 70.85pt 2.0cm 70.85pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body bgcolor=white lang=DE link=blue vlink=purple><div class=WordSection1><p class=MsoNormal><span style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'>Hi All, <o:p></o:p></span></p><p class=MsoNormal><span style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'><o:p>&nbsp;</o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'>it&#8217;s the same for me. I&#8217;ve update all my hosts to the latest release and thought it would now use libgfapi since <a href="https://bugzilla.redhat.com/1022961"><span style='color:#1F497D;text-decoration:none'>BZ 1022961</span></a> is listed in the release notes under enhancements.  Are there any steps that need to be taken after upgrading for this to work ? <o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'><o:p>&nbsp;</o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'>Thank you, <o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'>Sven <o:p></o:p></span></p><p class=MsoNormal><a name="_MailEndCompose"><span lang=EN-US style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1F497D;mso-fareast-language:EN-US'><o:p>&nbsp;</o:p></span></a></p><div><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0cm 0cm 0cm'><p class=MsoNormal><b><span style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:windowtext'>Von:</span></b><span style='font-size:11.0pt;font-family:"Calibri",sans-serif;color:windowtext'> users-bounces@ovirt.org [mailto:users-bounces@ovirt.org] <b>Im Auftrag von </b>Mahdi Adnan<br><b>Gesendet:</b> Samstag, 8. Juli 2017 09:35<br><b>An:</b> Ralf Schenk &lt;rs@databay.de&gt;; users@ovirt.org; ykaul@redhat.com<br><b>Betreff:</b> Re: [ovirt-users] Very poor GlusterFS performance<o:p></o:p></span></p></div></div><p class=MsoNormal><o:p>&nbsp;</o:p></p><div id=divtagdefaultwrapper><p><span style='font-family:"Calibri",sans-serif'>So ovirt access gluster vai FUSE ? i thought its using libgfapi.<o:p></o:p></span></p><p><span style='font-family:"Calibri",sans-serif'>When can we expect it to work with libgfapi ?&nbsp;<o:p></o:p></span></p><p><span style='font-family:"Calibri",sans-serif'>and what about the changelog of 4.1.3 ?<o:p></o:p></span></p><div><p class=MsoNormal><span style='font-family:"Calibri",sans-serif'>BZ 1022961 Gluster: running a VM from a gluster domain should use gluster URI instead of a fuse mount&quot;<o:p></o:p></span></p></div><p><span style='font-family:"Calibri",sans-serif'><o:p>&nbsp;</o:p></span></p><div id=Signature><p class=MsoNormal><span style='font-family:"Calibri",sans-serif'><o:p>&nbsp;</o:p></span></p><div><p class=MsoNormal style='margin-bottom:12.0pt'><span style='font-family:"Calibri",sans-serif'>-- <br><br>Respectfully<b><br>Mahdi A. Mahdi</b><o:p></o:p></span></p></div></div></div><div class=MsoNormal align=center style='text-align:center'><hr size=4 width="98%" align=center></div><div id=divRplyFwdMsg><p class=MsoNormal><b><span style='font-size:11.0pt;font-family:"Calibri",sans-serif'>From:</span></b><span style='font-size:11.0pt;font-family:"Calibri",sans-serif'> <a href="mailto:users-bounces@ovirt.org">users-bounces@ovirt.org</a> &lt;<a href="mailto:users-bounces@ovirt.org">users-bounces@ovirt.org</a>&gt; on behalf of Ralf Schenk &lt;<a href="mailto:rs@databay.de">rs@databay.de</a>&gt;<br><b>Sent:</b> Monday, June 19, 2017 7:32:45 PM<br><b>To:</b> <a href="mailto:users@ovirt.org">users@ovirt.org</a><br><b>Subject:</b> Re: [ovirt-users] Very poor GlusterFS performance</span> <o:p></o:p></p><div><p class=MsoNormal>&nbsp;<o:p></o:p></p></div></div><div><p><span style='font-family:"Helvetica",sans-serif'>Hello,</span><o:p></o:p></p><p><span style='font-family:"Helvetica",sans-serif'>Gluster-Performance is bad. Thats why I asked for native qemu-libgfapi access for Ovirt-VM's to gluster volumes which I thought to be possible since 3.6.x. Documentation is misleading and still in 4.1.2 Ovirt is using fuse to mount gluster-based VM-Disks.</span><o:p></o:p></p><p>Bye<o:p></o:p></p><p class=MsoNormal><o:p>&nbsp;</o:p></p><div><p class=MsoNormal>Am 19.06.2017 um 17:23 schrieb Darrell Budic:<o:p></o:p></p></div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><p class=MsoNormal>Chris- <o:p></o:p></p><div><p class=MsoNormal><o:p>&nbsp;</o:p></p></div><div><p class=MsoNormal>You probably need to head over to <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a>&nbsp;for help with performance issues.<o:p></o:p></p></div><div><p class=MsoNormal><o:p>&nbsp;</o:p></p></div><div><p class=MsoNormal>That said, what kind of performance are you getting, via some form or testing like bonnie++ or even dd runs? Raw bricks vs gluster performance is useful to determine what kind of performance you&#8217;re actually getting.<o:p></o:p></p></div><div><p class=MsoNormal><o:p>&nbsp;</o:p></p></div><div><p class=MsoNormal>Beyond that, I&#8217;d recommend dropping the arbiter bricks and re-adding them as full replicas, they can&#8217;t serve distributed data in this configuration and may be slowing things down on you. If you&#8217;ve got a storage network setup, make sure it&#8217;s using the largest MTU it can, and consider adding/testing these settings that I use on my main storage volume:<o:p></o:p></p></div><div><p class=MsoNormal><o:p>&nbsp;</o:p></p></div><div><div><p class=MsoNormal><a href="http://performance.io">performance.io</a>-thread-count: 32<o:p></o:p></p></div><div><p class=MsoNormal>client.event-threads: 8<o:p></o:p></p></div><div><p class=MsoNormal>server.event-threads: 3<o:p></o:p></p></div><div><p class=MsoNormal>performance.stat-prefetch: on<o:p></o:p></p></div></div><div><p class=MsoNormal><br><br><o:p></o:p></p></div><div><p class=MsoNormal>Good luck,<o:p></o:p></p></div><div><p class=MsoNormal><br><br><o:p></o:p></p></div><div><p class=MsoNormal>&nbsp; -Darrell<o:p></o:p></p></div><div><p class=MsoNormal><o:p>&nbsp;</o:p></p></div><div><p class=MsoNormal><o:p>&nbsp;</o:p></p><div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><p class=MsoNormal>On Jun 19, 2017, at 9:46 AM, Chris Boot &lt;<a href="mailto:bootc@bootc.net">bootc@bootc.net</a>&gt; wrote:<o:p></o:p></p></div><p class=MsoNormal><o:p>&nbsp;</o:p></p><div><div><p class=MsoNormal>Hi folks,<br><br>I have 3x servers in a &quot;hyper-converged&quot; oVirt 4.1.2 + GlusterFS 3.10<br>configuration. My VMs run off a replica 3 arbiter 1 volume comprised of<br>6 bricks, which themselves live on two SSDs in each of the servers (one<br>brick per SSD). The bricks are XFS on LVM thin volumes straight onto the<br>SSDs. Connectivity is 10G Ethernet.<br><br>Performance within the VMs is pretty terrible. I experience very low<br>throughput and random IO is really bad: it feels like a latency issue.<br>On my oVirt nodes the SSDs are not generally very busy. The 10G network<br>seems to run without errors (iperf3 gives bandwidth measurements of &gt;=<br>9.20 Gbits/sec between the three servers).<br><br>To put this into perspective: I was getting better behaviour from NFS4<br>on a gigabit connection than I am with GlusterFS on 10G: that doesn't<br>feel right at all.<br><br>My volume configuration looks like this:<br><br>Volume Name: vmssd<br>Type: Distributed-Replicate<br>Volume ID: d5a5ddd1-a140-4e0d-b514-701cfe464853<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 2 x (2 + 1) = 6<br>Transport-type: tcp<br>Bricks:<br>Brick1: ovirt3:/gluster/ssd0_vmssd/brick<br>Brick2: ovirt1:/gluster/ssd0_vmssd/brick<br>Brick3: ovirt2:/gluster/ssd0_vmssd/brick (arbiter)<br>Brick4: ovirt3:/gluster/ssd1_vmssd/brick<br>Brick5: ovirt1:/gluster/ssd1_vmssd/brick<br>Brick6: ovirt2:/gluster/ssd1_vmssd/brick (arbiter)<br>Options Reconfigured:<br>nfs.disable: on<br>transport.address-family: inet6<br>performance.quick-read: off<br>performance.read-ahead: off<br><a href="http://performance.io">performance.io</a>-cache: off<br>performance.stat-prefetch: off<br>performance.low-prio-threads: 32<br>network.remote-dio: off<br>cluster.eager-lock: enable<br>cluster.quorum-type: auto<br>cluster.server-quorum-type: server<br>cluster.data-self-heal-algorithm: full<br>cluster.locking-scheme: granular<br>cluster.shd-max-threads: 8<br>cluster.shd-wait-qlength: 10000<br>features.shard: on<br>user.cifs: off<br>storage.owner-uid: 36<br>storage.owner-gid: 36<br>features.shard-block-size: 128MB<br>performance.strict-o-direct: on<br>network.ping-timeout: 30<br>cluster.granular-entry-heal: enable<br><br>I would really appreciate some guidance on this to try to improve things<br>because at this rate I will need to reconsider using GlusterFS altogether.<br><br>Cheers,<br>Chris<br><br>-- <br>Chris Boot<br><a href="mailto:bootc@bootc.net">bootc@bootc.net</a><br>_______________________________________________<br>Users mailing list<br><a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br><a href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a><o:p></o:p></p></div></div></blockquote></div><p class=MsoNormal><o:p>&nbsp;</o:p></p></div><p class=MsoNormal><br><br><br><o:p></o:p></p><pre>_______________________________________________<o:p></o:p></pre><pre>Users mailing list<o:p></o:p></pre><pre><a href="mailto:Users@ovirt.org">Users@ovirt.org</a><o:p></o:p></pre><pre><a href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a><o:p></o:p></pre></blockquote><p class=MsoNormal><o:p>&nbsp;</o:p></p><div><p class=MsoNormal>-- <o:p></o:p></p><table class=MsoNormalTable border=0 cellspacing=0 cellpadding=0><tr><td colspan=3 style='padding:0cm 0cm 0cm 0cm'><p class=MsoNormal><img border=0 width=151 height=30 id="_x0000_i1026" src="cid:image001.gif@01D2F8B7.C9A43050"><o:p></o:p></p></td></tr><tr><td valign=top style='padding:0cm 0cm 0cm 0cm'><p class=MsoNormal><span style='font-size:10.0pt;font-family:"Verdana",sans-serif'><br><b>Ralf Schenk</b><br>fon +49 (0) 24 05 / 40 83 70<br>fax +49 (0) 24 05 / 40 83 759<br>mail <a href="mailto:rs@databay.de"><b><span style='color:red'>rs@databay.de</span></b></a></span><o:p></o:p></p></td><td width=33 style='width:22.5pt;padding:0cm 0cm 0cm 0cm'><p class=MsoNormal>&nbsp;<o:p></o:p></p></td><td valign=top style='padding:0cm 0cm 0cm 0cm'><p class=MsoNormal><span style='font-size:10.0pt;font-family:"Verdana",sans-serif'><br><b>Databay AG</b><br>Jens-Otto-Krag-Straße 11<br>D-52146 Würselen<br><a href="http://www.databay.de"><b><span style='color:red'>www.databay.de</span></b></a> </span><o:p></o:p></p></td></tr><tr><td colspan=3 valign=top style='padding:0cm 0cm 0cm 0cm'><p class=MsoNormal><span style='font-size:7.5pt;font-family:"Verdana",sans-serif'><br>Sitz/Amtsgericht Aachen &#8226; HRB:8437 &#8226; USt-IdNr.: DE 210844202<br>Vorstand: Ralf Schenk, Dipl.-Ing. Jens Conze, Aresch Yavari, Dipl.-Kfm. Philipp Hermanns<br>Aufsichtsratsvorsitzender: Wilhelm Dohmen </span><o:p></o:p></p></td></tr></table><div class=MsoNormal align=center style='text-align:center'><hr size=1 width="100%" noshade style='color:black' align=center></div></div></div></div></body></html>