<div dir="ltr">CentOS 7 for me as well, using the <a href="http://zfsonlinux.org">zfsonlinux.org</a> packages.</div><br><div class="gmail_quote"><div dir="ltr">On Thu, Jul 21, 2016 at 1:26 PM David Gossage &lt;<a href="mailto:dgossage@carouselchecks.com">dgossage@carouselchecks.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div><div data-smartmail="gmail_signature"><div dir="ltr"><div>On Thu, Jul 21, 2016 at 1:24 PM, Karli Sjöberg <span dir="ltr">&lt;<a href="mailto:karli.sjoberg@slu.se" target="_blank">karli.sjoberg@slu.se</a>&gt;</span> wrote:<br></div></div></div></div></div></div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div>
<p dir="ltr"><br>
Den 21 jul 2016 7:54 em skrev David Gossage &lt;<a href="mailto:dgossage@carouselchecks.com" target="_blank">dgossage@carouselchecks.com</a>&gt;:<br>
&gt;<br>
&gt; On Thu, Jul 21, 2016 at 11:47 AM, Scott &lt;<a href="mailto:romracer@gmail.com" target="_blank">romracer@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi David,<br>
&gt;&gt;<br>
&gt;&gt; My backend storage is ZFS.<br>
&gt;&gt;<br>
&gt;&gt; I thought about moving from FUSE to NFS mounts for my Gluster volumes to help test.  But since I use hosted engine this would be a real pain.  Its difficult to modify the storage domain type/path in the hosted-engine.conf.  And I don&#39;t want to go through
 the process of re-deploying hosted engine.<br>
&gt;&gt;<br>
&gt;<br>
&gt; I found this<br>
&gt;<br>
&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1347553" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1347553</a><br>
&gt;<br>
&gt; Not sure if related.<br>
&gt;<br>
&gt; But I also have zfs backend, another user in gluster mailing list had issues and used zfs backend although she used proxmox and got it working by changing disk to writeback cache I think it was.</p>
<p dir="ltr">David and Scott,</p>
<p dir="ltr">just out of curiousity, what is the OS under ZFS?</p>
<p dir="ltr"></p></div></blockquote></div></div></div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div>Centos 7</div></div></div></div><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><p dir="ltr">/K</p>
<p dir="ltr">&gt;<br>
&gt; I also use hosted engine, but I run my gluster volume for HE actually on a LVM separate from zfs on xfs and if i recall it did not have the issues my gluster on zfs did.  I&#39;m wondering now if the issue was zfs settings.<br>
&gt;<br>
&gt; Hopefully should have a test machone up soon I can play around with more.<br>
&gt;<br>
&gt;&gt; Scott<br>
&gt;&gt;<br>
&gt;&gt; On Thu, Jul 21, 2016 at 11:36 AM David Gossage &lt;<a href="mailto:dgossage@carouselchecks.com" target="_blank">dgossage@carouselchecks.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; What back end storage do you run gluster on?  xfs/zfs/ext4 etc?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; David Gossage<br>
&gt;&gt;&gt; Carousel Checks Inc. | System Administrator<br>
&gt;&gt;&gt; Office <a href="tel:708.613.2284" value="+17086132284" target="_blank">708.613.2284</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Thu, Jul 21, 2016 at 8:18 AM, Scott &lt;<a href="mailto:romracer@gmail.com" target="_blank">romracer@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; I get similar problems with oVirt 4.0.1 and hosted engine.  After upgrading all my hosts to Gluster 3.7.13 (client and server), I get the following:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; $ sudo hosted-engine --set-maintenance --mode=none<br>
&gt;&gt;&gt;&gt; Traceback (most recent call last):<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib64/python2.7/runpy.py&quot;, line 162, in _run_module_as_main<br>
&gt;&gt;&gt;&gt;     &quot;__main__&quot;, fname, loader, pkg_name)<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib64/python2.7/runpy.py&quot;, line 72, in _run_code<br>
&gt;&gt;&gt;&gt;     exec code in run_globals<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_setup/set_maintenance.py&quot;, line 73, in &lt;module&gt;<br>
&gt;&gt;&gt;&gt;     if not maintenance.set_mode(sys.argv[1]):<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_setup/set_maintenance.py&quot;, line 61, in set_mode<br>
&gt;&gt;&gt;&gt;     value=m_global,<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/client/client.py&quot;, line 259, in set_maintenance_mode<br>
&gt;&gt;&gt;&gt;     str(value))<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/client/client.py&quot;, line 204, in set_global_md_flag<br>
&gt;&gt;&gt;&gt;     all_stats = broker.get_stats_from_storage(service)<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/lib/brokerlink.py&quot;, line 232, in get_stats_from_storage<br>
&gt;&gt;&gt;&gt;     result = self._checked_communicate(request)<br>
&gt;&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/lib/brokerlink.py&quot;, line 260, in _checked_communicate<br>
&gt;&gt;&gt;&gt;     .format(message or response))<br>
&gt;&gt;&gt;&gt; ovirt_hosted_engine_ha.lib.exceptions.RequestError: Request failed: failed to read metadata: [Errno 1] Operation not permitted<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; If I only upgrade one host, then things will continue to work but my nodes are constantly healing shards.  My logs are also flooded with:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:14.137734] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274714: READ =&gt; -1 gfid=4<br>
&gt;&gt;&gt;&gt; 41f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0041d0 (Operation not permitted)<br>
&gt;&gt;&gt;&gt; The message &quot;W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-data-client-0: remote operation failed [Operation not permitted]&quot; repeated 6 times between [2016-07-21 13:13:24.134985] and [2016-07-21 13:15:04.132226]<br>
&gt;&gt;&gt;&gt; The message &quot;W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-data-client-1: remote operation failed [Operation not permitted]&quot; repeated 8 times between [2016-07-21 13:13:34.133116] and [2016-07-21 13:15:14.137178]<br>
&gt;&gt;&gt;&gt; The message &quot;W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-data-client-2: remote operation failed [Operation not permitted]&quot; repeated 7 times between [2016-07-21 13:13:24.135071] and [2016-07-21 13:15:14.137666]<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:24.134647] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-data-client-0: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:24.134764] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-data-client-2: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:24.134793] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274741: READ =&gt; -1 gfid=441f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0038f4 (Operation not permitted)<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:34.135413] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274756: READ =&gt; -1 gfid=441f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0041d0 (Operation not permitted)<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:44.141062] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274818: READ =&gt; -1 gfid=441f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0038f4 (Operation not permitted)<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:54.133582] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-data-client-1: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:15:54.133629] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274853: READ =&gt; -1 gfid=441f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0036d8 (Operation not permitted)<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:16:04.133666] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274879: READ =&gt; -1 gfid=441f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0041d0 (Operation not permitted)<br>
&gt;&gt;&gt;&gt; [2016-07-21 13:16:14.134954] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 274894: READ =&gt; -1 gfid=441f2789-f6b1-4918-a280-1b9905a11429 fd=0x7f19bc0036d8 (Operation not permitted)<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Scott<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On Thu, Jul 21, 2016 at 6:57 AM Frank Rothenstein &lt;<a href="mailto:f.rothenstein@bodden-kliniken.de" target="_blank">f.rothenstein@bodden-kliniken.de</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Hey Devid,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; I have the very same problem on my test-cluster, despite on running ovirt 4.0.<br>
&gt;&gt;&gt;&gt;&gt; If you access your volumes via NFS all is fine, problem is FUSE. I stayed on 3.7.13, but have no solution yet, now I use NFS.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Frank<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Am Donnerstag, den 21.07.2016, 04:28 -0500 schrieb David Gossage:<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Anyone running one of recent 3.6.x lines and gluster using 3.7.13?  I am looking to upgrade gluster from 3.7.11-&gt;3.7.13 for some bug fixes, but have been told by users on gluster mail list due to some gluster changes I&#39;d need to change the disk parameters
 to use writeback cache.  Something to do with aio support being removed.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; I believe this could be done with custom parameters?  But I believe strage tests are done using dd and would they fail with current settings then? Last upgrade to 3.7.13 I had to rollback to 3.7.11 due to stability isues where gluster storage would go
 into down state and always show N/A as space available/used.  Even if hosts saw storage still and VM&#39;s were running on it on all 3 hosts.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Saw a lot of messages like these that went away once gluster rollback finished<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:46.935694] I [fuse-bridge.c:4083:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.22 kernel 7.22<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:49.555466] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-GLUSTER1-client-1: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:49.556574] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-GLUSTER1-client-0: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:49.556659] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 80: READ =&gt; -1 gfid=deb61291-5176-4b81-8315-3f1cf8e3534d fd=0x7f5224002f68 (Operation not permitted)<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:59.612477] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-GLUSTER1-client-1: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:59.613700] W [MSGID: 114031] [client-rpc-fops.c:3050:client3_3_readv_cbk] 0-GLUSTER1-client-0: remote operation failed [Operation not permitted]<br>
&gt;&gt;&gt;&gt;&gt;&gt; [2016-07-09 15:27:59.613781] W [fuse-bridge.c:2227:fuse_readv_cbk] 0-glusterfs-fuse: 168: READ =&gt; -1 gfid=deb61291-5176-4b81-8315-3f1cf8e3534d fd=0x7f5224002f68 (Operation not permitted)<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; David Gossage<br>
&gt;&gt;&gt;&gt;&gt;&gt; Carousel Checks Inc. | System Administrator<br>
&gt;&gt;&gt;&gt;&gt;&gt; Office <a href="tel:708.613.2284" value="+17086132284" target="_blank">708.613.2284</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; ________________________________<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;  <br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; ______________________________________________________________________________<br>
&gt;&gt;&gt;&gt;&gt; BODDEN-KLINIKEN Ribnitz-Damgarten GmbH<br>
&gt;&gt;&gt;&gt;&gt; Sandhufe 2<br>
&gt;&gt;&gt;&gt;&gt; 18311 Ribnitz-Damgarten<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Telefon: 03821-700-0<br>
&gt;&gt;&gt;&gt;&gt; Fax:       03821-700-240<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; E-Mail: <a href="mailto:info@bodden-kliniken.de" target="_blank">info@bodden-kliniken.de</a>   Internet: <a href="http://www.bodden-kliniken.de" target="_blank">http://www.bodden-kliniken.de</a><br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Sitz: Ribnitz-Damgarten, Amtsgericht: Stralsund, HRB 2919, Steuer-Nr.: 079/133/40188<br>
&gt;&gt;&gt;&gt;&gt; Aufsichtsratsvorsitzende: Carmen Schröter, Geschäftsführer: Dr. Falko Milski<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Der Inhalt dieser E-Mail ist ausschließlich für den bezeichneten Adressaten bestimmt. Wenn Sie nicht der vorge- <br>
&gt;&gt;&gt;&gt;&gt; sehene Adressat dieser E-Mail oder dessen Vertreter sein sollten, beachten Sie bitte, dass jede Form der Veröf- <br>
&gt;&gt;&gt;&gt;&gt; fentlichung, Vervielfältigung oder Weitergabe des Inhalts dieser E-Mail unzulässig ist. Wir bitten Sie, sofort den <br>
&gt;&gt;&gt;&gt;&gt; Absender zu informieren und die E-Mail zu löschen. <br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;              Bodden-Kliniken Ribnitz-Damgarten GmbH 2016<br>
&gt;&gt;&gt;&gt;&gt; *** Virenfrei durch Kerio Mail Server und Sophos Antivirus ***<br>
&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt;&gt;&gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt;&gt;&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
&gt;<br>
</p>
</div>

</blockquote></div></div></div></blockquote></div>