Got it. It should be included until 3.6.6 GA<div><br></div><div>Thanks</div><div>Luiz<br><br><div class="gmail_quote"><div dir="ltr">Em sex, 29 de abr de 2016 04:26, Simone Tiraboschi &lt;<a href="mailto:stirabos@redhat.com">stirabos@redhat.com</a>&gt; escreveu:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Fri, Apr 29, 2016 at 4:44 AM, Luiz Claudio Prazeres Goncalves<br>
&lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt; wrote:<br>
&gt; Hi Simone, I was reviewing the changelog of 3.6.6, on the link below, but i<br>
&gt; was not able to find the bug (<a href="https://bugzilla.redhat.com/1327516" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/1327516</a>) as fixed<br>
&gt; on the list. According to Bugzilla the target is really 3.6.6, so what&#39;s<br>
&gt; wrong?<br>
&gt;<br>
&gt;<br>
&gt; <a href="http://www.ovirt.org/release/3.6.6/" rel="noreferrer" target="_blank">http://www.ovirt.org/release/3.6.6/</a><br>
<br>
&#39; oVirt 3.6.6 first release candidate&#39; so it&#39;s still not the GA.<br>
<br>
&gt; Thanks<br>
&gt; Luiz<br>
&gt;<br>
&gt; Em qui, 28 de abr de 2016 11:33, Luiz Claudio Prazeres Goncalves<br>
&gt; &lt;<a href="mailto:luizcpg@gmail.com" target="_blank">luizcpg@gmail.com</a>&gt; escreveu:<br>
&gt;&gt;<br>
&gt;&gt; Nice!... so, I&#39;ll survive a bit more with these issues until the version<br>
&gt;&gt; 3.6.6 gets released...<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Thanks<br>
&gt;&gt; -Luiz<br>
&gt;&gt;<br>
&gt;&gt; 2016-04-28 4:50 GMT-03:00 Simone Tiraboschi &lt;<a href="mailto:stirabos@redhat.com" target="_blank">stirabos@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Thu, Apr 28, 2016 at 8:32 AM, Sahina Bose &lt;<a href="mailto:sabose@redhat.com" target="_blank">sabose@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt; This seems like issue reported in<br>
&gt;&gt;&gt; &gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1327121" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1327121</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Nir, Simone?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The issue is here:<br>
&gt;&gt;&gt; MainThread::INFO::2016-04-27<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 03:26:27,185::storage_server::229::ovirt_hosted_engine_ha.lib.storage_server.StorageServer::(disconnect_storage_server)<br>
&gt;&gt;&gt; Disconnecting storage server<br>
&gt;&gt;&gt; MainThread::INFO::2016-04-27<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 03:26:27,816::upgrade::983::ovirt_hosted_engine_ha.lib.upgrade.StorageServer::(fix_storage_path)<br>
&gt;&gt;&gt; Fixing storage path in conf file<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; And it&#39;s tracked here: <a href="https://bugzilla.redhat.com/1327516" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/1327516</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; We already have a patch, it will be fixed with 3.6.6<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; As far as I saw this issue will only cause a lot of mess in the logs<br>
&gt;&gt;&gt; and some false alert but it&#39;s basically harmless<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt; On 04/28/2016 05:35 AM, Luiz Claudio Prazeres Goncalves wrote:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Hi everyone,<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Until today my environment was fully updated (3.6.5+centos7.2) with 3<br>
&gt;&gt;&gt; &gt; nodes<br>
&gt;&gt;&gt; &gt; (kvm1,kvm2 and kvm3 hosts) . I also have 3 external gluster nodes<br>
&gt;&gt;&gt; &gt; (gluster-root1,gluster1 and gluster2 hosts ) , replica 3, which the<br>
&gt;&gt;&gt; &gt; engine<br>
&gt;&gt;&gt; &gt; storage domain is sitting on top (3.7.11 fully updated+centos7.2)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; For some weird reason i&#39;ve been receiving emails from oVirt with<br>
&gt;&gt;&gt; &gt; EngineUnexpectedDown (attached picture) on a daily basis more or less,<br>
&gt;&gt;&gt; &gt; but<br>
&gt;&gt;&gt; &gt; the engine seems to be working fine and my vm&#39;s are up and running<br>
&gt;&gt;&gt; &gt; normally.<br>
&gt;&gt;&gt; &gt; I&#39;ve never had any issue to access the User Interface to manage the<br>
&gt;&gt;&gt; &gt; vm&#39;s<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Today I run &quot;yum update&quot; on the nodes and realised that vdsm was<br>
&gt;&gt;&gt; &gt; outdated,<br>
&gt;&gt;&gt; &gt; so I updated the kvm hosts and they are now , again, fully updated.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Reviewing the logs It seems to be an intermittent connectivity issue<br>
&gt;&gt;&gt; &gt; when<br>
&gt;&gt;&gt; &gt; trying to access the gluster engine storage domain as you can see<br>
&gt;&gt;&gt; &gt; below. I<br>
&gt;&gt;&gt; &gt; don&#39;t have any network issue in place and I&#39;m 100% sure about it. I<br>
&gt;&gt;&gt; &gt; have<br>
&gt;&gt;&gt; &gt; another oVirt Cluster using the same network and using a engine storage<br>
&gt;&gt;&gt; &gt; domain on top of an iSCSI Storage Array with no issues.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Here seems to be the issue:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::INFO::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,864::fileSD::357::Storage.StorageDomain::(validate)<br>
&gt;&gt;&gt; &gt; sdUUID=03926733-1872-4f85-bb21-18dc320560db<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::DEBUG::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::persistentDict::234::Storage.PersistentDict::(refresh)<br>
&gt;&gt;&gt; &gt; read<br>
&gt;&gt;&gt; &gt; lines (FileMetadataRW)=[]<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::DEBUG::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::persistentDict::252::Storage.PersistentDict::(refresh)<br>
&gt;&gt;&gt; &gt; Empty<br>
&gt;&gt;&gt; &gt; metadata<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::ERROR::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::task::866::Storage.TaskManager.Task::(_setError)<br>
&gt;&gt;&gt; &gt; Task=`d2acf575-1a60-4fa0-a5bb-cd4363636b94`::Unexpected error<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Traceback (most recent call last):<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;   File &quot;/usr/share/vdsm/storage/task.py&quot;, line 873, in _run<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;     return fn(*args, **kargs)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;   File &quot;/usr/share/vdsm/logUtils.py&quot;, line 49, in wrapper<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;     res = f(*args, **kwargs)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;   File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 2835, in<br>
&gt;&gt;&gt; &gt; getStorageDomainInfo<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;     dom = self.validateSdUUID(sdUUID)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;   File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 278, in validateSdUUID<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;     sdDom.validate()<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;   File &quot;/usr/share/vdsm/storage/fileSD.py&quot;, line 360, in validate<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;     raise se.StorageDomainAccessError(self.sdUUID)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; StorageDomainAccessError: Domain is either partially accessible or<br>
&gt;&gt;&gt; &gt; entirely<br>
&gt;&gt;&gt; &gt; inaccessible: (u&#39;03926733-1872-4f85-bb21-18dc320560db&#39;,)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::DEBUG::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::task::885::Storage.TaskManager.Task::(_run)<br>
&gt;&gt;&gt; &gt; Task=`d2acf575-1a60-4fa0-a5bb-cd4363636b94`::Task._run:<br>
&gt;&gt;&gt; &gt; d2acf575-1a60-4fa0-a5bb-cd4363636b94<br>
&gt;&gt;&gt; &gt; (&#39;03926733-1872-4f85-bb21-18dc320560db&#39;,) {} failed - stopping task<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::DEBUG::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::task::1246::Storage.TaskManager.Task::(stop)<br>
&gt;&gt;&gt; &gt; Task=`d2acf575-1a60-4fa0-a5bb-cd4363636b94`::stopping in state<br>
&gt;&gt;&gt; &gt; preparing<br>
&gt;&gt;&gt; &gt; (force False)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::DEBUG::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::task::993::Storage.TaskManager.Task::(_decref)<br>
&gt;&gt;&gt; &gt; Task=`d2acf575-1a60-4fa0-a5bb-cd4363636b94`::ref 1 aborting True<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::INFO::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,865::task::1171::Storage.TaskManager.Task::(prepare)<br>
&gt;&gt;&gt; &gt; Task=`d2acf575-1a60-4fa0-a5bb-cd4363636b94`::aborting: Task is aborted:<br>
&gt;&gt;&gt; &gt; &#39;Domain is either partially accessible or entirely inaccessible&#39; - code<br>
&gt;&gt;&gt; &gt; 379<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thread-1111::DEBUG::2016-04-27<br>
&gt;&gt;&gt; &gt; 23:01:27,866::task::1176::Storage.TaskManager.Task::(prepare)<br>
&gt;&gt;&gt; &gt; Task=`d2acf575-1a60-4fa0-a5bb-cd4363636b94`::Prepare: aborted: Domain<br>
&gt;&gt;&gt; &gt; is<br>
&gt;&gt;&gt; &gt; either partially accessible or entirely inaccessible<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Question: Anyone know what might be happening? I have several gluster<br>
&gt;&gt;&gt; &gt; config&#39;s, as you can see below. All the storage domain are using the<br>
&gt;&gt;&gt; &gt; same<br>
&gt;&gt;&gt; &gt; config&#39;s<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; More information:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; I have the &quot;engine&quot; storage domain, &quot;vmos1&quot; storage domain and &quot;master&quot;<br>
&gt;&gt;&gt; &gt; storage domain, so everything looks good.<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; [root@kvm1 vdsm]# vdsClient -s 0 getStorageDomainsList<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; 03926733-1872-4f85-bb21-18dc320560db<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; 35021ff4-fb95-43d7-92a3-f538273a3c2e<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; e306e54e-ca98-468d-bb04-3e8900f8840c<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Gluster config:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; [root@gluster-root1 ~]# gluster volume info<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Volume Name: engine<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Type: Replicate<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Volume ID: 64b413d2-c42e-40fd-b356-3e6975e941b0<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Status: Started<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Number of Bricks: 1 x 3 = 3<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Transport-type: tcp<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Bricks:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick1: gluster1.xyz.com:/gluster/engine/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick2: gluster2.xyz.com:/gluster/engine/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick3: gluster-root1.xyz.com:/gluster/engine/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Options Reconfigured:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.cache-size: 1GB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.write-behind-window-size: 4MB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.write-behind: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.quick-read: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.read-ahead: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.io-cache: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.stat-prefetch: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.eager-lock: enable<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.quorum-type: auto<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; network.remote-dio: enable<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.server-quorum-type: server<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.data-self-heal-algorithm: full<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.low-prio-threads: 32<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; features.shard-block-size: 512MB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; features.shard: on<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; storage.owner-gid: 36<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; storage.owner-uid: 36<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.readdir-ahead: on<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Volume Name: master<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Type: Replicate<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Volume ID: 20164808-7bbe-4eeb-8770-d222c0e0b830<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Status: Started<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Number of Bricks: 1 x 3 = 3<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Transport-type: tcp<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Bricks:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick1: gluster1.xyz.com:/home/storage/master/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick2: gluster2.xyz.com:/home/storage/master/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick3: gluster-root1.xyz.com:/home/storage/master/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Options Reconfigured:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.readdir-ahead: on<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.quick-read: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.read-ahead: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.io-cache: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.stat-prefetch: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.eager-lock: enable<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; network.remote-dio: enable<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.quorum-type: auto<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.server-quorum-type: server<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; storage.owner-uid: 36<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; storage.owner-gid: 36<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; features.shard: on<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; features.shard-block-size: 512MB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.low-prio-threads: 32<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.data-self-heal-algorithm: full<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.write-behind: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.write-behind-window-size: 4MB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.cache-size: 1GB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Volume Name: vmos1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Type: Replicate<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Volume ID: ea8fb50e-7bc8-4de3-b775-f3976b6b4f13<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Status: Started<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Number of Bricks: 1 x 3 = 3<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Transport-type: tcp<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Bricks:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick1: gluster1.xyz.com:/gluster/vmos1/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick2: gluster2.xyz.com:/gluster/vmos1/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Brick3: gluster-root1.xyz.com:/gluster/vmos1/brick1<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Options Reconfigured:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; network.ping-timeout: 60<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.readdir-ahead: on<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.quick-read: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.read-ahead: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.io-cache: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.stat-prefetch: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.eager-lock: enable<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; network.remote-dio: enable<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.quorum-type: auto<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.server-quorum-type: server<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; storage.owner-uid: 36<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; storage.owner-gid: 36<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; features.shard: on<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; features.shard-block-size: 512MB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.low-prio-threads: 32<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; cluster.data-self-heal-algorithm: full<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.write-behind: off<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.write-behind-window-size: 4MB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; performance.cache-size: 1GB<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Attached goes all the logs...<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Thanks<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; -Luiz<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt;&gt; &gt; Users mailing list<br>
&gt;&gt;&gt; &gt; <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
&gt;&gt;&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
</blockquote></div></div>