<div><div><div>Denis, thx for your answer.</div><div> </div><div>[root@node-gluster203 ~]# gluster volume heal engine info</div><div>Brick node-gluster205:/opt/gluster/engine</div><div>Status: Connected</div><div>Number of entries: 0</div><div> </div><div>Brick node-gluster203:/opt/gluster/engine</div><div>Status: Connected</div><div>Number of entries: 0</div><div> </div><div>Brick node-gluster201:/opt/gluster/engine</div><div>Status: Connected</div><div>Number of entries: 0</div><div> </div><div><strong>Gluster volume looks like OK. Adding aditional info about volume options. </strong></div><div> </div><div><div><div>[root@node-gluster203 ~]# gluster volume info engine</div><div> </div><div>Volume Name: engine</div><div>Type: Replicate</div><div>Volume ID: aece5318-4126-41f9-977c-9b39300bd0c8</div><div>Status: Started</div><div>Snapshot Count: 0</div><div>Number of Bricks: 1 x (2 + 1) = 3</div><div>Transport-type: tcp</div><div>Bricks:</div><div>Brick1: node-gluster205:/opt/gluster/engine</div><div>Brick2: node-gluster203:/opt/gluster/engine</div><div>Brick3: node-gluster201:/opt/gluster/engine (arbiter)</div><div>Options Reconfigured:</div><div>auth.allow: *</div><div>network.ping-timeout: 10</div><div>server.allow-insecure: on</div><div>nfs.disable: on</div><div>transport.address-family: inet</div><div>storage.owner-uid: 36</div><div>storage.owner-gid: 36</div><div>performance.quick-read: off</div><div>performance.read-ahead: off</div><div>performance.io-cache: off</div><div>performance.stat-prefetch: off</div><div>performance.low-prio-threads: 32</div><div>network.remote-dio: enable</div><div>cluster.eager-lock: enable</div><div>cluster.quorum-type: auto</div><div>cluster.server-quorum-type: server</div><div>cluster.data-self-heal-algorithm: full</div><div>cluster.locking-scheme: granular</div><div>cluster.shd-max-threads: 8</div><div>cluster.shd-wait-qlength: 10000</div><div>features.shard: on</div><div>user.cifs: off</div><div>geo-replication.indexing: on</div><div>geo-replication.ignore-pid-check: on</div><div>changelog.changelog: on</div><div>cluster.enable-shared-storage: enable</div></div></div></div></div><div> </div><div>11.01.2018, 12:34, "Denis Chaplygin" &lt;dchaplyg@redhat.com&gt;:</div><blockquote type="cite"><div>Hello!<div> <div>On Thu, Jan 11, 2018 at 9:56 AM, Николаев Алексей <span>&lt;<a target="_blank" href="mailto:alexeynikolaev.post@yandex.ru">alexeynikolaev.post@yandex.ru</a>&gt;</span> wrote:<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div> </div><div>We have a self-hosted engine test infra with gluster storage replica 3 arbiter 1 (oVirt 4.1).</div><div> </div></blockquote><div> </div><div>Why would not you try 4.2? :-) There is a lot of good changes in that area.</div><div> </div><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex;"><div> </div><div><div><div><div>RuntimeError: Volume does not exist: (u'13b5a4d0-dd26-491c-b5c0-5628b56bc3a5',)</div><div> </div></div></div></div></blockquote><div> </div><div>I assume you may have an issue with your gluster volume. Could you please share output of the command 'gluster volume heal engine info'?</div><div> </div><div>Thanks in advance.</div></div></div></div></blockquote>