<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Wed, May 31, 2017 at 3:01 PM, David Gossage <span dir="ltr">&lt;<a href="mailto:dgossage@carouselchecks.com" target="_blank">dgossage@carouselchecks.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><span class=""><div><div class="m_4522191879012055347gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>On Wed, May 31, 2017 at 4:16 AM,  <span dir="ltr">&lt;<a href="mailto:suporte@logicworks.pt" target="_blank">suporte@logicworks.pt</a>&gt;</span> wrote:<br></div></div></div></div></span><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-family:Times New Roman;font-size:10pt;color:#000000"><div>Hi,<br></div><div><br></div><span class=""><div>I found the cause of this problem. I had to turn off sharding.</div></span></div></div></blockquote><div><br></div><div><br></div><div>Did you have sharding enabled but not have any sharded VM images or were their shards missing on some bricks?  </div></div></div></div></blockquote><div><br></div><div><br>Yes, interested to know why you had to turn off sharding. Could you elaborate?<br> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><div class="h5"><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-family:Times New Roman;font-size:10pt;color:#000000"><div><br></div><hr id="m_4522191879012055347m_6758908499893581437zwchr"><div><b>De: </b><a href="mailto:suporte@logicworks.pt" target="_blank">suporte@logicworks.pt</a><br><b>Para: </b>&quot;Sahina Bose&quot; &lt;<a href="mailto:sabose@redhat.com" target="_blank">sabose@redhat.com</a>&gt;<br><b>Cc: </b>&quot;ovirt users&quot; &lt;<a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&gt;<br><b>Enviadas: </b>Sexta-feira, 26 De Maio de 2017 12:27:43<br><b>Assunto: </b>Re: [ovirt-users] vm has been paused due to unknown storage<br></div><div><br></div><div><div style="font-family:Times New Roman;font-size:10pt;color:#000000"><div>Hi,</div><br><div>I updated glusterfs:</div><div>glusterfs-client-xlators-3.8.1<wbr>2-1.el7.x86_64<br>glusterfs-cli-3.8.12-1.el7.x86<wbr>_64<br>glusterfs-api-3.8.12-1.el7.x86<wbr>_64<br>glusterfs-fuse-3.8.12-1.el7.x8<wbr>6_64<br>glusterfs-server-3.8.12-1.el7.<wbr>x86_64<br>glusterfs-libs-3.8.12-1.el7.x8<wbr>6_64<br>glusterfs-3.8.12-1.el7.x86_64</div><br><div>Now I cannot add a volume disk preallocated, after a while it breaks.</div><br><div>message log:</div><div>May 26 11:18:16 node journal: vdsm root ERROR VM metrics collection failed#012Traceback (most recent call last):#012  File &quot;/usr/lib/python2.7/site-packa<wbr>ges/vdsm/virt/vmstats.py&quot;, line 221, in send_metrics#012    diskinfo[&#39;readOps&#39;]#012KeyErr<wbr>or: &#39;readOps&#39;</div><br><div>vdsm.log<br>2017-05-26 11:18:16,715+0100 ERROR (periodic/3) [root] VM metrics collection failed (vmstats:264)<br>2017-05-26 11:19:39,369+0100 ERROR (tasks/5) [storage.Volume] Unexpected error (fileVolume:456)<br>2017-05-26 11:19:39,373+0100 ERROR (tasks/5) [storage.Volume] Unexpected error (volume:1107)<br>2017-05-26 11:19:39,374+0100 ERROR (tasks/5) [storage.TaskManager.Task] (Task=&#39;5b2adb9a-e24e-48fa-9f01<wbr>-f21c23588aef&#39;) Unexpected error (task:870)</div><br><div>glusterfs<br>[2017-05-26 10:53:08.247219] W [MSGID: 114031] [client-rpc-fops.c:2933:client<wbr>3_3_lookup_cbk] 0-gv2-client-0: remote operation failed. Path: /.shard/55b94942-dee5-4f69-8b0<wbr>f-52e251ac6f5e.164 (00000000-0000-0000-0000-00000<wbr>0000000) [No data available]<br>[2017-05-26 10:53:14.899499] W [MSGID: 114031] [client-rpc-fops.c:2933:client<wbr>3_3_lookup_cbk] 0-gv2-client-0: remote operation failed. Path: /.shard/55b94942-dee5-4f69-8b0<wbr>f-52e251ac6f5e.167 (00000000-0000-0000-0000-00000<wbr>0000000) [No data available]<br>[2017-05-26 10:53:14.899526] E [MSGID: 133010] [shard.c:1725:shard_common_loo<wbr>kup_shards_cbk] 0-gv2-shard: Lookup on shard 167 failed. Base file gfid = 55b94942-dee5-4f69-8b0f-52e251<wbr>ac6f5e [No data available]<br>[2017-05-26 10:53:19.712567] W [MSGID: 114031] [client-rpc-fops.c:2933:client<wbr>3_3_lookup_cbk] 0-gv2-client-0: remote operation failed. Path: /.shard/55b94942-dee5-4f69-8b0<wbr>f-52e251ac6f5e.169 (00000000-0000-0000-0000-00000<wbr>0000000) [No data available]<br>[2017-05-26 10:53:19.712614] E [MSGID: 133010] [shard.c:1725:shard_common_loo<wbr>kup_shards_cbk] 0-gv2-shard: Lookup on shard 169 failed. Base file gfid = 55b94942-dee5-4f69-8b0f-52e251<wbr>ac6f5e [No data available]<br>[2017-05-26 10:53:29.419317] W [MSGID: 114031] [client-rpc-fops.c:2933:client<wbr>3_3_lookup_cbk] 0-gv2-client-0: remote operation failed. Path: /.shard/55b94942-dee5-4f69-8b0<wbr>f-52e251ac6f5e.173 (00000000-0000-0000-0000-00000<wbr>0000000) [No data available]<br>[2017-05-26 10:53:29.419369] E [MSGID: 133010] [shard.c:1725:shard_common_loo<wbr>kup_shards_cbk] 0-gv2-shard: Lookup on shard 173 failed. Base file gfid = 55b94942-dee5-4f69-8b0f-52e251<wbr>ac6f5e [No data available]<br></div><br><br><div>thanks</div><br><hr id="m_4522191879012055347m_6758908499893581437zwchr"><div><b>De: </b>&quot;Sahina Bose&quot; &lt;<a href="mailto:sabose@redhat.com" target="_blank">sabose@redhat.com</a>&gt;<br><b>Para: </b><a href="mailto:suporte@logicworks.pt" target="_blank">suporte@logicworks.pt</a>, &quot;Krutika Dhananjay&quot; &lt;<a href="mailto:kdhananj@redhat.com" target="_blank">kdhananj@redhat.com</a>&gt;<br><b>Cc: </b>&quot;ovirt users&quot; &lt;<a href="mailto:users@ovirt.org" target="_blank">users@ovirt.org</a>&gt;<br><b>Enviadas: </b>Quinta-feira, 25 De Maio de 2017 7:12:40<br><b>Assunto: </b>Re: [ovirt-users] vm has been paused due to unknown storage<br></div><br><div><div dir="ltr"><div>The glusterfs logs contain below errors:<br>[2017-05-22 18:12:50.941883] E [MSGID: 133010] [shard.c:1725:shard_common_loo<wbr>kup_shards_cbk] 0-gv2-shard: Lookup on shard 50 failed. Base file gfid = 33f1fe3e-c626-49f2-861e-2259c9<wbr>72931d [No data available]<br>[2017-05-22 18:12:50.945085] W [fuse-bridge.c:1291:fuse_err_c<wbr>bk] 0-glusterfs-fuse: 61306713: FSYNC() ERR =&gt; -1 (No data available)<br><br></div>Krutika, could you take a look?<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, May 25, 2017 at 1:02 AM, <span dir="ltr">&lt;<a href="mailto:suporte@logicworks.pt" target="_blank">suporte@logicworks.pt</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-family:Times New Roman;font-size:10pt;color:#000000"><div>Hi,<br></div><br><div>I setup an ovirt hosted enine, in only one server with local gluster bricks.<br></div><br><div>When running a MS SQL 2012 process to rebuild a data base, which take around 4 hours, after a while the VM is paused with the error:<br></div><div><pre>vm has been paused due to unknown storage<br><br>The VM disk is in Thin provision

Ovirt and gluter versions:

Version 4.1.1.8-1.el7.centos

glusterfs-cli-3.8.11-1.el7.x86<wbr>_64
glusterfs-libs-3.8.11-1.el7.x8<wbr>6_64
glusterfs-3.8.11-1.el7.x86_64
glusterfs-client-xlators-3.8.1<wbr>1-1.el7.x86_64
glusterfs-fuse-3.8.11-1.el7.x8<wbr>6_64
glusterfs-api-3.8.11-1.el7.x86<wbr>_64
glusterfs-server-3.8.11-1.el7.<wbr>x86_64</pre></div><br><div>I can find the reason why<br></div><div>The logs are attached.<br></div><br><div>Any idea?<br></div><br><div>Thanks<span class="m_4522191879012055347m_6758908499893581437HOEnZb"><span style="color:#888888"><br></span></span></div><span class="m_4522191879012055347m_6758908499893581437HOEnZb"><span class="m_4522191879012055347m_6758908499893581437HOEnZb"><span style="color:#888888"><br></span></span></span><div>-- <br></div><div><hr style="width:100%;height:2px">Jose Ferradeira<br><a href="http://www.logicworks.pt" target="_blank">http://www.logicworks.pt</a><br></div></div></div><br>______________________________<wbr>_________________<br> Users mailing list<br> <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br> <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br> <br></blockquote></div></div><br></div></div><br>______________________________<wbr>_________________<br>Users mailing list<br><a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br><a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br></div></div></div><br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
<br></blockquote></div></div></div><br></div></div>
</blockquote></div><br></div></div>