<div dir="ltr">Thank you very much for your reply.<div><br></div><div style>I see that the problem appears in vdsm.log.44.xz but doesn&#39;t appear in vdsm.log.45.xz</div><div style><br></div><div style><div><i><b>[wil@bufferoverflow vdsm]$</b> xzcat vdsm.log.45.xz | grep StoragePoolMasterNotFound | wc -l</i></div>

<div><i>0</i></div><div><i><b>[wil@bufferoverflow vdsm]$ </b>xzcat vdsm.log.44.xz | grep StoragePoolMasterNotFound | wc -l</i></div><div><i>52</i></div></div><div style><br></div><div style>so I hope the source of the problem is in one of them (attached).</div>

<div style><div><br></div><div><div><i><b>[wil@bufferoverflow vdsm]$</b> ls -la vdsm.log.44.xz</i></div><div><i>-rw-r--r-- 1 vdsm kvm 763808 Mar 24 20:00 vdsm.log.44.xz</i></div><div><i><b>[wil@bufferoverflow vdsm]$</b> ls -la vdsm.log.45.xz</i></div>

<div><i>-rw-r--r-- 1 vdsm kvm 706212 Mar 22 11:00 vdsm.log.45.xz</i></div></div><div><br></div><div style>Unfortunately, I do not have any engine logs from that time (between Mar 22 11:00 and Mar 24 20:00)</div><div style>

<br></div><div style><div><i><b>[wil@bufferoverflow ovirt-engine]$</b> ls -la</i></div><div><i>total 148720</i></div><div><i>drwxrwxr-x 2 wil wil     4096 Apr 17 09:07 .</i></div><div><i>drwxrwxr-x 3 wil wil     4096 Mar 26 20:13 ..</i></div>

<div><i>-rw-rw-r-- 1 wil wil      304 Apr 17 16:31 boot.log</i></div><div><i>-rw-rw---- 1 wil wil      510 Apr 17 16:31 console.log</i></div><div><i>-rw-rw-r-- 1 wil wil  7398188 Apr 17 21:35 engine.log</i></div><div><i>-rw-rw-r-- 1 wil wil 10485813 Apr 13 09:20 engine.log.1</i></div>

<div><i>-rw-rw-r-- 1 wil wil 10485766 Apr 11 13:19 engine.log.2</i></div><div><i>-rw-rw-r-- 1 wil wil 10486016 Apr 11 08:14 engine.log.3</i></div><div><i>-rw-rw-r-- 1 wil wil 10485972 Apr 11 03:06 engine.log.4</i></div><div>

<i>-rw-rw-r-- 1 wil wil 10486208 Apr 10 22:01 engine.log.5</i></div><div><i>-rw-rw-r-- 1 wil wil  8439424 Apr 17 16:31 server.log</i></div><div><i>-rw-rw-r-- 1 wil wil 10485867 Apr 17 09:07 server.log.1</i></div><div><i>-rw-rw-r-- 1 wil wil 10485943 Apr 17 02:40 server.log.2</i></div>

<div><i>-rw-rw-r-- 1 wil wil 10485867 Apr 16 20:15 server.log.3</i></div><div><i>-rw-rw-r-- 1 wil wil 10485943 Apr 16 13:54 server.log.4</i></div><div><i>-rw-rw-r-- 1 wil wil 10485867 Apr 16 07:32 server.log.5</i></div><div>

<i>-rw-rw-r-- 1 wil wil 10485943 Apr 16 01:05 server.log.6</i></div><div><i>-rw-rw-r-- 1 wil wil 10485867 Apr 15 18:46 server.log.7</i></div><div><i>-rw-rw-r-- 1 wil wil 10485781 Apr 15 12:28 server.log.8</i></div><div><i><b>[wil@bufferoverflow ovirt-engine]$</b> pwd</i></div>

<div><i>/home/wil/ovirt-engine/installation/var/log/ovirt-engine</i></div><div><br></div></div></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Apr 17, 2013 at 6:54 PM, Yeela Kaplan <span dir="ltr">&lt;<a href="mailto:ykaplan@redhat.com" target="_blank">ykaplan@redhat.com</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">It looks like the link to the master domain is not in the tree.<br>
I need to see the full logs and understand what happened. Including the engine log.<br>
Are you sure you don&#39;t have them? even if they were rotated they should be kept as a vdsm.log.*.xz under /var/log/vdsm/<br>
<div class="HOEnZb"><div class="h5"><br>
----- Original Message -----<br>
&gt; From: &quot;Yuval M&quot; &lt;<a href="mailto:yuvalme@gmail.com">yuvalme@gmail.com</a>&gt;<br>
&gt; To: &quot;Yeela Kaplan&quot; &lt;<a href="mailto:ykaplan@redhat.com">ykaplan@redhat.com</a>&gt;<br>
&gt; Cc: &quot;Limor Gavish&quot; &lt;<a href="mailto:lgavish@gmail.com">lgavish@gmail.com</a>&gt;, <a href="mailto:users@ovirt.org">users@ovirt.org</a>, &quot;Nezer Zaidenberg&quot; &lt;<a href="mailto:nzaidenberg@mac.com">nzaidenberg@mac.com</a>&gt;<br>


&gt; Sent: Wednesday, April 17, <a href="tel:2013" value="+9722013">2013</a> 4:56:55 PM<br>
&gt; Subject: Re: [Users] oVirt storage is down and doesn&#39;t come up<br>
&gt;<br>
&gt; 1. we do not have the logs from before the problem.<br>
&gt; 2.<br>
&gt; --------<br>
&gt; $ tree /rhev/data-center/<br>
&gt; /rhev/data-center/<br>
&gt; âââ hsm-tasks<br>
&gt; âââ mnt<br>
&gt;     âââ bufferoverflow.home:_home_BO__ISO__Domain<br>
&gt;     â   âââ 45d24e2a-705e-440f-954c-fda3cab61298<br>
&gt;     â   â   âââ dom_md<br>
&gt;     â   â   â   âââ ids<br>
&gt;     â   â   â   âââ inbox<br>
&gt;     â   â   â   âââ leases<br>
&gt;     â   â   â   âââ metadata<br>
&gt;     â   â   â   âââ outbox<br>
&gt;     â   â   âââ images<br>
&gt;     â   â       âââ 11111111-1111-1111-1111-111111111111<br>
&gt;     â   â           âââ Fedora-18-x86_64-DVD.iso<br>
&gt;     â   â           âââ Fedora-18-x86_64-Live-Desktop.iso<br>
&gt;     â   âââ __DIRECT_IO_TEST__<br>
&gt;     âââ bufferoverflow.home:_home_BO__Ovirt__Storage<br>
&gt;     âââ kernelpanic.home:_home_KP__Data__Domain<br>
&gt;         âââ a8286508-db45-40d7-8645-e573f6bacdc7<br>
&gt;         â   âââ dom_md<br>
&gt;         â   â   âââ ids<br>
&gt;         â   â   âââ inbox<br>
&gt;         â   â   âââ leases<br>
&gt;         â   â   âââ metadata<br>
&gt;         â   â   âââ outbox<br>
&gt;         â   âââ images<br>
&gt;         â       âââ 0df45336-de35-4dc0-9958-95b27d5d4701<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.lease<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.meta<br>
&gt;         â       â   âââ b245184f-f8e3-479b-8559-8b6af2473b7c<br>
&gt;         â       â   âââ b245184f-f8e3-479b-8559-8b6af2473b7c.lease<br>
&gt;         â       â   âââ b245184f-f8e3-479b-8559-8b6af2473b7c.meta<br>
&gt;         â       âââ 0e1ebaf7-3909-44cd-8560-d05a63eb4c4e<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.lease<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.meta<br>
&gt;         â       â   âââ 562b9043-bde8-4595-bbea-fa8871f0e19e<br>
&gt;         â       â   âââ 562b9043-bde8-4595-bbea-fa8871f0e19e.lease<br>
&gt;         â       â   âââ 562b9043-bde8-4595-bbea-fa8871f0e19e.meta<br>
&gt;         â       âââ 32ebb85a-0dde-47fe-90c7-7f4fb2c0f1e5<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.lease<br>
&gt;         â       â   âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.meta<br>
&gt;         â       â   âââ 4774095e-db3d-4561-8284-53eabfd28f66<br>
&gt;         â       â   âââ 4774095e-db3d-4561-8284-53eabfd28f66.lease<br>
&gt;         â       â   âââ 4774095e-db3d-4561-8284-53eabfd28f66.meta<br>
&gt;         â       âââ a7e13a25-1694-4509-9e6b-e88583a4d970<br>
&gt;         â           âââ 0d33efc8-a608-439f-abe2-43884c1ce72d<br>
&gt;         â           âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.lease<br>
&gt;         â           âââ 0d33efc8-a608-439f-abe2-43884c1ce72d.meta<br>
&gt;         âââ __DIRECT_IO_TEST__<br>
&gt;<br>
&gt; 16 directories, 35 files<br>
&gt;<br>
&gt; --------------------<br>
&gt; 3. We have 3 domains:<br>
&gt; BO_Ovirt_Storage (data domain, on the same machine as engine and vdsm, via<br>
&gt; NFS)<br>
&gt; BO_ISO_Domain (ISO domain, same machine via NFS)<br>
&gt; KP_Data_Domain (data domain on an NFS mount on a different machine)<br>
&gt;<br>
&gt; Yuval<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Wed, Apr 17, 2013 at 4:28 PM, Yeela Kaplan &lt;<a href="mailto:ykaplan@redhat.com">ykaplan@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; Hi Limor,<br>
&gt; &gt; 1) Your log starts exactly after the vdsm restart. I need to see the full<br>
&gt; &gt; vdsm log from before the domains went down in order to understand the<br>
&gt; &gt; problem. Can you attach them?<br>
&gt; &gt; 2) can you send the printout of &#39;tree /rhev/data-center/&#39;<br>
&gt; &gt; 3) how many domains are attached to your DC, and what type are they(ISO,<br>
&gt; &gt; export,data) and (The DC is nfs right)?<br>
&gt; &gt;<br>
&gt; &gt; Thanks,<br>
&gt; &gt; Yeela<br>
&gt; &gt;<br>
&gt; &gt; ----- Original Message -----<br>
&gt; &gt; &gt; From: &quot;Limor Gavish&quot; &lt;<a href="mailto:lgavish@gmail.com">lgavish@gmail.com</a>&gt;<br>
&gt; &gt; &gt; To: &quot;Tal Nisan&quot; &lt;<a href="mailto:tnisan@redhat.com">tnisan@redhat.com</a>&gt;<br>
&gt; &gt; &gt; Cc: &quot;Yuval M&quot; &lt;<a href="mailto:yuvalme@gmail.com">yuvalme@gmail.com</a>&gt;, <a href="mailto:users@ovirt.org">users@ovirt.org</a>, &quot;Nezer Zaidenberg&quot; &lt;<br>
&gt; &gt; <a href="mailto:nzaidenberg@mac.com">nzaidenberg@mac.com</a>&gt;<br>
&gt; &gt; &gt; Sent: Monday, April 15, <a href="tel:2013" value="+9722013">2013</a> 5:10:16 PM<br>
&gt; &gt; &gt; Subject: Re: [Users] oVirt storage is down and doesn&#39;t come up<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Thank you very much for your reply.<br>
&gt; &gt; &gt; I ran the commands you asked (see below) but a directory named as the<br>
&gt; &gt; uuid of<br>
&gt; &gt; &gt; the master domain is not mounted. We tried to restart the VDSM and the<br>
&gt; &gt; &gt; entire machine it didn&#39;t help.<br>
&gt; &gt; &gt; We succeeded to manually mount &quot; /home/BO_Ovirt_Storage&quot; to a temporary<br>
&gt; &gt; &gt; directory.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; postgres=# \connect engine;<br>
&gt; &gt; &gt; You are now connected to database &quot;engine&quot; as user &quot;postgres&quot;.<br>
&gt; &gt; &gt; engine=# select current_database();<br>
&gt; &gt; &gt; current_database<br>
&gt; &gt; &gt; ------------------<br>
&gt; &gt; &gt; engine<br>
&gt; &gt; &gt; (1 row)<br>
&gt; &gt; &gt; engine=# select <a href="http://sds.id" target="_blank">sds.id</a> , ssc.connection from storage_domain_static sds<br>
&gt; &gt; join<br>
&gt; &gt; &gt; storage_server_connections ssc on sds.storage= <a href="http://ssc.id" target="_blank">ssc.id</a> where <a href="http://sds.id" target="_blank">sds.id</a><br>
&gt; &gt; &gt; =&#39;1083422e-a5db-41b6-b667-b9ef1ef244f0&#39;;<br>
&gt; &gt; &gt; id | connection<br>
&gt; &gt; &gt;<br>
&gt; &gt; --------------------------------------+--------------------------------------------<br>
&gt; &gt; &gt; 1083422e-a5db-41b6-b667-b9ef1ef244f0 |<br>
&gt; &gt; &gt; bufferoverflow.home:/home/BO_Ovirt_Storage<br>
&gt; &gt; &gt; (1 row)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [wil@bufferoverflow ~] $ mount<br>
&gt; &gt; &gt; proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)<br>
&gt; &gt; &gt; sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)<br>
&gt; &gt; &gt; devtmpfs on /dev type devtmpfs<br>
&gt; &gt; &gt; (rw,nosuid,size=8131256k,nr_inodes=2032814,mode=755)<br>
&gt; &gt; &gt; securityfs on /sys/kernel/security type securityfs<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime)<br>
&gt; &gt; &gt; tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)<br>
&gt; &gt; &gt; devpts on /dev/pts type devpts<br>
&gt; &gt; &gt; (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)<br>
&gt; &gt; &gt; tmpfs on /run type tmpfs (rw,nosuid,nodev,mode=755)<br>
&gt; &gt; &gt; tmpfs on /sys/fs/cgroup type tmpfs (rw,nosuid,nodev,noexec,mode=755)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/systemd type cgroup<br>
&gt; &gt; &gt;<br>
&gt; &gt; (rw,nosuid,nodev,noexec,relatime,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/cpuset type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,cpuset)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,cpuacct,cpu)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/memory type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,memory)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/devices type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,devices)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/freezer type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,freezer)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/net_cls type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,net_cls)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/blkio type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,blkio)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/perf_event type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,perf_event)<br>
&gt; &gt; &gt; /dev/sda3 on / type ext4 (rw,relatime,data=ordered)<br>
&gt; &gt; &gt; rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)<br>
&gt; &gt; &gt; debugfs on /sys/kernel/debug type debugfs (rw,relatime)<br>
&gt; &gt; &gt; sunrpc on /proc/fs/nfsd type nfsd (rw,relatime)<br>
&gt; &gt; &gt; hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime)<br>
&gt; &gt; &gt; systemd-1 on /proc/sys/fs/binfmt_misc type autofs<br>
&gt; &gt; &gt; (rw,relatime,fd=34,pgrp=1,timeout=300,minproto=5,maxproto=5,direct)<br>
&gt; &gt; &gt; mqueue on /dev/mqueue type mqueue (rw,relatime)<br>
&gt; &gt; &gt; tmpfs on /tmp type tmpfs (rw)<br>
&gt; &gt; &gt; configfs on /sys/kernel/config type configfs (rw,relatime)<br>
&gt; &gt; &gt; binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,relatime)<br>
&gt; &gt; &gt; /dev/sda5 on /home type ext4 (rw,relatime,data=ordered)<br>
&gt; &gt; &gt; /dev/sda1 on /boot type ext4 (rw,relatime,data=ordered)<br>
&gt; &gt; &gt; kernelpanic.home:/home/KP_Data_Domain on<br>
&gt; &gt; &gt; /rhev/data-center/mnt/kernelpanic.home:_home_KP__Data__Domain type nfs<br>
&gt; &gt; &gt;<br>
&gt; &gt; (rw,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,soft,nosharecache,proto=tcp,timeo=600,retrans=6,sec=sys,mountaddr=10.100.101.100,mountvers=3,mountport=20048,mountproto=udp,local_lock=none,addr=10.100.101.100)<br>


&gt; &gt; &gt; bufferoverflow.home:/home/BO_ISO_Domain on<br>
&gt; &gt; &gt; /rhev/data-center/mnt/bufferoverflow.home:_home_BO__ISO__Domain type nfs<br>
&gt; &gt; &gt;<br>
&gt; &gt; (rw,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,soft,nosharecache,proto=tcp,timeo=600,retrans=6,sec=sys,mountaddr=10.100.101.108,mountvers=3,mountport=20048,mountproto=udp,local_lock=none,addr=10.100.101.108)<br>


&gt; &gt; &gt;<br>
&gt; &gt; &gt; [wil@bufferoverflow ~]$ ls -la /home/<br>
&gt; &gt; &gt; total 36<br>
&gt; &gt; &gt; drwxr-xr-x. 6 root root <a href="tel:4096" value="+9724096">4096</a> Mar <a href="tel:22%2011" value="+9722211">22 11</a>:25 .<br>
&gt; &gt; &gt; dr-xr-xr-x. 19 root root <a href="tel:4096" value="+9724096">4096</a> Apr 12 18:53 ..<br>
&gt; &gt; &gt; drwxr-xr-x. 3 vdsm kvm <a href="tel:4096" value="+9724096">4096</a> Mar <a href="tel:27%2017" value="+9722717">27 17</a>:33 BO_ISO_Domain<br>
&gt; &gt; &gt; drwxr-xr-x. 3 vdsm kvm 4096 Mar 27 17:33 BO_Ovirt_Storage<br>
&gt; &gt; &gt; drwx------. 2 root root 16384 Mar 6 09:11 lost+found<br>
&gt; &gt; &gt; drwx------. 27 wil wil 4096 Apr 15 01:50 wil<br>
&gt; &gt; &gt; [wil@bufferoverflow ~]$ cd /home/BO_Ovirt_Storage/<br>
&gt; &gt; &gt; [wil@bufferoverflow BO_Ovirt_Storage]$ ls -la<br>
&gt; &gt; &gt; total 12<br>
&gt; &gt; &gt; drwxr-xr-x. 3 vdsm kvm <a href="tel:4096" value="+9724096">4096</a> Mar <a href="tel:27%2017" value="+9722717">27 17</a>:33 .<br>
&gt; &gt; &gt; drwxr-xr-x. 6 root root <a href="tel:4096" value="+9724096">4096</a> Mar <a href="tel:22%2011" value="+9722211">22 11</a>:25 ..<br>
&gt; &gt; &gt; drwxr-xr-x 5 vdsm kvm <a href="tel:4096" value="+9724096">4096</a> Mar 20 23:06<br>
&gt; &gt; 1083422e-a5db-41b6-b667-b9ef1ef244f0<br>
&gt; &gt; &gt; -rwxr-xr-x 1 vdsm kvm 0 Mar 27 17:33 __DIRECT_IO_TEST__<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Thanks,<br>
&gt; &gt; &gt; Limor<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; On Mon, Apr 15, 2013 at 4:02 PM, Tal Nisan &lt; <a href="mailto:tnisan@redhat.com">tnisan@redhat.com</a> &gt; wrote:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Hi Limor,<br>
&gt; &gt; &gt; First we should probably start with checking which mount is the master<br>
&gt; &gt; &gt; storage domain that appears as not found, this should be checked against<br>
&gt; &gt; the<br>
&gt; &gt; &gt; oVirt server database, please run<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; select <a href="http://sds.id" target="_blank">sds.id</a> , ssc.connection from storage_domain_static sds join<br>
&gt; &gt; &gt; storage_server_connections ssc on sds.storage= <a href="http://ssc.id" target="_blank">ssc.id</a><br>
&gt; &gt; &gt; where <a href="http://sds.id" target="_blank">sds.id</a> =&#39;1083422e-a5db-41b6-b667-b9ef1ef244f0&#39;;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; You can run this via psql or a Postgres ui if you have one.<br>
&gt; &gt; &gt; In the results you will see the storage connection in the format of<br>
&gt; &gt; &gt; %hostname%:/%mountName%, then in the VDSM server check in the mount list<br>
&gt; &gt; &gt; that you see that it is mounted, the mount itself should contain a<br>
&gt; &gt; directory<br>
&gt; &gt; &gt; named as the uuid of the master domain, let me know the result.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Tal.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; On 04/12/2013 07:29 PM, Limor Gavish wrote:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Hi,<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; For some reason, without doing anything, all the storage domains became<br>
&gt; &gt; down<br>
&gt; &gt; &gt; and restarting VDSM or the entire machine do not bring it up.<br>
&gt; &gt; &gt; I am not using lvm<br>
&gt; &gt; &gt; The following errors appear several times in vdsm.log (full logs are<br>
&gt; &gt; &gt; attached):<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Thread-22::WARNING::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,597::lvm::378::Storage.LVM::(_reloadvgs) lvm vgs failed: 5 [] [&#39;<br>
&gt; &gt; &gt; Volume group &quot;1083422e-a5db-41b6-b667-b9ef1ef244f0&quot; not found&#39;]<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,598::lvm::402::OperationMutex::(_reloadvgs) Operation &#39;lvm<br>
&gt; &gt; reload<br>
&gt; &gt; &gt; operation&#39; released the operation mutex<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,681::resourceManager::615::ResourceManager::(releaseResource)<br>
&gt; &gt; &gt; Trying to release resource &#39;Storage.5849b030-626e-47cb-ad90-3ce782d831b3&#39;<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,681::resourceManager::634::ResourceManager::(releaseResource)<br>
&gt; &gt; &gt; Released resource &#39;Storage.5849b030-626e-47cb-ad90-3ce782d831b3&#39; (0<br>
&gt; &gt; active<br>
&gt; &gt; &gt; users)<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,681::resourceManager::640::ResourceManager::(releaseResource)<br>
&gt; &gt; &gt; Resource &#39;Storage.5849b030-626e-47cb-ad90-3ce782d831b3&#39; is free, finding<br>
&gt; &gt; out<br>
&gt; &gt; &gt; if anyone is waiting for it.<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,682::resourceManager::648::ResourceManager::(releaseResource) No<br>
&gt; &gt; &gt; one is waiting for resource<br>
&gt; &gt; &#39;Storage.5849b030-626e-47cb-ad90-3ce782d831b3&#39;,<br>
&gt; &gt; &gt; Clearing records.<br>
&gt; &gt; &gt; Thread-22::ERROR::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,682::task::850::TaskManager.Task::(_setError)<br>
&gt; &gt; &gt; Task=`e35a22ac-771a-4916-851f-2fe9d60a0ae6`::Unexpected error<br>
&gt; &gt; &gt; Traceback (most recent call last):<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/storage/task.py&quot;, line 857, in _run<br>
&gt; &gt; &gt; return fn(*args, **kargs)<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/logUtils.py&quot;, line 45, in wrapper<br>
&gt; &gt; &gt; res = f(*args, **kwargs)<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 939, in connectStoragePool<br>
&gt; &gt; &gt; masterVersion, options)<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 986, in _connectStoragePool<br>
&gt; &gt; &gt; res = pool.connect(hostID, scsiKey, msdUUID, masterVersion)<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/storage/sp.py&quot;, line 695, in connect<br>
&gt; &gt; &gt; self.__rebuild(msdUUID=msdUUID, masterVersion=masterVersion)<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/storage/sp.py&quot;, line 1232, in __rebuild<br>
&gt; &gt; &gt; masterVersion=masterVersion)<br>
&gt; &gt; &gt; File &quot;/usr/share/vdsm/storage/sp.py&quot;, line 1576, in getMasterDomain<br>
&gt; &gt; &gt; raise se.StoragePoolMasterNotFound(self.spUUID, msdUUID)<br>
&gt; &gt; &gt; StoragePoolMasterNotFound: Cannot find master domain:<br>
&gt; &gt; &gt; &#39;spUUID=5849b030-626e-47cb-ad90-3ce782d831b3,<br>
&gt; &gt; &gt; msdUUID=1083422e-a5db-41b6-b667-b9ef1ef244f0&#39;<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,685::task::869::TaskManager.Task::(_run)<br>
&gt; &gt; &gt; Task=`e35a22ac-771a-4916-851f-2fe9d60a0ae6`::Task._run:<br>
&gt; &gt; &gt; e35a22ac-771a-4916-851f-2fe9d60a0ae6<br>
&gt; &gt; &gt; (&#39;5849b030-626e-47cb-ad90-3ce782d831b3&#39;, 1,<br>
&gt; &gt; &gt; &#39;5849b030-626e-47cb-ad90-3ce782d831b3&#39;,<br>
&gt; &gt; &gt; &#39;1083422e-a5db-41b6-b667-b9ef1ef244f0&#39;, 3942) {} failed - stopping task<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,685::task::1194::TaskManager.Task::(stop)<br>
&gt; &gt; &gt; Task=`e35a22ac-771a-4916-851f-2fe9d60a0ae6`::stopping in state preparing<br>
&gt; &gt; &gt; (force False)<br>
&gt; &gt; &gt; Thread-22::DEBUG::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,685::task::974::TaskManager.Task::(_decref)<br>
&gt; &gt; &gt; Task=`e35a22ac-771a-4916-851f-2fe9d60a0ae6`::ref 1 aborting True<br>
&gt; &gt; &gt; Thread-22::INFO::2013-04-12<br>
&gt; &gt; &gt; 19:00:08,686::task::1151::TaskManager.Task::(prepare)<br>
&gt; &gt; &gt; Task=`e35a22ac-771a-4916-851f-2fe9d60a0ae6`::aborting: Task is aborted:<br>
&gt; &gt; &gt; &#39;Cannot find master domain&#39; - code 304<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [wil@bufferoverflow ~]$ sudo vgs --noheadings --units b --nosuffix<br>
&gt; &gt; &gt; --separator \| -o<br>
&gt; &gt; &gt;<br>
&gt; &gt; uuid,name,attr,size,free,extent_size,extent_count,free_count,tags,vg_mda_size,vg_mda_free<br>
&gt; &gt; &gt; No volume groups found<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [wil@bufferoverflow ~]$ mount<br>
&gt; &gt; &gt; proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)<br>
&gt; &gt; &gt; sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)<br>
&gt; &gt; &gt; devtmpfs on /dev type devtmpfs<br>
&gt; &gt; &gt; (rw,nosuid,size=8131256k,nr_inodes=2032814,mode=755)<br>
&gt; &gt; &gt; securityfs on /sys/kernel/security type securityfs<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime)<br>
&gt; &gt; &gt; tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)<br>
&gt; &gt; &gt; devpts on /dev/pts type devpts<br>
&gt; &gt; &gt; (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)<br>
&gt; &gt; &gt; tmpfs on /run type tmpfs (rw,nosuid,nodev,mode=755)<br>
&gt; &gt; &gt; tmpfs on /sys/fs/cgroup type tmpfs (rw,nosuid,nodev,noexec,mode=755)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/systemd type cgroup<br>
&gt; &gt; &gt;<br>
&gt; &gt; (rw,nosuid,nodev,noexec,relatime,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/cpuset type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,cpuset)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,cpuacct,cpu)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/memory type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,memory)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/devices type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,devices)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/freezer type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,freezer)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/net_cls type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,net_cls)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/blkio type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,blkio)<br>
&gt; &gt; &gt; cgroup on /sys/fs/cgroup/perf_event type cgroup<br>
&gt; &gt; &gt; (rw,nosuid,nodev,noexec,relatime,perf_event)<br>
&gt; &gt; &gt; /dev/sda3 on / type ext4 (rw,relatime,data=ordered)<br>
&gt; &gt; &gt; rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)<br>
&gt; &gt; &gt; debugfs on /sys/kernel/debug type debugfs (rw,relatime)<br>
&gt; &gt; &gt; sunrpc on /proc/fs/nfsd type nfsd (rw,relatime)<br>
&gt; &gt; &gt; hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime)<br>
&gt; &gt; &gt; systemd-1 on /proc/sys/fs/binfmt_misc type autofs<br>
&gt; &gt; &gt; (rw,relatime,fd=34,pgrp=1,timeout=300,minproto=5,maxproto=5,direct)<br>
&gt; &gt; &gt; mqueue on /dev/mqueue type mqueue (rw,relatime)<br>
&gt; &gt; &gt; tmpfs on /tmp type tmpfs (rw)<br>
&gt; &gt; &gt; configfs on /sys/kernel/config type configfs (rw,relatime)<br>
&gt; &gt; &gt; binfmt_misc on /proc/sys/fs/binfmt_misc type binfmt_misc (rw,relatime)<br>
&gt; &gt; &gt; /dev/sda5 on /home type ext4 (rw,relatime,data=ordered)<br>
&gt; &gt; &gt; /dev/sda1 on /boot type ext4 (rw,relatime,data=ordered)<br>
&gt; &gt; &gt; kernelpanic.home:/home/KP_Data_Domain on<br>
&gt; &gt; &gt; /rhev/data-center/mnt/kernelpanic.home:_home_KP__Data__Domain type nfs<br>
&gt; &gt; &gt;<br>
&gt; &gt; (rw,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,soft,nosharecache,proto=tcp,timeo=600,retrans=6,sec=sys,mountaddr=10.100.101.100,mountvers=3,mountport=20048,mountproto=udp,local_lock=none,addr=10.100.101.100)<br>


&gt; &gt; &gt; bufferoverflow.home:/home/BO_ISO_Domain on<br>
&gt; &gt; &gt; /rhev/data-center/mnt/bufferoverflow.home:_home_BO__ISO__Domain type nfs<br>
&gt; &gt; &gt;<br>
&gt; &gt; (rw,relatime,vers=3,rsize=1048576,wsize=1048576,namlen=255,soft,nosharecache,proto=tcp,timeo=600,retrans=6,sec=sys,mountaddr=10.100.101.108,mountvers=3,mountport=20048,mountproto=udp,local_lock=none,addr=10.100.101.108)<br>


&gt; &gt; &gt;<br>
&gt; &gt; &gt; [wil@bufferoverflow ~]$ sudo find / -name<br>
&gt; &gt; &gt; 5849b030-626e-47cb-ad90-3ce782d831b3<br>
&gt; &gt; &gt; /run/vdsm/pools/5849b030-626e-47cb-ad90-3ce782d831b3<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [wil@bufferoverflow ~]$ sudo find / -name<br>
&gt; &gt; &gt; 1083422e-a5db-41b6-b667-b9ef1ef244f0<br>
&gt; &gt; &gt; /home/BO_Ovirt_Storage/1083422e-a5db-41b6-b667-b9ef1ef244f0<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I will extremely appreciate any help,<br>
&gt; &gt; &gt; Limor Gavish<br>
&gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; Users mailing list <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt; &gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; Users mailing list<br>
&gt; &gt; &gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt; &gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt; &gt; &gt;<br>
&gt; &gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div>