<div dir="ltr">Please note that creating disk on master data domain works!<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Sep 17, 2014 at 10:08 AM, Gabi C <span dir="ltr">&lt;<a href="mailto:gabicr@gmail.com" target="_blank">gabicr@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div>Hello!<br><br></div>- 1 oVirt Engine (not hosted), 4 nodes, 3 in &quot;Default&quot; datacenter, 1 in a local-storage type datacenter;<br></div><div>- Recently upgraded from 3.4.2 to 3.4.3;<br></div><div><br><br></div><div>&quot;Default&quot;Datacenter has, along &quot;mandatory&quot;ISO and Export domain, two storage domains &quot;storage_gluster2&quot; aprox 550Gb  and &quot;storage_gluster3&quot; aprox 130 GB.<br></div><div>As you can guess :-), the three nodes serve also as gluster bricks, each with 2 bricks in the above mentioned storage domains, both in replicated mode.<br><br></div><div>Master domain is &quot;storage_gluster3&quot;.<br><br></div><div>After create new VM, trying to add new disk on &quot;storage_gluster2 &quot;, which is NOT master domain raise (ovirt-engine.log)<br><br><br><br>-- Message: VDSGenericException: VDSErrorException: Failed to HSMGetAllTasksStatusesVDS, error = [Errno 2] No such file or directory: &#39;/rhev/data-center/5849b030-626e-47cb-ad90-3ce782d831b3/b694642b-4603-4dc6-ba36-c0d82ca83fa2/images/5de04fd7-a8a5-483a-be53-cffb17db3d94&#39;, code = 100,<br>-- Exception: VDSGenericException: VDSErrorException: Failed to HSMGetAllTasksStatusesVDS, error = [Errno 2] No such file or directory: &#39;/rhev/data-center/5849b030-626e-47cb-ad90-3ce782d831b3/b694642b-4603-4dc6-ba36-c0d82ca83fa2/images/5de04fd7-a8a5-483a-be53-cffb17db3d94&#39;, code = 100<br><br></div><div><br><br></div><div>On SPM:<br><br><br>vdsClient -s 0 getConnectedStoragePoolsList<br>5849b030-626e-47cb-ad90-3ce782d831b3<br><br><br>vdsClient -s 0 getStoragePoolInfo 5849b030-626e-47cb-ad90-3ce782d831b3<br>        name = Default<br>        isoprefix = /rhev/data-center/mnt/10.125.1.193:_mnt_storage__filer1_export__nfs2_iso/bb09aac2-05d5-45c5-b573-ebff9292ad6d/images/11111111-1111-1111-1111-111111111111<br>        pool_status = connected<br>        lver = 23<br>        spm_id = 1<br>        master_uuid = aa401118-fc30-4399-8f01-f1751f89fff4<br>        version = 3<br>        domains = b694642b-4603-4dc6-ba36-c0d82ca83fa2:Active,bb09aac2-05d5-45c5-b573-ebff9292ad6d:Active,aa401118-fc30-4399-8f01-f1751f89fff4:Active,62f795ed-486c-443d-93e9-2c16595fe546:Active<br>        type = GLUSTERFS<br>        master_ver = 1136<br>        b694642b-4603-4dc6-ba36-c0d82ca83fa2 = {&#39;status&#39;: &#39;Active&#39;, &#39;diskfree&#39;: &#39;324000022528&#39;, &#39;isoprefix&#39;: &#39;&#39;, &#39;alerts&#39;: [], &#39;disktotal&#39;: &#39;590231371776&#39;, &#39;version&#39;: 3}<br>        bb09aac2-05d5-45c5-b573-ebff9292ad6d = {&#39;status&#39;: &#39;Active&#39;, &#39;diskfree&#39;: &#39;1904214016&#39;, &#39;isoprefix&#39;: &#39;/rhev/data-center/mnt/10.125.1.193:_mnt_storage__filer1_export__nfs2_iso/bb09aac2-05d5-45c5-b573-ebff9292ad6d/images/11111111-1111-1111-1111-111111111111&#39;, &#39;alerts&#39;: [], &#39;disktotal&#39;: &#39;8049917952&#39;, &#39;version&#39;: 0}<br>        aa401118-fc30-4399-8f01-f1751f89fff4 = {&#39;status&#39;: &#39;Active&#39;, &#39;diskfree&#39;: &#39;111680159744&#39;, &#39;isoprefix&#39;: &#39;&#39;, &#39;alerts&#39;: [], &#39;disktotal&#39;: &#39;144146563072&#39;, &#39;version&#39;: 3}<br>        62f795ed-486c-443d-93e9-2c16595fe546 = {&#39;status&#39;: &#39;Active&#39;, &#39;diskfree&#39;: &#39;131499819008&#39;, &#39;isoprefix&#39;: &#39;&#39;, &#39;alerts&#39;: [], &#39;disktotal&#39;: &#39;234763583488&#39;, &#39;version&#39;: 0}<br><br><br><br><br><br><br></div><div>mount  <br><br>.....<br><br></div><div>127.0.0.1:gluster_data3 on /rhev/data-center/mnt/glusterSD/127.0.0.1:gluster__data3 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)<br>127.0.0.1:gluster_data2 on /rhev/data-center/mnt/glusterSD/127.0.0.1:gluster__data2 type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)<br>........<br></div><div><br><br>ls -la /rhev/data-center/mnt/<br>total 20<br>drwxr-xr-x. 5 vdsm kvm 4096 Sep  2 16:46 .<br>drwxr-xr-x. 5 vdsm kvm 4096 Sep  2 16:46 ..<br>drwxrwsrwx+ 3   96  96 4096 Feb  7  2014 10.125.1.193:_mnt_storage__filer1_export__nfs1_export<br>drwxrwsrwx+ 3   96  96 4096 May  8 17:16 10.125.1.193:_mnt_storage__filer1_export__nfs2_iso<br>drwxr-xr-x. 5 vdsm kvm 4096 Sep  2 16:45 glusterSD<br><br><br></div><div>but no: <br><br>&#39;/rhev/data-center/5849b030-626e-47cb-ad90-3ce782d831b3/b694642b-4603-4dc6-ba36-c0d82ca83fa2/images/5de04fd7-a8a5-483a-be53-cffb17db3d94&#39;,<br><br><br></div><div>as per error from engine log posted above.<br><br><br><br><br></div><div>Do you have any opinions/ideeas/advice?<br><br><br><br></div><div>I&#39;&#39;ll try to restart the whole thing ( engine plus 3 nodes) but , since it is in production it is a &quot;&#39;little bit&quot; dificult :-)<br></div><br></div>
</blockquote></div><br></div>