<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0//EN" "http://www.w3.org/TR/REC-html40/strict.dtd">
<html><head><meta name="qrichtext" content="1" /><style type="text/css">
p, li { white-space: pre-wrap; }
</style></head><body style=" font-family:'Sans Serif'; font-size:10pt; font-weight:400; font-style:normal;">
<p style=" margin-top:0px; margin-bottom:0px; margin-left:0px; margin-right:0px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;">On Thursday, September 19, 2013 07:22:08 PM Gianluca Cecchi wrote:<br /></p>
<p style=" margin-top:12px; margin-bottom:12px; margin-left:40px; margin-right:40px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;"><br />Il giorno 19/set/2013 19:10, &quot;Alexander Wels&quot; &lt;<a href="mailto:awels@redhat.com"><span style=" text-decoration: underline; color:#0057ae;">awels@redhat.com</span></a>&gt; ha scritto:<br />&gt;<br />&gt; Steve,<br />&gt;<br />&gt;  <br />&gt;<br />&gt; Having just installed gluster on my local hosts and seeing the exact same error in my setup. I am going to assume the following are true:<br />&gt;<br />&gt;  <br />&gt;<br />&gt; 1. You made a partition just for gluster.<br />&gt;<br />&gt; 2. You followed oVirt 3.3, Glusterized article from Jason Brooks.<br />&gt;<br />&gt;  <br />&gt;<br />&gt; I got the exact same error because for some reason the owner of the directory I put the gluster bricks in keep changing back to root instead of kvm:kvm. Each time I reboot my host, that happens, so I am assuming I didn't set up something correctly. But you can solve it by chowning the directory and everything will work again.<br />&gt;<br />&gt;  <br />&gt;<br />&gt; If that doesn't help, well I don't know, I just started using it myself, I just happen to have seen the same error at some point.<br />&gt;<br />&gt;  <br />&gt;<br />&gt; Alexander<br />&gt;<br />&gt;  <br />&gt;<br />&gt; On Thursday, September 19, 2013 12:26:52 PM Steve Dainard wrote:<br />&gt;<br />&gt; Hello,<br />&gt;<br />&gt;<br />&gt; New Ovirt 3.3 install on Fedora 19.<br />&gt;<br />&gt;<br />&gt; When I try to add a gluster storage domain I get the following:<br />&gt;<br />&gt;<br />&gt; UI error:<br />&gt;<br />&gt; Error while executing action Add Storage Connection: Permission settings on the specified path do not allow access to the storage.<br />&gt;<br />&gt; Verify permission settings on the specified storage path.<br />&gt;<br />&gt;<br />&gt; VDSM logs contain:<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,399::BindingXMLRPC::177::vds::(wrapper) client [10.0.0.34]<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,399::task::579::TaskManager.Task::(_updateState) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::moving from state init -&gt; state preparing<br />&gt;<br />&gt; Thread-393::INFO::2013-09-19 11:59:42,400::logUtils::44::dispatcher::(wrapper) Run and protect: connectStorageServer(domType=7, spUUID='00000000-0000-0000-0000-000000000000', conList=[{'port': '', 'connection': '192.168.1.1:/rep2-virt', 'iqn': '', 'portal': '', 'user': '', 'vfs_type': 'glusterfs', 'password': '******', 'id': '00000000-0000-0000-0000-000000000000'}], options=None)<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,405::mount::226::Storage.Misc.excCmd::(_runcmd) '/usr/bin/sudo -n /usr/bin/mount -t glusterfs 192.168.1.1:/rep2-virt /rhev/data-center/mnt/glusterSD/192.168.1.1:_rep2-virt' (cwd None)<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,490::mount::226::Storage.Misc.excCmd::(_runcmd) '/usr/bin/sudo -n /usr/bin/umount -f -l /rhev/data-center/mnt/glusterSD/192.168.1.1:_rep2-virt' (cwd None)<br />&gt;<br />&gt; Thread-393::ERROR::2013-09-19 11:59:42,505::hsm::2382::Storage.HSM::(connectStorageServer) Could not connect to storageServer<br />&gt;<br />&gt; Traceback (most recent call last):<br />&gt;<br />&gt;   File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 2379, in connectStorageServer<br />&gt;<br />&gt;     conObj.connect()<br />&gt;<br />&gt;   File &quot;/usr/share/vdsm/storage/storageServer.py&quot;, line 227, in connect<br />&gt;<br />&gt;     raise e<br />&gt;<br />&gt; StorageServerAccessPermissionError: Permission settings on the specified path do not allow access to the storage. Verify permission settings on the specified storage path.: 'path = /rhev/data-center/mnt/glusterSD/192.168.1.1:_rep2-virt'<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::hsm::2396::Storage.HSM::(connectStorageServer) knownSDs: {}<br />&gt;<br />&gt; Thread-393::INFO::2013-09-19 11:59:42,506::logUtils::47::dispatcher::(wrapper) Run and protect: connectStorageServer, Return response: {'statuslist': [{'status': 469, 'id': '00000000-0000-0000-0000-000000000000'}]}<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::task::1168::TaskManager.Task::(prepare) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::finished: {'statuslist': [{'status': 469, 'id': '00000000-0000-0000-0000-000000000000'}]}<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::task::579::TaskManager.Task::(_updateState) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::moving from state preparing -&gt; state finished<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::resourceManager::939::ResourceManager.Owner::(releaseAll) Owner.releaseAll requests {} resources {}<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,507::resourceManager::976::ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}<br />&gt;<br />&gt; Thread-393::DEBUG::2013-09-19 11:59:42,507::task::974::TaskManager.Task::(_decref) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::ref 0 aborting False<br />&gt;<br />&gt;<br />&gt; Other info:<br />&gt;<br />&gt; - I have two nodes, ovirt001, ovirt002 they are both Fedora 19.<br />&gt;<br />&gt; - The gluster bricks are replicated and located on the nodes. (ovirt001:rep2-virt, ovirt002:rep2-virt)<br />&gt;<br />&gt; - Local directory for the mount, I changed permissions on glusterSD to 777, it was 755, and there is nothing in that directory:<br />&gt;<br />&gt; [root@ovirt001 mnt]# pwd<br />&gt;<br />&gt; /rhev/data-center/mnt<br />&gt;<br />&gt; [root@ovirt001 mnt]# ll<br />&gt;<br />&gt; total 4<br />&gt;<br />&gt; drwxrwxrwx. 2 vdsm kvm 4096 Sep 19 12:18 glusterSD<br />&gt;<br />&gt;<br />&gt; I find it odd that the UUID's listed in the vdsm logs are zero's..<br />&gt;<br />&gt;<br />&gt; Appreciate any help,<br />&gt;<br />&gt;<br />&gt;<br />&gt; Steve<br />&gt;<br />&gt;<br />&gt;<br />&gt;<br />&gt; _______________________________________________<br />&gt; Users mailing list<br />&gt; <a href="mailto:Users@ovirt.org"><span style=" text-decoration: underline; color:#0057ae;">Users@ovirt.org</span></a><br />&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users"><span style=" text-decoration: underline; color:#0057ae;">http://lists.ovirt.org/mailman/listinfo/users</span></a><br />&gt;<br />I had a similar problem in gluster configuration for openstack and found solution in this ovirt page:</p>
<p style=" margin-top:12px; margin-bottom:12px; margin-left:40px; margin-right:40px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;"><a href="http://www.ovirt.org/Features/GlusterFS_Storage_Domain#Setting_up_a_GlusterFS_storage_volume_for_using_it_as_a_storage_domain"><span style=" text-decoration: underline; color:#0057ae;">http://www.ovirt.org/Features/GlusterFS_Storage_Domain#Setting_up_a_GlusterFS_storage_volume_for_using_it_as_a_storage_domain</span></a> </p>
<p style=" margin-top:12px; margin-bottom:12px; margin-left:40px; margin-right:40px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;">In particular:</p>
<p style=" margin-top:12px; margin-bottom:12px; margin-left:40px; margin-right:40px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;">If the GlusterFS volume was created manually, then ensure the below options are set on the volume, so that its accessible from oVirtvolume set &lt;volname&gt; storage.owner-uid=36volume set &lt;volname&gt; storage.owner-gid=36 </p>
<p style=" margin-top:12px; margin-bottom:12px; margin-left:40px; margin-right:40px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;">Check that otherwise each time a node mounts the gluster it will reset permissions root. ..<br />Hih<br />Gianluca</p>
<p style=" margin-top:0px; margin-bottom:0px; margin-left:0px; margin-right:0px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;"><br /><br />Thanks, I just double checked, and I have one data gluster domain, which had those flags set, and looking at it again, was fine. However I also created an export domain and iso domain from within the webadmin UI, and those did NOT have the flags set, and those were the ones giving me a problem. I just set the flags and restarted the host to check, and everything is working as expected now.</p>
<p style="-qt-paragraph-type:empty; margin-top:0px; margin-bottom:0px; margin-left:0px; margin-right:0px; -qt-block-indent:0; text-indent:0px; ">&nbsp;</p>
<p style=" margin-top:0px; margin-bottom:0px; margin-left:0px; margin-right:0px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;">Thanks,</p>
<p style=" margin-top:0px; margin-bottom:0px; margin-left:0px; margin-right:0px; -qt-block-indent:0; text-indent:0px; -qt-user-state:0;">Alexander</p></body></html>