<p dir="ltr"><br>
Il giorno 19/set/2013 19:10, &quot;Alexander Wels&quot; &lt;<a href="mailto:awels@redhat.com">awels@redhat.com</a>&gt; ha scritto:<br>
&gt;<br>
&gt; Steve,<br>
&gt;<br>
&gt;  <br>
&gt;<br>
&gt; Having just installed gluster on my local hosts and seeing the exact same error in my setup. I am going to assume the following are true:<br>
&gt;<br>
&gt;  <br>
&gt;<br>
&gt; 1. You made a partition just for gluster.<br>
&gt;<br>
&gt; 2. You followed oVirt 3.3, Glusterized article from Jason Brooks.<br>
&gt;<br>
&gt;  <br>
&gt;<br>
&gt; I got the exact same error because for some reason the owner of the directory I put the gluster bricks in keep changing back to root instead of kvm:kvm. Each time I reboot my host, that happens, so I am assuming I didn&#39;t set up something correctly. But you can solve it by chowning the directory and everything will work again.<br>

&gt;<br>
&gt;  <br>
&gt;<br>
&gt; If that doesn&#39;t help, well I don&#39;t know, I just started using it myself, I just happen to have seen the same error at some point.<br>
&gt;<br>
&gt;  <br>
&gt;<br>
&gt; Alexander<br>
&gt;<br>
&gt;  <br>
&gt;<br>
&gt; On Thursday, September 19, 2013 12:26:52 PM Steve Dainard wrote:<br>
&gt;<br>
&gt; Hello,<br>
&gt;<br>
&gt;<br>
&gt; New Ovirt 3.3 install on Fedora 19.<br>
&gt;<br>
&gt;<br>
&gt; When I try to add a gluster storage domain I get the following:<br>
&gt;<br>
&gt;<br>
&gt; UI error:<br>
&gt;<br>
&gt; Error while executing action Add Storage Connection: Permission settings on the specified path do not allow access to the storage.<br>
&gt;<br>
&gt; Verify permission settings on the specified storage path.<br>
&gt;<br>
&gt;<br>
&gt; VDSM logs contain:<br>
&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,399::BindingXMLRPC::177::vds::(wrapper) client [10.0.0.34]<br>
&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,399::task::579::TaskManager.Task::(_updateState) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::moving from state init -&gt; state preparing<br>
&gt;<br>
&gt; Thread-393::INFO::2013-09-19 11:59:42,400::logUtils::44::dispatcher::(wrapper) Run and protect: connectStorageServer(domType=7, spUUID=&#39;00000000-0000-0000-0000-000000000000&#39;, conList=[{&#39;port&#39;: &#39;&#39;, &#39;connection&#39;: &#39;192.168.1.1:/rep2-virt&#39;, &#39;iqn&#39;: &#39;&#39;, &#39;portal&#39;: &#39;&#39;, &#39;user&#39;: &#39;&#39;, &#39;vfs_type&#39;: &#39;glusterfs&#39;, &#39;password&#39;: &#39;******&#39;, &#39;id&#39;: &#39;00000000-0000-0000-0000-000000000000&#39;}], options=None)<br>

&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,405::mount::226::Storage.Misc.excCmd::(_runcmd) &#39;/usr/bin/sudo -n /usr/bin/mount -t glusterfs 192.168.1.1:/rep2-virt /rhev/data-center/mnt/glusterSD/192.168.1.1:_rep2-virt&#39; (cwd None)<br>

&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,490::mount::226::Storage.Misc.excCmd::(_runcmd) &#39;/usr/bin/sudo -n /usr/bin/umount -f -l /rhev/data-center/mnt/glusterSD/192.168.1.1:_rep2-virt&#39; (cwd None)<br>
&gt;<br>
&gt; Thread-393::ERROR::2013-09-19 11:59:42,505::hsm::2382::Storage.HSM::(connectStorageServer) Could not connect to storageServer<br>
&gt;<br>
&gt; Traceback (most recent call last):<br>
&gt;<br>
&gt;   File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 2379, in connectStorageServer<br>
&gt;<br>
&gt;     conObj.connect()<br>
&gt;<br>
&gt;   File &quot;/usr/share/vdsm/storage/storageServer.py&quot;, line 227, in connect<br>
&gt;<br>
&gt;     raise e<br>
&gt;<br>
&gt; StorageServerAccessPermissionError: Permission settings on the specified path do not allow access to the storage. Verify permission settings on the specified storage path.: &#39;path = /rhev/data-center/mnt/glusterSD/192.168.1.1:_rep2-virt&#39;<br>

&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::hsm::2396::Storage.HSM::(connectStorageServer) knownSDs: {}<br>
&gt;<br>
&gt; Thread-393::INFO::2013-09-19 11:59:42,506::logUtils::47::dispatcher::(wrapper) Run and protect: connectStorageServer, Return response: {&#39;statuslist&#39;: [{&#39;status&#39;: 469, &#39;id&#39;: &#39;00000000-0000-0000-0000-000000000000&#39;}]}<br>

&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::task::1168::TaskManager.Task::(prepare) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::finished: {&#39;statuslist&#39;: [{&#39;status&#39;: 469, &#39;id&#39;: &#39;00000000-0000-0000-0000-000000000000&#39;}]}<br>

&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::task::579::TaskManager.Task::(_updateState) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::moving from state preparing -&gt; state finished<br>
&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,506::resourceManager::939::ResourceManager.Owner::(releaseAll) Owner.releaseAll requests {} resources {}<br>
&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,507::resourceManager::976::ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}<br>
&gt;<br>
&gt; Thread-393::DEBUG::2013-09-19 11:59:42,507::task::974::TaskManager.Task::(_decref) Task=`12c38fec-0072-4974-a8e3-9125b3908246`::ref 0 aborting False<br>
&gt;<br>
&gt;<br>
&gt; Other info:<br>
&gt;<br>
&gt; - I have two nodes, ovirt001, ovirt002 they are both Fedora 19.<br>
&gt;<br>
&gt; - The gluster bricks are replicated and located on the nodes. (ovirt001:rep2-virt, ovirt002:rep2-virt)<br>
&gt;<br>
&gt; - Local directory for the mount, I changed permissions on glusterSD to 777, it was 755, and there is nothing in that directory:<br>
&gt;<br>
&gt; [root@ovirt001 mnt]# pwd<br>
&gt;<br>
&gt; /rhev/data-center/mnt<br>
&gt;<br>
&gt; [root@ovirt001 mnt]# ll<br>
&gt;<br>
&gt; total 4<br>
&gt;<br>
&gt; drwxrwxrwx. 2 vdsm kvm 4096 Sep 19 12:18 glusterSD<br>
&gt;<br>
&gt;<br>
&gt; I find it odd that the UUID&#39;s listed in the vdsm logs are zero&#39;s..<br>
&gt;<br>
&gt;<br>
&gt; Appreciate any help,<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Steve<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
I had a similar problem in gluster configuration for openstack and found solution in this ovirt page:</p>
<p dir="ltr"><a href="http://www.ovirt.org/Features/GlusterFS_Storage_Domain#Setting_up_a_GlusterFS_storage_volume_for_using_it_as_a_storage_domain">http://www.ovirt.org/Features/GlusterFS_Storage_Domain#Setting_up_a_GlusterFS_storage_volume_for_using_it_as_a_storage_domain</a></p>

<p dir="ltr">In particular:</p>
<p dir="ltr">If the GlusterFS volume was created manually, then ensure the below options are set on the volume, so that its accessible from oVirtvolume set &lt;volname&gt; storage.owner-uid=36volume set &lt;volname&gt; storage.owner-gid=36</p>

<p dir="ltr">Check that otherwise each time a node mounts the gluster it will reset permissions root. ..<br>
Hih<br>
Gianluca</p>