<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, Oct 27, 2015 at 5:06 PM, Simone Tiraboschi <span dir="ltr">&lt;<a href="mailto:stirabos@redhat.com" target="_blank">stirabos@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><div class="gmail_quote"><span class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><span><div><br></div><div>I don&#39;t understand the meaning of the sentence above:</div><div><br></div><div><div>          Local storage datacenter name is an internal name</div><div>          and currently will not be shown in engine&#39;s admin UI.</div></div><div><br></div></span></div></div></div></div></div></blockquote><div><br></div></span><div>It&#39;s just an internal label. I think we can just remove that question always using the default value and nothing will change.</div></div></div></div></blockquote><div><br></div><div>Probably better.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class=""><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><span><div></div><div><br></div><div>How is the chosen &quot;she_datacenter&quot; name related with the &quot;Default&quot; datacenter where the hypervisor is put in? Do I have to manually create it (I don&#39;t see this se_datacenter in webadmin portal)?</div><div><br></div><div>Also, I know there is open bug</div><div><br></div><div><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1269768" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1269768</a><br></div><div><br></div><div>But it seems I&#39;m not able to to import the storage domain...</div><div>In events, when I import, I have the sequence</div><div><br></div><div>Storage Domain she_sdomain was added by admin@internal<br></div><div>VDSM ovc71.localdomain.local command failed: Cannot acquire host id: (u&#39;9f1ec45d-0c32-4bfc-8b67-372d6f204fd1&#39;, SanlockException(22, &#39;Sanlock lockspace add failure&#39;, &#39;Invalid argument&#39;))<br></div><div>Failed to attach Storage Domains to Data Center Default. (User: admin@internal)<br></div><div>Failed to attach Storage Domain she_sdomain to Data Center Default. (User: admin@internal)<br></div><div><br></div><div>What should be the flow to compensate the bug? Do I have actually to attache it to &quot;Default&quot; datacenter or what? Is it expected to be fixed before 3.6?</div></span></div></div></div></div></div></blockquote><div><br></div></span>Postponing to 3.6.1 not being identified as a blocker.</div></div></div></blockquote><div><br></div><div>But is this a regression from 3.5.x or did this problem exist also in all the 3.5 versions where sh engine was in place?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><br></div><div class="gmail_quote">You can try to add the first additional storage domain for other VMs.</div><div class="gmail_quote">The datacenter should came up and at that point you try importing the hosted-engine storage domain.</div><div class="gmail_quote">You cannot add other VMs to that storage domain neither you&#39;ll can when the auto-import will work.</div><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><span><div><br></div></span></div></div></div></div></div></blockquote></div></div></div></blockquote><div><br></div><div>So I was indeed able to add a separate data NFS domain and able to attach it to the default DC that came then up as an active one.</div><div>Then tried to import/attach also the sh engine domain; it went in locked state but then the sh engine VM itself went down (no qemu process on hypervisor).</div><div>In /var/log/libvirt/qemu/HostedEngine.log of hypervisor I can see</div><div><br></div></div></div><div class="gmail_extra"><div class="gmail_extra">2015-10-28 13:59:02.233+0000: shutting down</div><div class="gmail_extra"><br></div><div class="gmail_extra">expected?</div><div><br></div><div>what now to have the sh engine come up again and see what happened?</div><div>Any logs on hypevisor to check?</div><div><br></div><div>In /var/log/sanlock.log</div><div><div>2015-10-28 14:57:14+0100 854 [829]: s4 lockspace 3662a51f-39de-4533-97fe-d49bf98e2d43:1:/rhev/data-center/mnt/ovc71.localdomain.local:_NFS__DOMAIN/3662a51f-39de-4533-97fe-d49bf98e2d43/dom_md/ids:0</div><div>2015-10-28 14:57:34+0100 874 [829]: s4:r3 resource 3662a51f-39de-4533-97fe-d49bf98e2d43:SDM:/rhev/data-center/mnt/ovc71.localdomain.local:_NFS__DOMAIN/3662a51f-39de-4533-97fe-d49bf98e2d43/dom_md/leases:1048576 for 4,17,1698</div><div>2015-10-28 14:57:35+0100 875 [825]: s4 host 1 1 854 1bfba2b1-2353-4d4e-9000-f97585b54df1.ovc71.loca</div><div>2015-10-28 14:57:35+0100 875 [825]: s4 host 250 1 0 1bfba2b1-2353-4d4e-9000-f97585b54df1.ovc71.loca</div><div>2015-10-28 14:59:00+0100 960 [830]: s1:r4 resource 9f1ec45d-0c32-4bfc-8b67-372d6f204fd1:SDM:/rhev/data-center/mnt/ovc71.localdomain.local:_SHE__DOMAIN/9f1ec45d-0c32-4bfc-8b67-372d6f204fd1/dom_md/leases:1048576 for 4,17,1698</div><div>2015-10-28 14:59:02+0100 962 [825]: s1 kill 3341 sig 9 count 1</div><div>2015-10-28 14:59:02+0100 962 [825]: dead 3341 ci 2 count 1</div><div>2015-10-28 14:59:08+0100 968 [830]: s5 lockspace 9f1ec45d-0c32-4bfc-8b67-372d6f204fd1:1:/rhev/data-center/mnt/ovc71.localdomain.local:_SHE__DOMAIN/9f1ec45d-0c32-4bfc-8b67-372d6f204fd1/dom_md/ids:0</div><div>2015-10-28 14:59:30+0100 990 [825]: s5 host 1 4 968 1bfba2b1-2353-4d4e-9000-f97585b54df1.ovc71.loca</div><div>2015-10-28 14:59:30+0100 990 [825]: s5 host 250 1 0 aa89bb89-20a1-414b-8ee3-0430fdc330f8.ovc71.loca</div></div><div><br></div><div><br></div><div><br></div><div>/var/log/vdsm/vdsm.log<br></div><div><div>Thread-1247::DEBUG::2015-10-28 14:59:00,043::task::993::Storage.TaskManager.Task::(_decref) Task=`56</div><div>dd2372-f454-4188-8bf3-ab543d677c14`::ref 0 aborting False</div><div>Thread-1247::ERROR::2015-10-28 14:59:00,096::API::1847::vds::(_getHaInfo) failed to retrieve Hosted Engine HA info</div><div>Traceback (most recent call last):</div><div>  File &quot;/usr/share/vdsm/API.py&quot;, line 1827, in _getHaInfo</div><div>    stats = instance.get_all_stats()</div><div>  File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/client/client.py&quot;, line 103, in get_all_stats</div><div>    self._configure_broker_conn(broker)</div><div>  File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/client/client.py&quot;, line 180, in _configure_broker_conn</div><div>    dom_type=dom_type)</div><div>  File &quot;/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/lib/brokerlink.py&quot;, line 176, in set_storage_domain</div><div>    .format(sd_type, options, e))</div><div>RequestError: Failed to set storage domain FilesystemBackend, options {&#39;dom_type&#39;: &#39;nfs3&#39;, &#39;sd_uuid&#39;: &#39;9f1ec45d-0c32-4bfc-8b67-372d6f204fd1&#39;}: Request failed: &lt;class &#39;ovirt_hosted_engine_ha.lib.storage_backends.BackendFailureException&#39;&gt;</div><div>Thread-1247::INFO::2015-10-28 14:59:00,112::xmlrpc::92::vds.XMLRPCServer::(_process_requests) Reques</div></div><div><div>t handler for <a href="http://127.0.0.1:42165">127.0.0.1:42165</a> stopped</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,137::__init__::503::jsonrpc.JsonRpcServer::(_serveRequest) Calling &#39;StoragePool.connectStorageServer&#39; in bridge with {u&#39;connectionParams&#39;: [{u&#39;id&#39;: u&#39;189c29a5-6830-453c-aca3-7d82f2382dd8&#39;, u&#39;connection&#39;: u&#39;ovc71.localdomain.local:/SHE_DOMAIN&#39;, u&#39;iqn&#39;: u&#39;&#39;, u&#39;user&#39;: u&#39;&#39;, u&#39;protocol_version&#39;: u&#39;3&#39;, u&#39;tpgt&#39;: u&#39;1&#39;, u&#39;password&#39;: &#39;********&#39;, u&#39;port&#39;: u&#39;&#39;}], u&#39;storagepoolID&#39;: u&#39;00000000-0000-0000-0000-000000000000&#39;, u&#39;domainType&#39;: 1}</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,138::task::595::Storage.TaskManager.Task::(_updateState) Task=`9ca908a0-45e2-41d5-802c-dc0bd2414a69`::moving from state init -&gt; state preparing</div><div>Thread-1248::INFO::2015-10-28 14:59:00,139::logUtils::48::dispatcher::(wrapper) Run and protect: connectStorageServer(domType=1, spUUID=u&#39;00000000-0000-0000-0000-000000000000&#39;, conList=[{u&#39;id&#39;: u&#39;189c29a5-6830-453c-aca3-7d82f2382dd8&#39;, u&#39;connection&#39;: u&#39;ovc71.localdomain.local:/SHE_DOMAIN&#39;, u&#39;iqn&#39;: u&#39;&#39;, u&#39;user&#39;: u&#39;&#39;, u&#39;protocol_version&#39;: u&#39;3&#39;, u&#39;tpgt&#39;: u&#39;1&#39;, u&#39;password&#39;: &#39;********&#39;, u&#39;port&#39;: u&#39;&#39;}], options=None)</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,142::fileUtils::143::Storage.fileUtils::(createdir) Creating directory: /rhev/data-center/mnt/ovc71.localdomain.local:_SHE__DOMAIN mode: None</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,143::mount::229::Storage.Misc.excCmd::(_runcmd) /usr/bin/sudo -n /usr/bin/mount -t nfs -o soft,nosharecache,timeo=600,retrans=6,nfsvers=3 ovc71.localdomain.local:/SHE_DOMAIN /rhev/data-center/mnt/ovc71.localdomain.local:_SHE__DOMAIN (cwd None)</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,199::hsm::2405::Storage.HSM::(__prefetchDomains) nfs local path: /rhev/data-center/mnt/ovc71.localdomain.local:_SHE__DOMAIN</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,201::hsm::2429::Storage.HSM::(__prefetchDomains) Found SD uuids: (u&#39;9f1ec45d-0c32-4bfc-8b67-372d6f204fd1&#39;,)</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,202::hsm::2489::Storage.HSM::(connectStorageServer) knownSDs</div></div><div><div>: {9f1ec45d-0c32-4bfc-8b67-372d6f204fd1: storage.nfsSD.findDomain, 3662a51f-39de-4533-97fe-d49bf98e2d43: storage.nfsSD.findDomain}</div><div>Thread-1248::INFO::2015-10-28 14:59:00,202::logUtils::51::dispatcher::(wrapper) Run and protect: connectStorageServer, Return response: {&#39;statuslist&#39;: [{&#39;status&#39;: 0, &#39;id&#39;: u&#39;189c29a5-6830-453c-aca3-7d82f2382dd8&#39;}]}</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,202::task::1191::Storage.TaskManager.Task::(prepare) Task=`9ca908a0-45e2-41d5-802c-dc0bd2414a69`::finished: {&#39;statuslist&#39;: [{&#39;status&#39;: 0, &#39;id&#39;: u&#39;189c29a5-6830-453c-aca3-7d82f2382dd8&#39;}]}</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,202::task::595::Storage.TaskManager.Task::(_updateState) Task=`9ca908a0-45e2-41d5-802c-dc0bd2414a69`::moving from state preparing -&gt; state finished</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,203::resourceManager::940::Storage.ResourceManager.Owner::(releaseAll) Owner.releaseAll requests {} resources {}</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,203::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,203::task::993::Storage.TaskManager.Task::(_decref) Task=`9ca908a0-45e2-41d5-802c-dc0bd2414a69`::ref 0 aborting False</div><div>Thread-1248::DEBUG::2015-10-28 14:59:00,203::__init__::533::jsonrpc.JsonRpcServer::(_serveRequest) Return &#39;StoragePool.connectStorageServer&#39; in bridge with [{&#39;status&#39;: 0, &#39;id&#39;: u&#39;189c29a5-6830-453c-aca3-7d82f2382dd8&#39;}]</div><div>Thread-1249::DEBUG::2015-10-28 14:59:00,218::__init__::503::jsonrpc.JsonRpcServer::(_serveRequest) Calling &#39;StorageDomain.getInfo&#39; in bridge with {u&#39;storagedomainID&#39;: u&#39;9f1ec45d-0c32-4bfc-8b67-372d6f204fd1&#39;}</div></div><div><br></div><div>Current filesystem layout on hypervisor, but still withou any qemu process for the hosted engine:</div><div><div>[root@ovc71 log]# df -h</div><div>Filesystem                           Size  Used Avail Use% Mounted on</div><div>/dev/mapper/centos-root               27G  2.6G   24G  10% /</div><div>devtmpfs                             4.9G     0  4.9G   0% /dev</div><div>tmpfs                                4.9G  4.0K  4.9G   1% /dev/shm</div><div>tmpfs                                4.9G  8.6M  4.9G   1% /run</div><div>tmpfs                                4.9G     0  4.9G   0% /sys/fs/cgroup</div><div>/dev/mapper/OVIRT_DOMAIN-NFS_DOMAIN   20G   36M   20G   1% /NFS_DOMAIN</div><div>/dev/mapper/OVIRT_DOMAIN-SHE_DOMAIN   25G  2.9G   23G  12% /SHE_DOMAIN</div><div>/dev/mapper/OVIRT_DOMAIN-ISO_DOMAIN  5.0G   33M  5.0G   1% /ISO_DOMAIN</div><div>/dev/sda1                            497M  130M  368M  27% /boot</div><div>ovc71.localdomain.local:/NFS_DOMAIN   20G   35M   20G   1% /rhev/data-center/mnt/ovc71.localdomain.local:_NFS__DOMAIN</div><div>ovc71.localdomain.local:/SHE_DOMAIN   25G  2.9G   23G  12% /rhev/data-center/mnt/ovc71.localdomain.local:_SHE__DOMAIN</div></div><div><br></div></div></div>