<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 TRANSITIONAL//EN">
<HTML>
<HEAD>
  <META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=UTF-8">
  <META NAME="GENERATOR" CONTENT="GtkHTML/4.4.4">
</HEAD>
<BODY>
Hi,<BR>
<BR>
I just rebooted my NFS server which hosts a ISO domain which is used by RHEV 3.1 and oVirt 3.2. In both environments the ISO domain became inactive and I tried to activate it again.<BR>
In RHEV this worked fine, but in oVirt it didn't.<BR>
<BR>
Just for your information: both - RHEV and oVirt use &quot;Local on host&quot; as datacenter storage type.<BR>
I normally use a local NFS server and mount the share locally (dc with storage type NFS) as &quot;Local on host&quot; is making troubles in most of my setups (in both - oVirt and RHEV) and the issues are mainly missing (sometimes lost) volume groups.<BR>
As my oVirt 3.2 setup is a testing environment and my test vms are still running, I'll keep it in this state for finding a solution for this. As said, have seen issues like this more then one time before, so maybe this is a bug and need some attention (can also open a bug report if needed).<BR>
<BR>
<BR>
vdsm.log is telling me that the storage domain doesn't exist (as complained by vdsm daemon):<BR>
<BR>
2013-05-07 16:44:18,493 INFO&nbsp; [org.ovirt.engine.core.vdsbroker.irsbroker.ActivateStorageDomainVDSCommand] (pool-3-thread-47) [210a0bcb] START, ActivateStorageDomainVDSCommand( storagePoolId = 484e62d7-7a01-4b5e-aec8-59d366100281, ignoreFailoverLimit = false, compatabilityVersion = null, storageDomainId = a4c43175-ce34-49a5-8608-cac573bf7647), log id: 33c54af7<BR>
2013-05-07 16:44:20,770 ERROR [org.ovirt.engine.core.vdsbroker.vdsbroker.BrokerCommandBase] (pool-3-thread-47) [210a0bcb] Failed in ActivateStorageDomainVDS method<BR>
2013-05-07 16:44:20,781 ERROR [org.ovirt.engine.core.vdsbroker.vdsbroker.BrokerCommandBase] (pool-3-thread-47) [210a0bcb] Error code StorageDomainDoesNotExist and error message IRSGenericException: IRSErrorException: Failed to ActivateStorageDomainVDS, error = Storage domain does not exist: ('a4c43175-ce34-49a5-8608-cac573bf7647',)<BR>
2013-05-07 16:44:20,791 ERROR [org.ovirt.engine.core.vdsbroker.irsbroker.IrsBrokerCommand] (pool-3-thread-47) [210a0bcb] IrsBroker::Failed::ActivateStorageDomainVDS due to: IRSErrorException: IRSGenericException: IRSErrorException: Failed to ActivateStorageDomainVDS, error = Storage domain does not exist: ('a4c43175-ce34-49a5-8608-cac573bf7647',)<BR>
<BR>
<BR>
More interesting is the behavior of my host (CentOS 6.4) which tries to find a logical volume and is doing some iSCSI-scans:<BR>
<BR>
Thread-224450::DEBUG::2013-05-07 16:44:19,333::task::957::TaskManager.Task::(_decref) Task=`ab00697e-32df-43b1-822b-a94bef55909d`::ref 0 aborting False<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,555::misc::84::Storage.Misc.excCmd::(&lt;lambda&gt;) '/usr/bin/sudo -n /sbin/multipath' (cwd None)<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,608::misc::84::Storage.Misc.excCmd::(&lt;lambda&gt;) SUCCESS: &lt;err&gt; = ''; &lt;rc&gt; = 0<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,609::lvm::477::OperationMutex::(_invalidateAllPvs) Operation 'lvm invalidate operation' got the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,609::lvm::479::OperationMutex::(_invalidateAllPvs) Operation 'lvm invalidate operation' released the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,609::lvm::488::OperationMutex::(_invalidateAllVgs) Operation 'lvm invalidate operation' got the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,610::lvm::490::OperationMutex::(_invalidateAllVgs) Operation 'lvm invalidate operation' released the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,610::lvm::508::OperationMutex::(_invalidateAllLvs) Operation 'lvm invalidate operation' got the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,610::lvm::510::OperationMutex::(_invalidateAllLvs) Operation 'lvm invalidate operation' released the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,610::misc::1064::SamplingMethod::(__call__) Returning last result<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,610::lvm::368::OperationMutex::(_reloadvgs) Operation 'lvm reload operation' got the operation mutex<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,612::misc::84::Storage.Misc.excCmd::(&lt;lambda&gt;) '/usr/bin/sudo -n /sbin/lvm vgs --config &quot; devices { preferred_names = [\\&quot;^/dev/mapper/\\&quot;<BR>
] ignore_suspended_devices=1 write_cache_state=0 disable_after_error_count=3 filter = [ \\&quot;r%.*%\\&quot; ] }&nbsp; global {&nbsp; locking_type=1&nbsp; prioritise_write_locks=1&nbsp; wait_for_locks=1 }&nbsp; back<BR>
up {&nbsp; retain_min = 50&nbsp; retain_days = 0 } &quot; --noheadings --units b --nosuffix --separator | -o uuid,name,attr,size,free,extent_size,extent_count,free_count,tags,vg_mda_size,vg_mda_fr<BR>
ee a4c43175-ce34-49a5-8608-cac573bf7647' (cwd None)<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,759::misc::84::Storage.Misc.excCmd::(&lt;lambda&gt;) FAILED: &lt;err&gt; = '&nbsp; Volume group &quot;a4c43175-ce34-49a5-8608-cac573bf7647&quot; not found\n'; &lt;rc&gt; =<BR>
 5<BR>
Thread-1129392::WARNING::2013-05-07 16:44:20,760::lvm::373::Storage.LVM::(_reloadvgs) lvm vgs failed: 5 [] ['&nbsp; Volume group &quot;a4c43175-ce34-49a5-8608-cac573bf7647&quot; not found']<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,760::lvm::397::OperationMutex::(_reloadvgs) Operation 'lvm reload operation' released the operation mutex<BR>
Thread-1129392::ERROR::2013-05-07 16:44:20,767::task::833::TaskManager.Task::(_setError) Task=`589ebcc8-2255-4a29-b995-5e76f3697ec8`::Unexpected error<BR>
Traceback (most recent call last):<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/task.py&quot;, line 840, in _run<BR>
&nbsp;&nbsp;&nbsp; return fn(*args, **kargs)<BR>
&nbsp; File &quot;/usr/share/vdsm/logUtils.py&quot;, line 42, in wrapper<BR>
&nbsp;&nbsp;&nbsp; res = f(*args, **kwargs)<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 1144, in activateStorageDomain<BR>
&nbsp;&nbsp;&nbsp; pool.activateSD(sdUUID)<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/securable.py&quot;, line 68, in wrapper<BR>
&nbsp;&nbsp;&nbsp; return f(self, *args, **kwargs)<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/sp.py&quot;, line 1042, in activateSD<BR>
&nbsp;&nbsp;&nbsp; dom = sdCache.produce(sdUUID)<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/sdc.py&quot;, line 97, in produce<BR>
&nbsp;&nbsp;&nbsp; domain.getRealDomain()<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/sdc.py&quot;, line 52, in getRealDomain<BR>
&nbsp;&nbsp;&nbsp; return self._cache._realProduce(self._sdUUID)<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/sdc.py&quot;, line 121, in _realProduce<BR>
&nbsp;&nbsp;&nbsp; domain = self._findDomain(sdUUID)<BR>
&nbsp; File &quot;/usr/share/vdsm/storage/sdc.py&quot;, line 152, in _findDomain<BR>
&nbsp;&nbsp;&nbsp; raise se.StorageDomainDoesNotExist(sdUUID)<BR>
StorageDomainDoesNotExist: Storage domain does not exist: ('a4c43175-ce34-49a5-8608-cac573bf7647',)<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,768::task::852::TaskManager.Task::(_run) Task=`589ebcc8-2255-4a29-b995-5e76f3697ec8`::Task._run: 589ebcc8-2255-4a29-b995-5e76f3697ec8 ('a4c43175-ce34-49a5-8608-cac573bf7647', '484e62d7-7a01-4b5e-aec8-59d366100281') {} failed - stopping task<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,768::task::1177::TaskManager.Task::(stop) Task=`589ebcc8-2255-4a29-b995-5e76f3697ec8`::stopping in state preparing (force False)<BR>
Thread-1129392::DEBUG::2013-05-07 16:44:20,768::task::957::TaskManager.Task::(_decref) Task=`589ebcc8-2255-4a29-b995-5e76f3697ec8`::ref 1 aborting True<BR>
Thread-1129392::INFO::2013-05-07 16:44:20,769::task::1134::TaskManager.Task::(prepare) Task=`589ebcc8-2255-4a29-b995-5e76f3697ec8`::aborting: Task is aborted: 'Storage domain does not exist' - code 358<BR>
<BR>
<BR>
It's clear to me that my host can't find a volume group named a4c43175-ce34-49a5-8608-cac573bf7647, because this is the ID of my ISO domain which resists on NFS and not iSCSI or FC or local on host.<BR>
<BR>
<BR>
I use RPM for RHEL from ovirt-stable repository on my CentOS 6.4 host:<BR>
<BR>
[<A HREF="mailto:root@centos-hyp01">root@centos-hyp01</A> ~]# yum list vdsm* | grep '@'<BR>
vdsm.x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4.10.3-10.el6&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; @ovirt-stable<BR>
vdsm-cli.noarch&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4.10.3-10.el6&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; @ovirt-stable<BR>
vdsm-gluster.noarch&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4.10.3-10.el6&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; @ovirt-stable<BR>
vdsm-python.x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4.10.3-10.el6&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; @ovirt-stable<BR>
vdsm-xmlrpc.noarch&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4.10.3-10.el6&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; @ovirt-stable<BR>
<BR>
<BR>
Please let me know if you need further information.<BR>
Thanks a lot!<BR>
<TABLE CELLSPACING="0" CELLPADDING="0" WIDTH="100%">
<TR>
<TD>
<PRE>


-- 
Best Regards,

Ren&#233; Koch
Senior Solution Architect

============================================
ovido gmbh - &quot;Das Linux Systemhaus&quot;
Br&#252;nner Stra&#223;e 163, A-1210 Wien

Phone:&nbsp;&nbsp; +43 720 / 530 670
Mobile:&nbsp; +43 660 / 512 21 31
E-Mail:&nbsp; <A HREF="mailto:r.koch@ovido.at">r.koch@ovido.at</A>
============================================
</PRE>
</TD>
</TR>
</TABLE>
</BODY>
</HTML>