<div dir="ltr"><div><div>Hi,<br><br>Can you provide the vdsm and engine logs ?<br></div><br>Thanks,<br></div>Fred<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Apr 26, 2017 at 5:30 PM, Jens Oechsler <span dir="ltr">&lt;<a href="mailto:joe@avaleo.net" target="_blank">joe@avaleo.net</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Greetings,<br>
<br>
Is there any way to get the oVirt Data Center described below active again?<br>
<div class="HOEnZb"><div class="h5"><br>
On Tue, Apr 25, 2017 at 4:11 PM, Jens Oechsler &lt;<a href="mailto:joe@avaleo.net">joe@avaleo.net</a>&gt; wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; LUN is not in pvs output, but I found it in lsblk output without any<br>
&gt; partions on it apparently.<br>
&gt;<br>
&gt; $ sudo pvs<br>
&gt;   PV                                            VG<br>
&gt;               Fmt  Attr PSize   PFree<br>
&gt;   /dev/mapper/<wbr>360050768018182b6c000000000000<wbr>990 data<br>
&gt;               lvm2 a--  200.00g 180.00g<br>
&gt;   /dev/mapper/<wbr>360050768018182b6c000000000000<wbr>998<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc lvm2 a--  499.62g 484.50g<br>
&gt;   /dev/sda2                                     system<br>
&gt;               lvm2 a--  278.78g 208.41g<br>
&gt;<br>
&gt; $ sudo lvs<br>
&gt;   LV                                   VG<br>
&gt;      Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync<br>
&gt; Convert<br>
&gt;   34a9328f-87fe-4190-96e9-<wbr>a3580b0734fc<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----    1.00g<br>
&gt;   506ff043-1058-448c-bbab-<wbr>5c864adb2bfc<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----   10.00g<br>
&gt;   65449c88-bc28-4275-bbbb-<wbr>5fc75b692cbc<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----  128.00m<br>
&gt;   e2ee95ce-8105-4a20-8e1f-<wbr>9f6dfa16bf59<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-ao----  128.00m<br>
&gt;   ids<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-ao----  128.00m<br>
&gt;   inbox<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----  128.00m<br>
&gt;   leases<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----    2.00g<br>
&gt;   master<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----    1.00g<br>
&gt;   metadata<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----  512.00m<br>
&gt;   outbox<br>
&gt; 9f10e00f-ae39-46a0-86da-<wbr>8b157c6de7bc -wi-a-----  128.00m<br>
&gt;   data                                 data<br>
&gt;      -wi-ao----   20.00g<br>
&gt;   home                                 system<br>
&gt;      -wi-ao---- 1000.00m<br>
&gt;   prod                                 system<br>
&gt;      -wi-ao----    4.88g<br>
&gt;   root                                 system<br>
&gt;      -wi-ao----    7.81g<br>
&gt;   swap                                 system<br>
&gt;      -wi-ao----    4.00g<br>
&gt;   swap7                                system<br>
&gt;      -wi-ao----   20.00g<br>
&gt;   tmp                                  system<br>
&gt;      -wi-ao----    4.88g<br>
&gt;   var                                  system<br>
&gt;      -wi-ao----   27.81g<br>
&gt;<br>
&gt; $ sudo lsblk<br>
&gt; &lt;output trimmed&gt;<br>
&gt; sdq<br>
&gt;                 65:0    0   500G  0 disk<br>
&gt; └─<wbr>360050768018182b6c000000000000<wbr>9d7<br>
&gt;                253:33   0   500G  0 mpath<br>
&gt;<br>
&gt; Data domain was made with one 500 GB LUN and extended with 500 GB more.<br>
&gt;<br>
&gt; On Tue, Apr 25, 2017 at 2:17 PM, Fred Rolland &lt;<a href="mailto:frolland@redhat.com">frolland@redhat.com</a>&gt; wrote:<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; Do you see the LUN in the host ?<br>
&gt;&gt; Can you share pvs and lvs output ?<br>
&gt;&gt;<br>
&gt;&gt; Thanks,<br>
&gt;&gt;<br>
&gt;&gt; Fred<br>
&gt;&gt;<br>
&gt;&gt; On Mon, Apr 24, 2017 at 1:05 PM, Jens Oechsler &lt;<a href="mailto:joe@avaleo.net">joe@avaleo.net</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hello<br>
&gt;&gt;&gt; I have a problem with oVirt Hosted Engine Setup version:<br>
&gt;&gt;&gt; 4.0.5.5-1.el7.centos.<br>
&gt;&gt;&gt; Setup is using FCP SAN for data and engine.<br>
&gt;&gt;&gt; Cluster has worked fine for a while. It has two hosts with VMs running.<br>
&gt;&gt;&gt; I extended storage with an additional LUN recently. This LUN seems to<br>
&gt;&gt;&gt; be gone from data domain and one VM is paused which I assume has data<br>
&gt;&gt;&gt; on that device.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Got these errors in events:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Apr 24, 2017 10:26:05 AM<br>
&gt;&gt;&gt; Failed to activate Storage Domain SD (Data Center DC) by<br>
&gt;&gt;&gt; admin@internal-authz<br>
&gt;&gt;&gt; Apr 10, 2017 3:38:08 PM<br>
&gt;&gt;&gt; Status of host cl01 was set to Up.<br>
&gt;&gt;&gt; Apr 10, 2017 3:38:03 PM<br>
&gt;&gt;&gt; Host cl01 does not enforce SELinux. Current status: DISABLED<br>
&gt;&gt;&gt; Apr 10, 2017 3:37:58 PM<br>
&gt;&gt;&gt; Host cl01 is initializing. Message: Recovering from crash or Initializing<br>
&gt;&gt;&gt; Apr 10, 2017 3:37:58 PM<br>
&gt;&gt;&gt; VDSM cl01 command failed: Recovering from crash or Initializing<br>
&gt;&gt;&gt; Apr 10, 2017 3:37:46 PM<br>
&gt;&gt;&gt; Failed to Reconstruct Master Domain for Data Center DC.<br>
&gt;&gt;&gt; Apr 10, 2017 3:37:46 PM<br>
&gt;&gt;&gt; Host cl01 is not responding. Host cannot be fenced automatically<br>
&gt;&gt;&gt; because power management for the host is disabled.<br>
&gt;&gt;&gt; Apr 10, 2017 3:37:46 PM<br>
&gt;&gt;&gt; VDSM cl01 command failed: Broken pipe<br>
&gt;&gt;&gt; Apr 10, 2017 3:37:46 PM<br>
&gt;&gt;&gt; VDSM cl01 command failed: Broken pipe<br>
&gt;&gt;&gt; Apr 10, 2017 3:32:45 PM<br>
&gt;&gt;&gt; Invalid status on Data Center DC. Setting Data Center status to Non<br>
&gt;&gt;&gt; Responsive (On host cl01, Error: General Exception).<br>
&gt;&gt;&gt; Apr 10, 2017 3:32:45 PM<br>
&gt;&gt;&gt; VDSM cl01 command failed: [Errno 19] Could not find dm device named<br>
&gt;&gt;&gt; `[unknown]`<br>
&gt;&gt;&gt; Apr 7, 2017 1:28:04 PM<br>
&gt;&gt;&gt; VM HostedEngine is down with error. Exit message: resource busy:<br>
&gt;&gt;&gt; Failed to acquire lock: error -243.<br>
&gt;&gt;&gt; Apr 7, 2017 1:28:02 PM<br>
&gt;&gt;&gt; Storage Pool Manager runs on Host cl01 (Address: cl01).<br>
&gt;&gt;&gt; Apr 7, 2017 1:27:59 PM<br>
&gt;&gt;&gt; Invalid status on Data Center DC. Setting status to Non Responsive.<br>
&gt;&gt;&gt; Apr 7, 2017 1:27:53 PM<br>
&gt;&gt;&gt; Host cl02 does not enforce SELinux. Current status: DISABLED<br>
&gt;&gt;&gt; Apr 7, 2017 1:27:52 PM<br>
&gt;&gt;&gt; Host cl01 does not enforce SELinux. Current status: DISABLED<br>
&gt;&gt;&gt; Apr 7, 2017 1:27:49 PM<br>
&gt;&gt;&gt; Affinity Rules Enforcement Manager started.<br>
&gt;&gt;&gt; Apr 7, 2017 1:27:34 PM<br>
&gt;&gt;&gt; ETL Service Started<br>
&gt;&gt;&gt; Apr 7, 2017 1:26:01 PM<br>
&gt;&gt;&gt; ETL Service Stopped<br>
&gt;&gt;&gt; Apr 3, 2017 1:22:54 PM<br>
&gt;&gt;&gt; Shutdown of VM HostedEngine failed.<br>
&gt;&gt;&gt; Apr 3, 2017 1:22:52 PM<br>
&gt;&gt;&gt; Storage Pool Manager runs on Host cl01 (Address: cl01).<br>
&gt;&gt;&gt; Apr 3, 2017 1:22:49 PM<br>
&gt;&gt;&gt; Invalid status on Data Center DC. Setting status to Non Responsive.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Master data domain is inactive.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; vdsm.log:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; jsonrpc.Executor/5::INFO::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,796::lvm::1226::<wbr>Storage.LVM::(activateLVs) Refreshing lvs:<br>
&gt;&gt;&gt; vg=bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e lvs=[&#39;ids&#39;]<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,796::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) /usr/bin/taskset<br>
&gt;&gt;&gt; --cpu-list 0-39 /usr/bin/sudo -n /usr/sbin/lvm lvchange --config &#39;<br>
&gt;&gt;&gt; devices { preferred_names = [&quot;^/dev/mapper/&quot;] ignore_suspended_d<br>
&gt;&gt;&gt; evices=1 write_cache_state=0 disable_after_error_count=3 filter = [<br>
&gt;&gt;&gt; &#39;\&#39;&#39;a|/dev/mapper/<wbr>360050768018182b6c000000000000<wbr>99e|[unknown]|&#39;\&#39;&#39;,<br>
&gt;&gt;&gt; &#39;\&#39;&#39;r|.*|&#39;\&#39;&#39; ] }  global {  locking_type=1  prioritise_write_locks=1<br>
&gt;&gt;&gt; wait_for_locks=1  use_lvmetad=<br>
&gt;&gt;&gt; 0 }  backup {  retain_min = 50  retain_days = 0 } &#39; --refresh<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/ids (cwd None)<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,880::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) SUCCESS: &lt;err&gt; = &quot;<br>
&gt;&gt;&gt; WARNING: Not using lvmetad because config setting use_lvmetad=0.\n<br>
&gt;&gt;&gt; WARNING: To avoid corruption, rescan devices to make changes<br>
&gt;&gt;&gt;  visible (pvscan --cache).\n  Couldn&#39;t find device with uuid<br>
&gt;&gt;&gt; jDB9VW-bNqY-UIKc-XxXp-xnyK-<wbr>ZTlt-7Cpa1U.\n&quot;; &lt;rc&gt; = 0<br>
&gt;&gt;&gt; jsonrpc.Executor/5::INFO::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,881::lvm::1226::<wbr>Storage.LVM::(activateLVs) Refreshing lvs:<br>
&gt;&gt;&gt; vg=bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e lvs=[&#39;leases&#39;]<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,881::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) /usr/bin/taskset<br>
&gt;&gt;&gt; --cpu-list 0-39 /usr/bin/sudo -n /usr/sbin/lvm lvchange --config &#39;<br>
&gt;&gt;&gt; devices { preferred_names = [&quot;^/dev/mapper/&quot;] ignore_suspended_d<br>
&gt;&gt;&gt; evices=1 write_cache_state=0 disable_after_error_count=3 filter = [<br>
&gt;&gt;&gt; &#39;\&#39;&#39;a|/dev/mapper/<wbr>360050768018182b6c000000000000<wbr>99e|[unknown]|&#39;\&#39;&#39;,<br>
&gt;&gt;&gt; &#39;\&#39;&#39;r|.*|&#39;\&#39;&#39; ] }  global {  locking_type=1  prioritise_write_locks=1<br>
&gt;&gt;&gt; wait_for_locks=1  use_lvmetad=<br>
&gt;&gt;&gt; 0 }  backup {  retain_min = 50  retain_days = 0 } &#39; --refresh<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/leases (cwd None)<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,973::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) SUCCESS: &lt;err&gt; = &quot;<br>
&gt;&gt;&gt; WARNING: Not using lvmetad because config setting use_lvmetad=0.\n<br>
&gt;&gt;&gt; WARNING: To avoid corruption, rescan devices to make changes<br>
&gt;&gt;&gt;  visible (pvscan --cache).\n  Couldn&#39;t find device with uuid<br>
&gt;&gt;&gt; jDB9VW-bNqY-UIKc-XxXp-xnyK-<wbr>ZTlt-7Cpa1U.\n&quot;; &lt;rc&gt; = 0<br>
&gt;&gt;&gt; jsonrpc.Executor/5::INFO::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,973::lvm::1226::<wbr>Storage.LVM::(activateLVs) Refreshing lvs:<br>
&gt;&gt;&gt; vg=bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e lvs=[&#39;metadata&#39;, &#39;leases&#39;,<br>
&gt;&gt;&gt; &#39;ids&#39;, &#39;inbox&#39;, &#39;outbox&#39;, &#39;master&#39;]<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:26,974::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) /usr/bin/taskset<br>
&gt;&gt;&gt; --cpu-list 0-39 /usr/bin/sudo -n /usr/sbin/lvm lvchange --config &#39;<br>
&gt;&gt;&gt; devices { preferred_names = [&quot;^/dev/mapper/&quot;] ignore_suspended_d<br>
&gt;&gt;&gt; evices=1 write_cache_state=0 disable_after_error_count=3 filter = [<br>
&gt;&gt;&gt; &#39;\&#39;&#39;a|/dev/mapper/<wbr>360050768018182b6c000000000000<wbr>99e|[unknown]|&#39;\&#39;&#39;,<br>
&gt;&gt;&gt; &#39;\&#39;&#39;r|.*|&#39;\&#39;&#39; ] }  global {  locking_type=1  prioritise_write_locks=1<br>
&gt;&gt;&gt; wait_for_locks=1  use_lvmetad=<br>
&gt;&gt;&gt; 0 }  backup {  retain_min = 50  retain_days = 0 } &#39; --refresh<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/metadata<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/leases<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/ids<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/inbox b<br>
&gt;&gt;&gt; d616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/outbox<br>
&gt;&gt;&gt; bd616961-6da7-4eb0-939e-<wbr>330b0a3fea6e/master (cwd None)<br>
&gt;&gt;&gt; Reactor thread::INFO::2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,069::<wbr>protocoldetector::72::<wbr>ProtocolDetector.AcceptorImpl:<wbr>:(handle_accept)<br>
&gt;&gt;&gt; Accepting connection from ::1:44692<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:27,070::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) SUCCESS: &lt;err&gt; = &quot;<br>
&gt;&gt;&gt; WARNING: Not using lvmetad because config setting use_lvmetad=0.\n<br>
&gt;&gt;&gt; WARNING: To avoid corruption, rescan devices to make changes<br>
&gt;&gt;&gt;  visible (pvscan --cache).\n  Couldn&#39;t find device with uuid<br>
&gt;&gt;&gt; jDB9VW-bNqY-UIKc-XxXp-xnyK-<wbr>ZTlt-7Cpa1U.\n&quot;; &lt;rc&gt; = 0<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:27,070::sp::662::<wbr>Storage.StoragePool::(_<wbr>stopWatchingDomainsState)<br>
&gt;&gt;&gt; Stop watching domains state<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,070::resourceManager:<wbr>:628::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; Trying to release resource<br>
&gt;&gt;&gt; &#39;Storage.58493e81-01dc-01d8-<wbr>0390-000000000032&#39;<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:647::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; Released resource &#39;Storage.58493e81-01dc-01d8-<wbr>0390-000000000032&#39; (0<br>
&gt;&gt;&gt; active users)<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:653::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; Resource &#39;Storage.58493e81-01dc-01d8-<wbr>0390-000000000032&#39; is free,<br>
&gt;&gt;&gt; finding out if anyone is waiting for it.<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:661::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; No one is waiting for resource<br>
&gt;&gt;&gt; &#39;Storage.58493e81-01dc-01d8-<wbr>0390-000000000032&#39;, Clearing records.<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:628::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; Trying to release resource &#39;Storage.HsmDomainMonitorLock&#39;<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:647::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; Released resource &#39;Storage.HsmDomainMonitorLock&#39; (0 active users)<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:653::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; Resource &#39;Storage.HsmDomainMonitorLock&#39; is free, finding out if anyone<br>
&gt;&gt;&gt; is waiting for it.<br>
&gt;&gt;&gt; jsonrpc.Executor/5::DEBUG::<wbr>2017-04-20<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 07:01:27,071::resourceManager:<wbr>:661::Storage.ResourceManager:<wbr>:(releaseResource)<br>
&gt;&gt;&gt; No one is waiting for resource &#39;Storage.HsmDomainMonitorLock&#39;<wbr>,<br>
&gt;&gt;&gt; Clearing records.<br>
&gt;&gt;&gt; jsonrpc.Executor/5::ERROR::<wbr>2017-04-20<br>
&gt;&gt;&gt; 07:01:27,072::task::868::<wbr>Storage.TaskManager.Task::(_<wbr>setError)<br>
&gt;&gt;&gt; Task=`15122a21-4fb7-45bf-9a9a-<wbr>4b97f27bc1e1`::Unexpected error<br>
&gt;&gt;&gt; Traceback (most recent call last):<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/task.<wbr>py&quot;, line 875, in _run<br>
&gt;&gt;&gt;     return fn(*args, **kargs)<br>
&gt;&gt;&gt;   File &quot;/usr/lib/python2.7/site-<wbr>packages/vdsm/logUtils.py&quot;, line 50, in<br>
&gt;&gt;&gt; wrapper<br>
&gt;&gt;&gt;     res = f(*args, **kwargs)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/hsm.<wbr>py&quot;, line 988, in connectStoragePool<br>
&gt;&gt;&gt;     spUUID, hostID, msdUUID, masterVersion, domainsMap)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/hsm.<wbr>py&quot;, line 1053, in _connectStoragePool<br>
&gt;&gt;&gt;     res = pool.connect(hostID, msdUUID, masterVersion)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sp.<wbr>py&quot;, line 646, in connect<br>
&gt;&gt;&gt;     self.__rebuild(msdUUID=<wbr>msdUUID, masterVersion=masterVersion)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sp.<wbr>py&quot;, line 1219, in __rebuild<br>
&gt;&gt;&gt;     self.setMasterDomain(msdUUID, masterVersion)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sp.<wbr>py&quot;, line 1427, in setMasterDomain<br>
&gt;&gt;&gt;     domain = sdCache.produce(msdUUID)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 101, in produce<br>
&gt;&gt;&gt;     domain.getRealDomain()<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 53, in getRealDomain<br>
&gt;&gt;&gt;     return self._cache._realProduce(self.<wbr>_sdUUID)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 125, in _realProduce<br>
&gt;&gt;&gt;     domain = self._findDomain(sdUUID)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 144, in _findDomain<br>
&gt;&gt;&gt;     dom = findMethod(sdUUID)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/<wbr>blockSD.py&quot;, line 1441, in findDomain<br>
&gt;&gt;&gt;     return BlockStorageDomain(<wbr>BlockStorageDomain.<wbr>findDomainPath(sdUUID))<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/<wbr>blockSD.py&quot;, line 814, in __init__<br>
&gt;&gt;&gt;     lvm.checkVGBlockSizes(sdUUID, (self.logBlkSize, self.phyBlkSize))<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/lvm.<wbr>py&quot;, line 1056, in checkVGBlockSizes<br>
&gt;&gt;&gt;     _checkpvsblksize(pvs, vgBlkSize)<br>
&gt;&gt;&gt;  File &quot;/usr/share/vdsm/storage/lvm.<wbr>py&quot;, line 1033, in _checkpvsblksize<br>
&gt;&gt;&gt;     pvBlkSize = _getpvblksize(pv)<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/lvm.<wbr>py&quot;, line 1027, in _getpvblksize<br>
&gt;&gt;&gt;     dev = devicemapper.getDmId(os.path.<wbr>basename(pv))<br>
&gt;&gt;&gt;   File &quot;/usr/share/vdsm/storage/<wbr>devicemapper.py&quot;, line 40, in getDmId<br>
&gt;&gt;&gt;     deviceMultipathName)<br>
&gt;&gt;&gt; OSError: [Errno 19] Could not find dm device named `[unknown]`<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Any input how to diagnose or troubleshoot would be appreciated.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Best Regards<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Jens Oechsler<br>
&gt;&gt;&gt; ______________________________<wbr>_________________<br>
&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt;&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Med Venlig Hilsen / Best Regards<br>
&gt;<br>
&gt; Jens Oechsler<br>
&gt; System administrator<br>
&gt; KMD Nexus<br>
&gt; <a href="tel:%2B45%2051%2082%2062%2013" value="+4551826213">+45 51 82 62 13</a><br>
<br>
<br>
<br>
--<br>
Med Venlig Hilsen / Best Regards<br>
<br>
Jens Oechsler<br>
System administrator<br>
KMD Nexus<br>
<a href="tel:%2B45%2051%2082%2062%2013" value="+4551826213">+45 51 82 62 13</a><br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
</div></div></blockquote></div><br></div>