<div dir="ltr"><div>Hi Nir,</div><div><br></div><div>Thanks for solution. I didn&#39;t notice the guest /dev/backupvg01/backuplv01 on all hypervisors. It seems that I&#39;ve got this issue with 2 additionals volumes, but no one noticed because they were only few gb.</div><div><br></div><div><br></div><div><div>[root@wrops2 BLUE/WRO ~]# ls -l /sys/block/$(basename $(readlink /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8))/holders</div><div>total 0</div><div>lrwxrwxrwx. 1 root root 0 Jun 13 10:48 dm-43 -&gt; ../../dm-43</div></div><div><br></div><div>[root@wrops2 BLUE/WRO ~]# pvscan --cache</div><div>[root@wrops2 BLUE/WRO ~]# vgs -o pv_name,vg_name</div><div>  PV                                                                             VG                                  </div><div>  /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8 backupvg01                          </div><div>  /dev/sda2                                                                      centos_wrops2                       </div><div>  /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/99a1c067-9728-484a-a0cb-cb6689d5724c deployvg                            </div><div>  /dev/mapper/3600000e00d0000000024057200000000                                  e69d1c16-36d1-4375-aaee-69f5a5ce1616</div><div>  /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/86a6d83f-2661-4fe3-8874-ce4d8a111c0d jenkins                             </div><div>  /dev/sda3                                                                      w2vg1                               </div><div><br></div><div><div>[root@wrops2 BLUE/WRO ~]# dmsetup info</div></div><div><div>Name:              backupvg01-backuplv01</div><div>State:             ACTIVE</div><div>Read Ahead:        8192</div><div>Tables present:    LIVE</div><div>Open count:        0</div><div>Event number:      0</div><div>Major, minor:      253, 43</div><div>Number of targets: 1</div><div>UUID: LVM-ubxOH5R2h6B8JwLGfhpiNjnAKlPxMPy6KfkeLBxXajoT3gxU0yC5JvOQQVkixrTA</div></div><div><br></div><div><div>[root@wrops2 BLUE/WRO ~]# lvchange -an /dev/backupvg01/backuplv01 </div></div><div><div>[root@wrops2 BLUE/WRO ~]# lvremove /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8</div></div><div><div>Do you really want to remove active logical volume ee53af81-820d-4916-b766-5236ca99daf8? [y/n]: y</div><div>  Logical volume &quot;ee53af81-820d-4916-b766-5236ca99daf8&quot; successfully removed</div></div><div><br></div><div><br></div><div><div>Would this configuration in lvm.conf:</div><div>filter = [ &quot;r|/dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/.*|&quot; ]<br></div><div>on all hypervisors solve problem of scanning guest volumes?</div></div></div><div class="gmail_extra"><br><div class="gmail_quote">2016-06-11 23:16 GMT+02:00 Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5">On Thu, Jun 9, 2016 at 11:46 AM, Krzysztof Dajka &lt;<a href="mailto:alteriks@gmail.com">alteriks@gmail.com</a>&gt; wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; Recently I tried to delete 1TB disk created on top ~3TB LUN from<br>
&gt; ovirtengine.<br>
&gt; Disk is preallocated and I backuped data to other disk so I could recreate<br>
&gt; it once again as thin volume. I couldn&#39;t remove this disk when it was<br>
&gt; attached to a VM. But once I detached it I could remove it permanently. The<br>
&gt; thing is it only disappeared from ovirtengine GUI.<br>
&gt;<br>
&gt; I&#39;ve got 4 hosts with FC HBA attached to storage array and all of them are<br>
&gt; saying that this 1TB disk which should be gone is opened by all hosts<br>
&gt; simultaneously.<br>
&gt;<br>
&gt; [root@wrops1 BLUE ~]# lvdisplay -m<br>
&gt; /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8<br>
&gt;   --- Logical volume ---<br>
&gt;   LV Path<br>
&gt; /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8<br>
&gt;   LV Name                ee53af81-820d-4916-b766-5236ca99daf8<br>
&gt;   VG Name                e69d1c16-36d1-4375-aaee-69f5a5ce1616<br>
&gt;   LV UUID                sBdBRk-tNyZ-Rval-F4lw-ka6X-wOe8-AQenTb<br>
&gt;   LV Write Access        read/write<br>
&gt;   LV Creation host, time wrops1.blue, 2015-07-31 10:40:57 +0200<br>
&gt;   LV Status              available<br>
&gt;   # open                 1<br>
&gt;   LV Size                1.00 TiB<br>
&gt;   Current LE             8192<br>
&gt;   Segments               1<br>
&gt;   Allocation             inherit<br>
&gt;   Read ahead sectors     auto<br>
&gt;   - currently set to     8192<br>
&gt;   Block device           253:29<br>
&gt;<br>
&gt;   --- Segments ---<br>
&gt;   Logical extents 0 to 8191:<br>
&gt;     Type                linear<br>
&gt;     Physical volume     /dev/mapper/3600000e00d0000000024057200000000<br>
&gt;     Physical extents    8145 to 16336<br>
&gt;<br>
&gt; Deactivating LV doesn&#39;t work:<br>
&gt; [root@wrops1 BLUE ~]# lvchange -an<br>
&gt; /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8<br>
&gt;   Logical volume<br>
&gt; e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8 is<br>
&gt; used by another device.<br>
<br>
</div></div>Looks like your lv is used as a physical volume on another vg - probably<br>
a vg created on a guest. Lvm and systemd are trying hard to discover<br>
stuff on multipath devices and expose anything to the hypervisor.<br>
<br>
Can you share the output of:<br>
<br>
    ls -l /sys/block/$(basename $(readlink<br>
/dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8))/holders<br>
<br>
And:<br>
<br>
    pvscan --cache<br>
    vgs -o pv_name,vg_name<br>
<br>
Nir<br>
<span class=""><br>
&gt; Removing from hypervisor doesn&#39;t work either.<br>
&gt; [root@wrops1 BLUE ~]# lvremove --force<br>
&gt; /dev/e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8<br>
&gt;   Logical volume<br>
&gt; e69d1c16-36d1-4375-aaee-69f5a5ce1616/ee53af81-820d-4916-b766-5236ca99daf8 is<br>
&gt; used by another device.<br>
&gt;<br>
&gt; I tried and rebooted one host and as soon as it booted the volume became<br>
&gt; opened once again. Lsof on all hosts doesn&#39;t give anything meaningful<br>
&gt; regarding this LV. As opposed to other LV which are used by qemu-kvm.<br>
&gt;<br>
&gt; Has anyone encountered similar problem? How can I remove this LV?<br>
&gt;<br>
</span>&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
</blockquote></div><br></div>