<html>
  <head>
    <meta content="text/html; charset=utf-8" http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Unlock procedure<br>
    <ul>
      <li>QUERY : -q</li>
    </ul>
    PGPASSWORD=XXXXX
    /usr/share/ovirt-engine/setup/dbutils/unlock_entity.sh -q -t
    snapshot -u engine<br>
    296c010e-3c1d-4008-84b3-5cd39cff6aa1 |
    525a4dda-dbbb-4872-a5f1-8ac2aed48392<br>
    <ul>
      <li>REMOVE<br>
      </li>
    </ul>
    PGPASSWORD=XXXXX
    /usr/share/ovirt-engine/setup/dbutils/unlock_entity.sh -t snapshot
    -u engine 525a4dda-dbbb-4872-a5f1-8ac2aed48392<br>
    <br>
    Ref :<br>
    <a class="moz-txt-link-freetext"
      href="http://lists.ovirt.org/pipermail/users/2015-November/035686.html">http://lists.ovirt.org/pipermail/users/2015-November/035686.html</a><br>
    <br>
    <div class="moz-cite-prefix">Le 03/05/2016 21:17, Ivo Rütsche a
      écrit :<br>
    </div>
    <blockquote cite="mid:5728F94C.8000404@direct.ruetsche.com"
      type="cite">
      <br>
      I just do a full clone of the whole VM and the clone is running
      fine and have the last data on all disks.
      <br>
      <br>
      gruss ivo
      <br>
      <br>
      <br>
      On 03.05.2016 20:12, Markus Stockhausen wrote:
      <br>
      <blockquote type="cite">Hi,
        <br>
        <br>
        we've seen a lot of trouble when deleting snapshots of multidisk
        VMs.
        <br>
        Especially endless running snapshot deletions is one of our
        culprits.
        <br>
        More here: <a class="moz-txt-link-freetext" href="https://bugzilla.redhat.com/show_bug.cgi?id=1319400">https://bugzilla.redhat.com/show_bug.cgi?id=1319400</a>
        <br>
        <br>
        Markus
        <br>
        ________________________________________
        <br>
        Von: <a class="moz-txt-link-abbreviated" href="mailto:users-bounces@ovirt.org">users-bounces@ovirt.org</a> [<a class="moz-txt-link-abbreviated" href="mailto:users-bounces@ovirt.org">users-bounces@ovirt.org</a>]&amp;quot;
        im Auftrag von &amp;quot;Ivo Rütsche
        [<a class="moz-txt-link-abbreviated" href="mailto:lists.ovirt.org@direct.ruetsche.com">lists.ovirt.org@direct.ruetsche.com</a>]
        <br>
        Gesendet: Dienstag, 3. Mai 2016 19:23
        <br>
        An: <a class="moz-txt-link-abbreviated" href="mailto:users@ovirt.org">users@ovirt.org</a>
        <br>
        Betreff: [ovirt-users] Snapshot is "Locked" - Can't do anything
        with the VM
        <br>
        <br>
        Hi oVirt List
        <br>
        <br>
        We have the problem, that two of our VM's have "Locked"
        snapshots and we
        <br>
        can't go forward. From 10 VM's which we move from one store to
        another,
        <br>
        we have problems with 5 of them to delete the snapshots. But
        with a lot
        <br>
        of luck, the snapshot was always on the dedicated Swap-Disk, so
        we just
        <br>
        have to remove the whole disk and create it again as new.
        <br>
        <br>
        Because we replace all the filers, we have to move the VM's
        arround. The
        <br>
        move itself runns fine, but deleting the snapshots doesn't work
        sometimes.
        <br>
        <br>
        I found a lot about our problem, but I can't find any solution,
        which
        <br>
        works an our environment.
        <br>
        <br>
        Our setup:
        <br>
        - 3 Solaris filer with NFS exports for the hosts for the
        vm-images
        <br>
        - 8 hosts (oVirt 3.6 / Centos 7.2.1511)
        <br>
        - The engine host is located outside of the DC, connected via
        VPN
        <br>
        <br>
        At the moment, one of the "problem-VM" is productive, the other
        should
        <br>
        become productive in the next days, so we focus us to the 2nd
        VM,
        <br>
        because we can play arround with them. The other one is startet
        up, but
        <br>
        i have no idea, what happens, when i shut them down...
        <br>
        <br>
        This is the status today of VM, which is not productive at the
        moment:
        <br>
        - VM Status: Down
        <br>
        - Snapshots OK: 2
        <br>
        - Snapshots Locked: 1
        <br>
        - In the snapshot tab, everything is grayed out (Create,
        Preview,
        <br>
        Commit, Undo etc.)
        <br>
        - No active tasks are displayed
        <br>
        <br>
        Error message when i try to start the VM:
        <br>
        "Cannot run VM. The VM is performing an operation on a Snapshot.
        Please
        <br>
        wait for the operation to finish, and try again."
        <br>
        <br>
        Something about the history of this VM:
        <br>
        1. We start the disk move from filer1 to filer3, totaly 4
        drives,
        <br>
        everything was fine
        <br>
        2. Deleting snapshots, i think one or two runns fine
        <br>
        3. Deleting the 2nd or 3rd snapshot runs two days without an end
        <br>
        4. Rebooting the Engine
        <br>
        5. No task anymore in the Tasks list
        <br>
        6. The status of the snapshot is "Locked", die Disk of this
        snapshot
        <br>
        becoms "Illegal" and red
        <br>
        7. Shutdown the VM -  no luck, i can't start it again --&gt;
        "Cannot run
        <br>
        VM. The VM is performing an operation on a Snapshot. Please wait
        for the
        <br>
        operation to finish, and try again."
        <br>
        8. We move the disk back from filer3 to the filer1
        <br>
        9. The status of the snapshot is "Locked", die Disk of this
        snapshot
        <br>
        becoms "OK" and green
        <br>
        ...but i can't delete the snapshot or starting the VM :(
        <br>
        <br>
        Today, i copy the image files to a dedicated KVM host, which is
        not
        <br>
        involved in the oVirt environment and i merge the image manualy
        together:
        <br>
        qemu-img convert -p -f qcow2
        804ffcc3-446f-4c56-ba99-ab90c7951a6f -O raw
        <br>
        Merged1
        <br>
        <br>
        I mount the image and everything fine, all the changes from the
        last two
        <br>
        days are now in a base image. I try to remove the whole disk in
        oVirt,
        <br>
        but i still got the error message, that i have to wait. So for
        me, the
        <br>
        next step is to create a new VM and migrate everything manualy,
        this
        <br>
        will work, but can't be the solution for the other VM, which is
        <br>
        productive and it have the same problem.
        <br>
        <br>
        <br>
        <br>
        Some information about:
        <br>
        <br>
        *****************
        <br>
        [root@lin-ovirt7 images]# vdsm-tool dump-volume-chains
        <br>
        d6e6656d-7aaf-4c5b-bb93-cd6134ed9654
        <br>
        <br>
        Images volume chains (base volume first)
        <br>
        <br>
             image:    f3cfefd2-d467-41d5-a054-5b01f81a21b4
        <br>
        <br>
                       - a018521a-bd3a-4322-ac79-52d15e95639e
        <br>
                         status: OK, voltype: INTERNAL, format: RAW,
        legality:
        <br>
        LEGAL, type: SPARSE
        <br>
        <br>
                       - 2e2f0b4a-b015-4b50-8d10-51726de460a9
        <br>
                         status: OK, voltype: INTERNAL, format: COW,
        legality:
        <br>
        LEGAL, type: SPARSE
        <br>
        <br>
                       - 804ffcc3-446f-4c56-ba99-ab90c7951a6f
        <br>
                         status: OK, voltype: LEAF, format: COW,
        legality: LEGAL,
        <br>
        type: SPARSE
        <br>
        *****************
        <br>
        [root@lin-ovirt7 images]# ls -altrh
        f3cfefd2-d467-41d5-a054-5b01f81a21b4/
        <br>
        total 34G
        <br>
        -rw-rw----+  1 vdsm kvm 1.0M  2. Mai 21:03
        <br>
        a018521a-bd3a-4322-ac79-52d15e95639e.lease
        <br>
        -rw-rw----+  1 vdsm kvm 1.0M  2. Mai 21:03
        <br>
        2e2f0b4a-b015-4b50-8d10-51726de460a9.lease
        <br>
        -rw-r--r--+  1 vdsm kvm  260  2. Mai 21:03
        <br>
        804ffcc3-446f-4c56-ba99-ab90c7951a6f.meta
        <br>
        -rw-rw----+  1 vdsm kvm 1.0M  2. Mai 21:03
        <br>
        804ffcc3-446f-4c56-ba99-ab90c7951a6f.lease
        <br>
        -rw-rw----+  1 vdsm kvm 300G  2. Mai 22:26
        <br>
        a018521a-bd3a-4322-ac79-52d15e95639e
        <br>
        -rw-rw----+  1 vdsm kvm  77M  2. Mai 22:27
        <br>
        2e2f0b4a-b015-4b50-8d10-51726de460a9
        <br>
        -rw-rw----+  1 vdsm kvm 3.5G  2. Mai 22:34
        <br>
        804ffcc3-446f-4c56-ba99-ab90c7951a6f
        <br>
        -rw-r--r--+  1 vdsm kvm  364  2. Mai 22:34
        <br>
        a018521a-bd3a-4322-ac79-52d15e95639e.meta
        <br>
        -rw-r--r--+  1 vdsm kvm  264  2. Mai 22:34
        <br>
        2e2f0b4a-b015-4b50-8d10-51726de460a9.meta
        <br>
        drwxr-xr-x+  2 vdsm kvm   11  2. Mai 22:34 .
        <br>
        drwxr-xr-x+ 50 vdsm kvm   50  3. Mai 14:30 ..
        <br>
        [root@lin-ovirt7 images]#
        <br>
        *****************
        <br>
        <br>
        I attach some line from the engine.log, maybe someone can help,
        if you
        <br>
        need more information everything is here.
        <br>
        <br>
        gruss ivo
        <br>
        <br>
        <br>
        <br>
      </blockquote>
      <br>
      _______________________________________________
      <br>
      Users mailing list
      <br>
      <a class="moz-txt-link-abbreviated" href="mailto:Users@ovirt.org">Users@ovirt.org</a>
      <br>
      <a class="moz-txt-link-freetext" href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a>
      <br>
    </blockquote>
    <br>
    <pre class="moz-signature" cols="72">-- 
Nathanaël Blanchet

Supervision réseau
Pôle Infrastrutures Informatiques
227 avenue Professeur-Jean-Louis-Viala
34193 MONTPELLIER CEDEX 5         
Tél. 33 (0)4 67 54 84 55
Fax  33 (0)4 67 54 84 14
<a class="moz-txt-link-abbreviated" href="mailto:blanchet@abes.fr">blanchet@abes.fr</a> </pre>
  </body>
</html>