<p dir="ltr">Initially we only saw this on VMs with 2 or more disks. Subsequently we confirmed that it does happen on single disk VMs also. </p>
<p dir="ltr">CC<br></p>
<p dir="ltr">---</p>
<p dir="ltr">Sent from my Nexus 5</p>
<div class="gmail_quote">On Jun 13, 2016 5:12 PM, &quot;gregor&quot; &lt;<a href="mailto:gregor_forum@catrix.at">gregor_forum@catrix.at</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">The VM has two disks both are VirtIO. During testing its now clear that<br>
the problem occur only with two disks. When I select only one disk for<br>
the snapshost it works.<br>
Is this a problem of oVirt or is it not possible to use two disks on a<br>
VM in oVirt?<br>
<br>
Have you also two or more disks on your VM?<br>
<br>
Here are the Testresults:<br>
-------------------------<br>
What does not work:<br>
- Export the VM: Failed with error &quot;ImageIsNotLegalChain and code 262&quot;<br>
- Clone the VM: Failed with error &quot;IRSErrorException: Image is not a<br>
legal chain&quot; with the ID of the second Disk.<br>
<br>
After removing the second Disk:<br>
- Create offline snapshot: Works<br>
- Remove offline snapshot: After two hours I run &quot;engine-setup<br>
--offline&quot; to clean the looked snapshot !!!<br>
- Export the VM: Works<br>
- Import the exported VM: Works<br>
- Add Disk to the imported VM: Works<br>
- Create offline snapshot of the imported VM: Failed<br>
- Clone the VM: Works<br>
- Add Disk to the cloned VM: Works<br>
- Create offline snapshot of the cloned VM: Failed<br>
<br>
What works:<br>
- Make offline snapshot only with the system disk: Works<br>
- Remove offline snapshot of the system disk: Works<br>
- Make online snapshot only with the system disk: Works<br>
- Remove online snapshot of the system disk: Works<br>
<br>
cheers<br>
gregor<br>
<br>
On 12/06/16 19:42, gregor wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; I solved my problem, here are the steps but be carefully if you don&#39;t<br>
&gt; know what the commands did and how to restore from backup don&#39;t follow this:<br>
&gt;<br>
&gt; - ssh to the host<br>
&gt; - systemctl stop ovirt-engine<br>
&gt; - backup the database with &quot;engine-backup&quot;<br>
&gt; - navigate to the image files<br>
&gt; - backup the images: sudo -u vdsm rsync -av &lt;uuid&gt; &lt;uuid_backup&gt;<br>
&gt; - check which one is the backing file: qemu-img info &lt;file&gt;<br>
&gt; - check for damages: qemu-img check &lt;file&gt;<br>
&gt; - qemu-img commit &lt;snapshot file&gt;<br>
&gt; - rename the &lt;snapshot file&gt; + .lease and .meta so it can&#39;t be accessed<br>
&gt;<br>
&gt; - vmname=srv03<br>
&gt; - db=engine<br>
&gt; - sudo -u postgres psql $db -c &quot;SELECT b.disk_alias, s.description,<br>
&gt; s.snapshot_id, i.creation_date, s.status, i.imagestatus, i.size,<br>
&gt; i.image_group_id, i.vm_snapshot_id, i.image_guid, i.parentid, i.active<br>
&gt; FROM images as i JOIN snapshots AS s ON (i.vm_snapshot_id =<br>
&gt; s.snapshot_id) LEFT JOIN vm_static AS v ON (s.vm_id = v.vm_guid) JOIN<br>
&gt; base_disks AS b ON (i.image_group_id = b.disk_id) WHERE v.vm_name =<br>
&gt; &#39;$vmname&#39; ORDER BY creation_date, description, disk_alias&quot;<br>
&gt;<br>
&gt; - note the image_guid and parent_id from the broken snapshot and the<br>
&gt; active snapshot, the active state is the image_guuid with the parentid<br>
&gt; 00000000-0000-0000-0000-000000000000<br>
&gt; - igid_active=&lt;active uuid&gt;<br>
&gt; - igid_broken=&lt;broken uuid&gt;<br>
&gt; - the parentid of the image_guuid of the broken snapshot must be the<br>
&gt; same as the activ snapshots image_guuid<br>
&gt; - note the snapshot id<br>
&gt; - sid_active=&lt;id of the active snapshot with parrent id 000000&gt;<br>
&gt; - sid_broken=&lt;id of the broken shapshot&gt;<br>
&gt;<br>
&gt; - delete the broken snapshot<br>
&gt; - sudo -u postgres psql $db -c &quot;DELETE FROM snapshots AS s WHERE<br>
&gt; s.snapshot_id = &#39;$sid_broken&#39;&quot;<br>
&gt;<br>
&gt; - pid_new=00000000-0000-0000-0000-000000000000<br>
&gt; - sudo -u postgres psql $db -c &quot;SELECT * FROM images WHERE<br>
&gt; vm_snapshot_id = &#39;$sid_active&#39; AND image_guid = &#39;$igid_broken&#39;&quot;<br>
&gt; - sudo -u postgres psql $db -c &quot;DELETE FROM images WHERE vm_snapshot_id<br>
&gt; = &#39;$sid_broken&#39; AND image_guid = &#39;$igid_active&#39;&quot;<br>
&gt; - sudo -u postgres psql $db -c &quot;SELECT * FROM image_storage_domain_map<br>
&gt; WHERE image_id = &#39;$igid_broken&#39;&quot;<br>
&gt; - sudo -u postgres psql $db -c &quot;DELETE FROM image_storage_domain_map<br>
&gt; WHERE image_id = &#39;$igid_broken&#39;&quot;<br>
&gt; - sudo -u postgres psql $db -c &quot;UPDATE images SET image_guid =<br>
&gt; &#39;$igid_active&#39;, parentid = &#39;$pid_new&#39; WHERE vm_snapshot_id =<br>
&gt; &#39;$sid_active&#39; AND image_guid = &#39;$igid_broken&#39;&quot;<br>
&gt; - sudo -u postgres psql $db -c &quot;SELECT * FROM image_storage_domain_map&quot;<br>
&gt; - storid=&lt;storage_domain_id&gt;<br>
&gt; - diskprofileid=&lt;disk_profile_id&gt;<br>
&gt; - sudo -u postgres psql $db -c &quot;INSERT INTO image_storage_domain_map<br>
&gt; (image_id, storage_domain_id, disk_profile_id) VALUES (&#39;$igid_broken&#39;,<br>
&gt; &#39;$stor_id&#39;, &#39;$diskprofileid&#39;)&quot;<br>
&gt;<br>
&gt; - check values<br>
&gt; - sudo -u postgres psql $db -c &quot;SELECT b.disk_alias, s.description,<br>
&gt; s.snapshot_id, i.creation_date, s.status, i.imagestatus, i.size,<br>
&gt; i.image_group_id, i.vm_snapshot_id, i.image_guid, i.parentid, i.active<br>
&gt; FROM images as i JOIN snapshots AS s ON (i.vm_snapshot_id =<br>
&gt; s.snapshot_id) LEFT JOIN vm_static AS v ON (s.vm_id = v.vm_guid) JOIN<br>
&gt; base_disks AS b ON (i.image_group_id = b.disk_id) WHERE v.vm_name =<br>
&gt; &#39;$vmname&#39; ORDER BY creation_date, description, disk_alias&quot;could not<br>
&gt; change directory to &quot;/root/Backups/oVirt&quot;<br>
&gt;<br>
&gt; - check for errors<br>
&gt; - engine-setup --offline<br>
&gt; - systemctl start ovirt-engine<br>
&gt;<br>
&gt; Now you should have a clean state and a working VM ;-)<br>
&gt;<br>
&gt; What was tested:<br>
&gt; - Power up and down the VM<br>
&gt;<br>
&gt; What does not work:<br>
&gt; - Its not possible to make offline snapshots, online was not tested<br>
&gt; because I will not getting into such trouble again. It took many hours<br>
&gt; after the machine is up again.<br>
&gt;<br>
&gt; PLEASE be aware and don&#39;t destroy your Host and VM !!!<br>
&gt;<br>
&gt; cheers<br>
&gt; gregor<br>
&gt;<br>
&gt; On 12/06/16 13:40, Colin Coe wrote:<br>
&gt;&gt; We&#39;ve seen this with both Linux and Windows VMs.  I&#39;m guessing that<br>
&gt;&gt; you&#39;ve had failures on this VM in both snapshot create and delete<br>
&gt;&gt; operations.  oVirt/RHEV 3.5 seems particularly affected.  I&#39;m told that<br>
&gt;&gt; oVirt 3.6.7 has the last of the fixes for these known snapshot problems.<br>
&gt;&gt;<br>
&gt;&gt; My original email was eorded wrong.  I meant that qemu-img gives<br>
&gt;&gt; &quot;backing filename too long&quot; errors.  You may have seen this in your logs.<br>
&gt;&gt;<br>
&gt;&gt; Note also that you may be seeing an entirely un-related problem.<br>
&gt;&gt;<br>
&gt;&gt; You may wish to post you&#39;re VDSM logs and the qemu log from<br>
&gt;&gt; /var/lib/libvirt/qemu/&lt;vm_name&gt;.log<br>
&gt;&gt;<br>
&gt;&gt; Hope this helps<br>
&gt;&gt;<br>
&gt;&gt; CC<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Sun, Jun 12, 2016 at 4:45 PM, gregor &lt;<a href="mailto:gregor_forum@catrix.at">gregor_forum@catrix.at</a><br>
&gt;&gt; &lt;mailto:<a href="mailto:gregor_forum@catrix.at">gregor_forum@catrix.at</a>&gt;&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;     Sound&#39;s bad. Recreating the VM is no way because this is a productive<br>
&gt;&gt;     VM. During testing I need to recreate it more than once. oVirt works<br>
&gt;&gt;     perfect which Linux VM&#39;s but when it comes to Windows VM&#39;s we get lots<br>
&gt;&gt;     of problems.<br>
&gt;&gt;<br>
&gt;&gt;     Which OS you used on the problematic VM?<br>
&gt;&gt;<br>
&gt;&gt;     cheers<br>
&gt;&gt;     gregor<br>
&gt;&gt;<br>
&gt;&gt;     On 11/06/16 19:22, Anantha Raghava wrote:<br>
&gt;&gt;     &gt; Hi,<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; Even I observed this behaviour.<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; When we take the snapshot, the main VM using which the snapshot was<br>
&gt;&gt;     &gt; taken is shutdown and a new VM with external-&lt;VMName&gt; comes to<br>
&gt;&gt;     life. We<br>
&gt;&gt;     &gt; cannot get the original VM back to life, but a clone starts<br>
&gt;&gt;     functioning.<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; We cannot remove the snapshot whether or not the VM is running. I<br>
&gt;&gt;     had to<br>
&gt;&gt;     &gt; remove the entire VM that came to life with snapshot and recreate the<br>
&gt;&gt;     &gt; entire VM from scratch. Luckily the VM was still not in production,<br>
&gt;&gt;     &gt; hence could afford it.<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; First I could not understand, why, when a snapshot is created, the VM<br>
&gt;&gt;     &gt; with snapshot comes to life and starts running and not the<br>
&gt;&gt;     original VM.<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; Is it necessary that we shutdown the VM before taking snapshots?<br>
&gt;&gt;     &gt; Snapshot is supposed to be a backup of original VM, that unless we<br>
&gt;&gt;     &gt; restore by cloning should not come to life as I understand.<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; --<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; Thanks &amp; Regards,<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; Anantha Raghava<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt;<br>
&gt;&gt;     &gt; On Saturday 11 June 2016 08:09 PM, gregor wrote:<br>
&gt;&gt;     &gt;&gt; Hi,<br>
&gt;&gt;     &gt;&gt;<br>
&gt;&gt;     &gt;&gt; a VM has snapshots which are unable to remove during when the VM<br>
&gt;&gt;     is up.<br>
&gt;&gt;     &gt;&gt; Therefore I power down the Windows Server 2012 VM. The snapshots are<br>
&gt;&gt;     &gt;&gt; still unable to remove and the VM can&#39;t boot anymore !!!<br>
&gt;&gt;     &gt;&gt;<br>
&gt;&gt;     &gt;&gt; This is the message from engine.log<br>
&gt;&gt;     &gt;&gt;<br>
&gt;&gt;     &gt;&gt; ------------------<br>
&gt;&gt;     &gt;&gt; Message: VM srv03 is down with error. Exit message: Bad volume<br>
&gt;&gt;     specification<br>
&gt;&gt;     &gt;&gt; ------------------<br>
&gt;&gt;     &gt;&gt;<br>
&gt;&gt;     &gt;&gt; Clone is not possible I get:<br>
&gt;&gt;     &gt;&gt; ------------------<br>
&gt;&gt;     &gt;&gt; Message: VDSM command failed: Image is not a legal chain<br>
&gt;&gt;     &gt;&gt; ------------------<br>
&gt;&gt;     &gt;&gt;<br>
&gt;&gt;     &gt;&gt; All others VM&#39;s can be powered down and start without any problem.<br>
&gt;&gt;     &gt;&gt; What can I do?<br>
&gt;&gt;     &gt;&gt; This is very important because now no one can work :-( !!!<br>
&gt;&gt;     &gt;&gt;<br>
&gt;&gt;     &gt;&gt; cheers<br>
&gt;&gt;     &gt;&gt; gregor<br>
&gt;&gt;     &gt;&gt; _______________________________________________<br>
&gt;&gt;     &gt;&gt; Users mailing list<br>
&gt;&gt;     &gt;&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a> &lt;mailto:<a href="mailto:Users@ovirt.org">Users@ovirt.org</a>&gt;<br>
&gt;&gt;     &gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;     &gt;<br>
&gt;&gt;     _______________________________________________<br>
&gt;&gt;     Users mailing list<br>
&gt;&gt;     <a href="mailto:Users@ovirt.org">Users@ovirt.org</a> &lt;mailto:<a href="mailto:Users@ovirt.org">Users@ovirt.org</a>&gt;<br>
&gt;&gt;     <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
&gt; <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
&gt;<br>
</blockquote></div>