<div dir='auto'><div><br><div class="gmail_extra"><br><div class="gmail_quote">Den 9 juni 2017 21:40 skrev Matthias Leopold &lt;matthias.leopold@meduniwien.ac.at&gt;:<br type="attribution"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>hi,<br><br>i'm having trouble creating VM snapshots that include memory in my oVirt <br>4.1 test environment. when i do this the VM gets paused and shortly <br>(20-30s) afterwards i'm seeing messages in engine.log about both iSCSI <br>storage domains (master storage domain and data storage where VM <br>resides) experiencing high latency. this quickly worsens from the <br>engines view: VM is unresponsive, Host is unresponsive, engine wants to <br>fence the host (impossible because it's the only host in the test <br>cluster). in the end there is an EngineException<br><br>EngineException: <br>org.ovirt.engine.core.vdsbroker.vdsbroker.VDSNetworkException: <br>VDSGenericException: VDSNetworkException: Message timeout which can be <br>caused by communication issues (Failed with error VDS_NETWORK_ERROR and <br>code 5022)<br><br>the snapshot fails and is left in an inconsistent state. the situation <br>has to be resolved manually with unlock_entity.sh and maybe lvm <br>commands. this happened twice in exactly the same manner. VM snapshots <br>without memory for this VM are not a problem.<br><br>VM guest OS is CentOS7 installed from one of the ovirt-image-repository <br>images. it has the oVirt guest agent running.<br><br>what could be wrong?<br></div></blockquote></div></div></div><div dir="auto"><br></div><div dir="auto">Seems to me that the snapshot operation, where the host needs to save all of the VM memory chokes the storage pipe, the host becomes "unresponsive" from engine's point of view and all goes up shit creek. How is the hypervisor connected to the storage, in more detail?</div><div dir="auto"><br></div><div dir="auto">/K</div><div dir="auto"><br></div><div dir="auto"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><br>this is a test environment where lots of parameters aren't optimal but i <br>never had problems like this before, nothing concerning network latency. <br>iSCSI is on a FreeNAS box. CPU, RAM, ethernet (10GBit for storage) on <br>all hosts involved (engine hosted externally, oVirt Node, storage) <br>should be OK by far.<br><br>it looks like some obvious configuration botch or performance bottleneck <br>to me. can it be linked to the network roles (management and migration <br>network are on a 1 GBit link)?<br><br>i'm still new to this, not a lot of KVM experience, too. maybe someone <br>recognizes the culprit...<br><br>thx<br>matthias<br>_______________________________________________<br>Users mailing list<br>Users@ovirt.org<br>http://lists.ovirt.org/mailman/listinfo/users<br></div></blockquote></div><br></div></div></div>