<html>Hi,<br />I don't beleive that this is relatd to a host, tests have been done from victor source to ginger dest and ginger to victor. I don't see problems on storage (gluster 3.12 native managed by ovirt), when VMs with a uniq disk from 20 to 250G migrate without error in some seconds and with no downtime.<br />How ca I enable this libvirt debug mode ?<br /><br />--<br /><style type="text/css">.Text1 {
        color: black;
        font-size:9pt;
        font-family:Verdana;
    }
    .Text2 {
        color: black;
        font-size:7pt;
        font-family:Verdana;
    }</style><p class="Text1">Cordialement,<br /><br /><b>Frank Soyer </b><br /><br />&nbsp;</p><br /><br />Le Vendredi, Février 23, 2018 09:56 CET, Milan Zamazal &lt;mzamazal@redhat.com&gt; a écrit:<br />&nbsp;<blockquote type="cite" cite="87y3jkrsmp.fsf@redhat.com">Maor Lipchuk &lt;mlipchuk@redhat.com&gt; writes:<br /><br />&gt; I encountered a bug (see [1]) which contains the same error mentioned in<br />&gt; your VDSM logs (see [2]), but I doubt it is related.<br /><br />Indeed, it's not related.<br /><br />The error in vdsm_victor.log just means that the info gathering call<br />tries to access libvirt domain before the incoming migration is<br />completed. It's ugly but harmless.<br /><br />&gt; Milan, maybe you have any advice to troubleshoot the issue? Will the<br />&gt; libvirt/qemu logs can help?<br /><br />It seems there is something wrong on (at least) the source host. There<br />are no migration progress messages in the vdsm_ginger.log and there are<br />warnings about stale stat samples. That looks like problems with<br />calling libvirt – slow and/or stuck calls, maybe due to storage<br />problems. The possibly faulty second disk could cause that.<br /><br />libvirt debug logs could tell us whether that is indeed the problem and<br />whether it is caused by storage or something else.<br /><br />&gt; I would suggest to open a bug on that issue so we can track it more<br />&gt; properly.<br />&gt;<br />&gt; Regards,<br />&gt; Maor<br />&gt;<br />&gt;<br />&gt; [1]<br />&gt; https://bugzilla.redhat.com/show_bug.cgi?id=1486543 - Migration leads to<br />&gt; VM running on 2 Hosts<br />&gt;<br />&gt; [2]<br />&gt; 2018-02-16 09:43:35,236+0100 ERROR (jsonrpc/7) [jsonrpc.JsonRpcServer]<br />&gt; Internal server error (__init__:577)<br />&gt; Traceback (most recent call last):<br />&gt; File "/usr/lib/python2.7/site-packages/yajsonrpc/__init__.py", line 572,<br />&gt; in _handle_request<br />&gt; res = method(**params)<br />&gt; File "/usr/lib/python2.7/site-packages/vdsm/rpc/Bridge.py", line 198, in<br />&gt; _dynamicMethod<br />&gt; result = fn(*methodArgs)<br />&gt; File "/usr/share/vdsm/API.py", line 1454, in getAllVmIoTunePolicies<br />&gt; io_tune_policies_dict = self._cif.getAllVmIoTunePolicies()<br />&gt; File "/usr/share/vdsm/clientIF.py", line 454, in getAllVmIoTunePolicies<br />&gt; 'current_values': v.getIoTune()}<br />&gt; File "/usr/share/vdsm/virt/vm.py", line 2859, in getIoTune<br />&gt; result = self.getIoTuneResponse()<br />&gt; File "/usr/share/vdsm/virt/vm.py", line 2878, in getIoTuneResponse<br />&gt; res = self._dom.blockIoTune(<br />&gt; File "/usr/lib/python2.7/site-packages/vdsm/virt/virdomain.py", line 47,<br />&gt; in __getattr__<br />&gt; % self.vmid)<br />&gt; NotConnectedError: VM u'755cf168-de65-42ed-b22f-efe9136f7594' was not<br />&gt; started yet or was shut down<br />&gt;<br />&gt; On Thu, Feb 22, 2018 at 4:22 PM, fsoyer &lt;fsoyer@systea.fr&gt; wrote:<br />&gt;<br />&gt;&gt; Hi,<br />&gt;&gt; Yes, on 2018-02-16 (vdsm logs) I tried with a VM standing on ginger<br />&gt;&gt; (192.168.0.6) migrated (or failed to migrate...) to victor (192.168.0.5),<br />&gt;&gt; while the engine.log in the first mail on 2018-02-12 was for VMs standing<br />&gt;&gt; on victor, migrated (or failed to migrate...) to ginger. Symptoms were<br />&gt;&gt; exactly the same, in both directions, and VMs works like a charm before,<br />&gt;&gt; and even after (migration "killed" by a poweroff of VMs).<br />&gt;&gt; Am I the only one experimenting this problem ?<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt; Thanks<br />&gt;&gt; --<br />&gt;&gt;<br />&gt;&gt; Cordialement,<br />&gt;&gt;<br />&gt;&gt; *Frank Soyer *<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt; Le Jeudi, Février 22, 2018 00:45 CET, Maor Lipchuk &lt;mlipchuk@redhat.com&gt;<br />&gt;&gt; a écrit:<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt; Hi Frank,<br />&gt;&gt;<br />&gt;&gt; Sorry about the delay repond.<br />&gt;&gt; I've been going through the logs you attached, although I could not find<br />&gt;&gt; any specific indication why the migration failed because of the disk you<br />&gt;&gt; were mentionning.<br />&gt;&gt; Does this VM run with both disks on the target host without migration?<br />&gt;&gt;<br />&gt;&gt; Regards,<br />&gt;&gt; Maor<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt; On Fri, Feb 16, 2018 at 11:03 AM, fsoyer &lt;fsoyer@systea.fr&gt; wrote:<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; Hi Maor,<br />&gt;&gt;&gt; sorry for the double post, I've change the email adress of my account and<br />&gt;&gt;&gt; supposed that I'd need to re-post it.<br />&gt;&gt;&gt; And thank you for your time. Here are the logs. I added a vdisk to an<br />&gt;&gt;&gt; existing VM : it no more migrates, needing to poweroff it after minutes.<br />&gt;&gt;&gt; Then simply deleting the second disk makes migrate it in exactly 9s without<br />&gt;&gt;&gt; problem !<br />&gt;&gt;&gt; https://gist.github.com/fgth/4707446331d201eef574ac31b6e89561<br />&gt;&gt;&gt; https://gist.github.com/fgth/f8de9c22664aee53722af676bff8719d<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; --<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; Cordialement,<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; *Frank Soyer *<br />&gt;&gt;&gt; Le Mercredi, Février 14, 2018 11:04 CET, Maor Lipchuk &lt;<br />&gt;&gt;&gt; mlipchuk@redhat.com&gt; a écrit:<br />&gt;&gt;&gt;<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; Hi Frank,<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; I already replied on your last email.<br />&gt;&gt;&gt; Can you provide the VDSM logs from the time of the migration failure for<br />&gt;&gt;&gt; both hosts:<br />&gt;&gt;&gt; ginger.local.systea.f &lt;http://ginger.local.systea.fr/&gt;r and v<br />&gt;&gt;&gt; ictor.local.systea.fr<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; Thanks,<br />&gt;&gt;&gt; Maor<br />&gt;&gt;&gt;<br />&gt;&gt;&gt; On Wed, Feb 14, 2018 at 11:23 AM, fsoyer &lt;fsoyer@systea.fr&gt; wrote:<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; Hi all,<br />&gt;&gt;&gt;&gt; I discovered yesterday a problem when migrating VM with more than one<br />&gt;&gt;&gt;&gt; vdisk.<br />&gt;&gt;&gt;&gt; On our test servers (oVirt4.1, shared storage with Gluster), I created 2<br />&gt;&gt;&gt;&gt; VMs needed for a test, from a template with a 20G vdisk. On this VMs I<br />&gt;&gt;&gt;&gt; added a 100G vdisk (for this tests I didn't want to waste time to extend<br />&gt;&gt;&gt;&gt; the existing vdisks... But I lost time finally...). The VMs with the 2<br />&gt;&gt;&gt;&gt; vdisks works well.<br />&gt;&gt;&gt;&gt; Now I saw some updates waiting on the host. I tried to put it in<br />&gt;&gt;&gt;&gt; maintenance... But it stopped on the two VM. They were marked "migrating",<br />&gt;&gt;&gt;&gt; but no more accessible. Other (small) VMs with only 1 vdisk was migrated<br />&gt;&gt;&gt;&gt; without problem at the same time.<br />&gt;&gt;&gt;&gt; I saw that a kvm process for the (big) VMs was launched on the source<br />&gt;&gt;&gt;&gt; AND destination host, but after tens of minutes, the migration and the VMs<br />&gt;&gt;&gt;&gt; was always freezed. I tried to cancel the migration for the VMs : failed.<br />&gt;&gt;&gt;&gt; The only way to stop it was to poweroff the VMs : the kvm process died on<br />&gt;&gt;&gt;&gt; the 2 hosts and the GUI alerted on a failed migration.<br />&gt;&gt;&gt;&gt; In doubt, I tried to delete the second vdisk on one of this VMs : it<br />&gt;&gt;&gt;&gt; migrates then without error ! And no access problem.<br />&gt;&gt;&gt;&gt; I tried to extend the first vdisk of the second VM, the delete the<br />&gt;&gt;&gt;&gt; second vdisk : it migrates now without problem !<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; So after another test with a VM with 2 vdisks, I can say that this<br />&gt;&gt;&gt;&gt; blocked the migration process :(<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; In engine.log, for a VMs with 1 vdisk migrating well, we see :<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:29,705+01 INFO [org.ovirt.engine.core.bll.MigrateVmToServerCommand]<br />&gt;&gt;&gt;&gt; (default task-28) [2f712024-5982-46a8-82c8-fd8293da5725] Lock Acquired<br />&gt;&gt;&gt;&gt; to object 'EngineLock:{exclusiveLocks='[3f57e669-5e4c-4d10-85cc-d573004a099d=VM]',<br />&gt;&gt;&gt;&gt; sharedLocks=''}'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:29,955+01 INFO [org.ovirt.engine.core.bll.MigrateVmToServerCommand]<br />&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-6-thread-32) [2f712024-5982-46a8-82c8-fd8293da5725]<br />&gt;&gt;&gt;&gt; Running command: MigrateVmToServerCommand internal: false. Entities<br />&gt;&gt;&gt;&gt; affected : ID: 3f57e669-5e4c-4d10-85cc-d573004a099d Type: VMAction<br />&gt;&gt;&gt;&gt; group MIGRATE_VM with role type USER<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:30,261+01 INFO [org.ovirt.engine.core.vdsbroker.MigrateVDSCommand]<br />&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-6-thread-32) [2f712024-5982-46a8-82c8-fd8293da5725]<br />&gt;&gt;&gt;&gt; START, MigrateVDSCommand( MigrateVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='ce3938b1-b23f-4d22-840a-f17d7cd87bb1',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d', srcHost='192.168.0.6',<br />&gt;&gt;&gt;&gt; dstVdsId='d569c2dd-8f30-4878-8aea-858db285cf69', dstHost='<br />&gt;&gt;&gt;&gt; 192.168.0.5:54321', migrationMethod='ONLINE', tunnelMigration='false',<br />&gt;&gt;&gt;&gt; migrationDowntime='0', autoConverge='true', migrateCompressed='false',<br />&gt;&gt;&gt;&gt; consoleAddress='null', maxBandwidth='500', enableGuestEvents='true',<br />&gt;&gt;&gt;&gt; maxIncomingMigrations='2', maxOutgoingMigrations='2',<br />&gt;&gt;&gt;&gt; convergenceSchedule='[init=[{name=setDowntime, params=[100]}],<br />&gt;&gt;&gt;&gt; stalling=[{limit=1, action={name=setDowntime, params=[150]}}, {limit=2,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[200]}}, {limit=3,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[300]}}, {limit=4,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[400]}}, {limit=6,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[500]}}, {limit=-1, action={name=abort,<br />&gt;&gt;&gt;&gt; params=[]}}]]'}), log id: 14f61ee0<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:30,262+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.MigrateBrokerVDSCommand] (org.ovirt.thread.pool-6-thread-32)<br />&gt;&gt;&gt;&gt; [2f712024-5982-46a8-82c8-fd8293da5725] START,<br />&gt;&gt;&gt;&gt; MigrateBrokerVDSCommand(HostName = victor.local.systea.fr,<br />&gt;&gt;&gt;&gt; MigrateVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='ce3938b1-b23f-4d22-840a-f17d7cd87bb1',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d', srcHost='192.168.0.6',<br />&gt;&gt;&gt;&gt; dstVdsId='d569c2dd-8f30-4878-8aea-858db285cf69', dstHost='<br />&gt;&gt;&gt;&gt; 192.168.0.5:54321', migrationMethod='ONLINE', tunnelMigration='false',<br />&gt;&gt;&gt;&gt; migrationDowntime='0', autoConverge='true', migrateCompressed='false',<br />&gt;&gt;&gt;&gt; consoleAddress='null', maxBandwidth='500', enableGuestEvents='true',<br />&gt;&gt;&gt;&gt; maxIncomingMigrations='2', maxOutgoingMigrations='2',<br />&gt;&gt;&gt;&gt; convergenceSchedule='[init=[{name=setDowntime, params=[100]}],<br />&gt;&gt;&gt;&gt; stalling=[{limit=1, action={name=setDowntime, params=[150]}}, {limit=2,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[200]}}, {limit=3,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[300]}}, {limit=4,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[400]}}, {limit=6,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[500]}}, {limit=-1, action={name=abort,<br />&gt;&gt;&gt;&gt; params=[]}}]]'}), log id: 775cd381<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:30,277+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.MigrateBrokerVDSCommand] (org.ovirt.thread.pool-6-thread-32)<br />&gt;&gt;&gt;&gt; [2f712024-5982-46a8-82c8-fd8293da5725] FINISH, MigrateBrokerVDSCommand,<br />&gt;&gt;&gt;&gt; log id: 775cd381<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:30,285+01 INFO [org.ovirt.engine.core.vdsbroker.MigrateVDSCommand]<br />&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-6-thread-32) [2f712024-5982-46a8-82c8-fd8293da5725]<br />&gt;&gt;&gt;&gt; FINISH, MigrateVDSCommand, return: MigratingFrom, log id: 14f61ee0<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:30,301+01 INFO [org.ovirt.engine.core.dal.db<br />&gt;&gt;&gt;&gt; broker.auditloghandling.AuditLogDirector] (org.ovirt.thread.pool-6-thread-32)<br />&gt;&gt;&gt;&gt; [2f712024-5982-46a8-82c8-fd8293da5725] EVENT_ID:<br />&gt;&gt;&gt;&gt; VM_MIGRATION_START(62), Correlation ID: 2f712024-5982-46a8-82c8-fd8293da5725,<br />&gt;&gt;&gt;&gt; Job ID: 4bd19aa9-cc99-4d02-884e-5a1e857a7738, Call Stack: null, Custom<br />&gt;&gt;&gt;&gt; ID: null, Custom Event ID: -1, Message: Migration started (VM:<br />&gt;&gt;&gt;&gt; Oracle_SECONDARY, Source: victor.local.systea.fr, Destination:<br />&gt;&gt;&gt;&gt; ginger.local.systea.fr, User: admin@internal-authz).<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,106+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.FullListVDSCommand] (DefaultQuartzScheduler9) [54a65b66]<br />&gt;&gt;&gt;&gt; START, FullListVDSCommand(HostName = victor.local.systea.fr,<br />&gt;&gt;&gt;&gt; FullListVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='ce3938b1-b23f-4d22-840a-f17d7cd87bb1',<br />&gt;&gt;&gt;&gt; vmIds='[3f57e669-5e4c-4d10-85cc-d573004a099d]'}), log id: 54b4b435<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,147+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.FullListVDSCommand] (DefaultQuartzScheduler9) [54a65b66]<br />&gt;&gt;&gt;&gt; FINISH, FullListVDSCommand, return: [{acpiEnable=true,<br />&gt;&gt;&gt;&gt; emulatedMachine=pc-i440fx-rhel7.3.0, tabletEnable=true, pid=1493,<br />&gt;&gt;&gt;&gt; guestDiskMapping={0QEMU_QEMU_HARDDISK_d890fa68-fba4-4f49-9={name=/dev/sda},<br />&gt;&gt;&gt;&gt; QEMU_DVD-ROM_QM00003={name=/dev/sr0}}, transparentHugePages=true,<br />&gt;&gt;&gt;&gt; timeOffset=0, cpuType=Nehalem, smp=2, pauseCode=NOERR,<br />&gt;&gt;&gt;&gt; guestNumaNodes=[Ljava.lang.Object;@1d9042cd, smartcardEnable=false,<br />&gt;&gt;&gt;&gt; custom={device_fbddd528-7d93-49c6-a286-180e021cb274device_87<br />&gt;&gt;&gt;&gt; 9c93ab-4df1-435c-af02-565039fcc254=VmDevice:{id='VmDeviceId:<br />&gt;&gt;&gt;&gt; {deviceId='879c93ab-4df1-435c-af02-565039fcc254',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='unix',<br />&gt;&gt;&gt;&gt; type='CHANNEL', bootOrder='0', specParams='[]', address='{bus=0,<br />&gt;&gt;&gt;&gt; controller=0, type=virtio-serial, port=1}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='channel0',<br />&gt;&gt;&gt;&gt; customProperties='[]', snapshotId='null', logicalName='null',<br />&gt;&gt;&gt;&gt; hostDevice='null'}, device_fbddd528-7d93-49c6-a286<br />&gt;&gt;&gt;&gt; -180e021cb274device_879c93ab-4df1-435c-af02-565039fcc254devi<br />&gt;&gt;&gt;&gt; ce_8945f61a-abbe-4156-8485-a4aa6f1908dbdevice_017b5e59-01c4-<br />&gt;&gt;&gt;&gt; 4aac-bf0c-b5d9557284d6=VmDevice:{id='VmDeviceId:{deviceId='0<br />&gt;&gt;&gt;&gt; 17b5e59-01c4-4aac-bf0c-b5d9557284d6', vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}',<br />&gt;&gt;&gt;&gt; device='tablet', type='UNKNOWN', bootOrder='0', specParams='[]',<br />&gt;&gt;&gt;&gt; address='{bus=0, type=usb, port=1}', managed='false', plugged='true',<br />&gt;&gt;&gt;&gt; readOnly='false', deviceAlias='input0', customProperties='[]',<br />&gt;&gt;&gt;&gt; snapshotId='null', logicalName='null', hostDevice='null'},<br />&gt;&gt;&gt;&gt; device_fbddd528-7d93-49c6-a286-180e021cb274=VmDevice:{id='Vm<br />&gt;&gt;&gt;&gt; DeviceId:{deviceId='fbddd528-7d93-49c6-a286-180e021cb274',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='ide',<br />&gt;&gt;&gt;&gt; type='CONTROLLER', bootOrder='0', specParams='[]', address='{slot=0x01,<br />&gt;&gt;&gt;&gt; bus=0x00, domain=0x0000, type=pci, function=0x1}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='ide', customProperties='[]',<br />&gt;&gt;&gt;&gt; snapshotId='null', logicalName='null', hostDevice='null'},<br />&gt;&gt;&gt;&gt; device_fbddd528-7d93-49c6-a286-180e021cb274device_879c93ab-4<br />&gt;&gt;&gt;&gt; df1-435c-af02-565039fcc254device_8945f61a-abbe-4156-8485-a4a<br />&gt;&gt;&gt;&gt; a6f1908db=VmDevice:{id='VmDeviceId:{deviceId='8945f61a-abbe-4156-8485-a4aa6f1908db',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='unix',<br />&gt;&gt;&gt;&gt; type='CHANNEL', bootOrder='0', specParams='[]', address='{bus=0,<br />&gt;&gt;&gt;&gt; controller=0, type=virtio-serial, port=2}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='channel1',<br />&gt;&gt;&gt;&gt; customProperties='[]', snapshotId='null', logicalName='null',<br />&gt;&gt;&gt;&gt; hostDevice='null'}}, vmType=kvm, memSize=8192, smpCoresPerSocket=1,<br />&gt;&gt;&gt;&gt; vmName=Oracle_SECONDARY, nice=0, status=Migration Source, maxMemSize=32768,<br />&gt;&gt;&gt;&gt; bootMenuEnable=false, vmId=3f57e669-5e4c-4d10-85cc-d573004a099d,<br />&gt;&gt;&gt;&gt; numOfIoThreads=2, smpThreadsPerCore=1, memGuaranteedSize=8192,<br />&gt;&gt;&gt;&gt; kvmEnable=true, pitReinjection=false, displayNetwork=ovirtmgmt,<br />&gt;&gt;&gt;&gt; devices=[Ljava.lang.Object;@28ae66d7, display=vnc, maxVCpus=16,<br />&gt;&gt;&gt;&gt; clientIp=, statusTime=4299484520, maxMemSlots=16}], log id: 54b4b435<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,150+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmsStatisticsFetcher] (DefaultQuartzScheduler1)<br />&gt;&gt;&gt;&gt; [27fac647] Fetched 3 VMs from VDS 'd569c2dd-8f30-4878-8aea-858db285cf69'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,151+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmDevicesMonitoring] (DefaultQuartzScheduler9)<br />&gt;&gt;&gt;&gt; [54a65b66] Received a vnc Device without an address when processing VM<br />&gt;&gt;&gt;&gt; 3f57e669-5e4c-4d10-85cc-d573004a099d devices, skipping device:<br />&gt;&gt;&gt;&gt; {device=vnc, specParams={displayNetwork=ovirtmgmt, keyMap=fr,<br />&gt;&gt;&gt;&gt; displayIp=192.168.0.6}, type=graphics, deviceId=813957b1-446a-4e88-9e40-9fe76d2c442d,<br />&gt;&gt;&gt;&gt; port=5901}<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,151+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmDevicesMonitoring] (DefaultQuartzScheduler9)<br />&gt;&gt;&gt;&gt; [54a65b66] Received a lease Device without an address when processing VM<br />&gt;&gt;&gt;&gt; 3f57e669-5e4c-4d10-85cc-d573004a099d devices, skipping device:<br />&gt;&gt;&gt;&gt; {lease_id=3f57e669-5e4c-4d10-85cc-d573004a099d,<br />&gt;&gt;&gt;&gt; sd_id=1e51cecc-eb2e-47d0-b185-920fdc7afa16,<br />&gt;&gt;&gt;&gt; deviceId={uuid=a09949aa-5642-4b6d-94a4-8b0d04257be5}, offset=6291456,<br />&gt;&gt;&gt;&gt; device=lease, path=/rhev/data-center/mnt/glusterSD/192.168.0.6:<br />&gt;&gt;&gt;&gt; _DATA01/1e51cecc-eb2e-47d0-b185-920fdc7afa16/dom_md/xleases, type=lease}<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,152+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (DefaultQuartzScheduler1) [27fac647] VM '3f57e669-5e4c-4d10-85cc-d573004a099d'(Oracle_SECONDARY)<br />&gt;&gt;&gt;&gt; was unexpectedly detected as 'MigratingTo' on VDS<br />&gt;&gt;&gt;&gt; 'd569c2dd-8f30-4878-8aea-858db285cf69'(ginger.local.systea.fr)<br />&gt;&gt;&gt;&gt; (expected on 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1')<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:31,152+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (DefaultQuartzScheduler1) [27fac647] VM '3f57e669-5e4c-4d10-85cc-d573004a099d'<br />&gt;&gt;&gt;&gt; is migrating to VDS 'd569c2dd-8f30-4878-8aea-858db285cf69'(<br />&gt;&gt;&gt;&gt; ginger.local.systea.fr) ignoring it in the refresh until migration is<br />&gt;&gt;&gt;&gt; done<br />&gt;&gt;&gt;&gt; ....<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:41,631+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (ForkJoinPool-1-worker-11) [] VM '3f57e669-5e4c-4d10-85cc-d573004a099d'<br />&gt;&gt;&gt;&gt; was reported as Down on VDS 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1'(<br />&gt;&gt;&gt;&gt; victor.local.systea.fr)<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:41,632+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.DestroyVDSCommand] (ForkJoinPool-1-worker-11) [] START,<br />&gt;&gt;&gt;&gt; DestroyVDSCommand(HostName = victor.local.systea.fr,<br />&gt;&gt;&gt;&gt; DestroyVmVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='ce3938b1-b23f-4d22-840a-f17d7cd87bb1',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d', force='false',<br />&gt;&gt;&gt;&gt; secondsToWait='0', gracefully='false', reason='', ignoreNoVm='true'}), log<br />&gt;&gt;&gt;&gt; id: 560eca57<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:41,650+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.DestroyVDSCommand] (ForkJoinPool-1-worker-11) [] FINISH,<br />&gt;&gt;&gt;&gt; DestroyVDSCommand, log id: 560eca57<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:41,650+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (ForkJoinPool-1-worker-11) [] VM '3f57e669-5e4c-4d10-85cc-d573004a099d'(Oracle_SECONDARY)<br />&gt;&gt;&gt;&gt; moved from 'MigratingFrom' --&gt; 'Down'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:41,651+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (ForkJoinPool-1-worker-11) [] Handing over VM '3f57e669-5e4c-4d10-85cc-d573004a099d'(Oracle_SECONDARY)<br />&gt;&gt;&gt;&gt; to Host 'd569c2dd-8f30-4878-8aea-858db285cf69'. Setting VM to status<br />&gt;&gt;&gt;&gt; 'MigratingTo'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,163+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (ForkJoinPool-1-worker-4) [] VM '3f57e669-5e4c-4d10-85cc-d573004a099d'(Oracle_SECONDARY)<br />&gt;&gt;&gt;&gt; moved from 'MigratingTo' --&gt; 'Up'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,169+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.MigrateStatusVDSCommand] (ForkJoinPool-1-worker-4) []<br />&gt;&gt;&gt;&gt; START, MigrateStatusVDSCommand(HostName = ginger.local.systea.fr,<br />&gt;&gt;&gt;&gt; MigrateStatusVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='d569c2dd-8f30-4878-8aea-858db285cf69',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}), log id: 7a25c281<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,174+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.MigrateStatusVDSCommand] (ForkJoinPool-1-worker-4) []<br />&gt;&gt;&gt;&gt; FINISH, MigrateStatusVDSCommand, log id: 7a25c281<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,194+01 INFO [org.ovirt.engine.core.dal.db<br />&gt;&gt;&gt;&gt; broker.auditloghandling.AuditLogDirector] (ForkJoinPool-1-worker-4) []<br />&gt;&gt;&gt;&gt; EVENT_ID: VM_MIGRATION_DONE(63), Correlation ID:<br />&gt;&gt;&gt;&gt; 2f712024-5982-46a8-82c8-fd8293da5725, Job ID:<br />&gt;&gt;&gt;&gt; 4bd19aa9-cc99-4d02-884e-5a1e857a7738, Call Stack: null, Custom ID:<br />&gt;&gt;&gt;&gt; null, Custom Event ID: -1, Message: Migration completed (VM:<br />&gt;&gt;&gt;&gt; Oracle_SECONDARY, Source: victor.local.systea.fr, Destination:<br />&gt;&gt;&gt;&gt; ginger.local.systea.fr, Duration: 11 seconds, Total: 11 seconds, Actual<br />&gt;&gt;&gt;&gt; downtime: (N/A))<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,201+01 INFO [org.ovirt.engine.core.bll.MigrateVmToServerCommand]<br />&gt;&gt;&gt;&gt; (ForkJoinPool-1-worker-4) [] Lock freed to object<br />&gt;&gt;&gt;&gt; 'EngineLock:{exclusiveLocks='[3f57e669-5e4c-4d10-85cc-d573004a099d=VM]',<br />&gt;&gt;&gt;&gt; sharedLocks=''}'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,203+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.FullListVDSCommand] (ForkJoinPool-1-worker-4) [] START,<br />&gt;&gt;&gt;&gt; FullListVDSCommand(HostName = ginger.local.systea.fr,<br />&gt;&gt;&gt;&gt; FullListVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='d569c2dd-8f30-4878-8aea-858db285cf69',<br />&gt;&gt;&gt;&gt; vmIds='[3f57e669-5e4c-4d10-85cc-d573004a099d]'}), log id: 7cc65298<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,254+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.FullListVDSCommand] (ForkJoinPool-1-worker-4) [] FINISH,<br />&gt;&gt;&gt;&gt; FullListVDSCommand, return: [{acpiEnable=true,<br />&gt;&gt;&gt;&gt; emulatedMachine=pc-i440fx-rhel7.3.0, afterMigrationStatus=,<br />&gt;&gt;&gt;&gt; tabletEnable=true, pid=18748, guestDiskMapping={},<br />&gt;&gt;&gt;&gt; transparentHugePages=true, timeOffset=0, cpuType=Nehalem, smp=2,<br />&gt;&gt;&gt;&gt; guestNumaNodes=[Ljava.lang.Object;@760085fd,<br />&gt;&gt;&gt;&gt; custom={device_fbddd528-7d93-49c6-a286-180e021cb274device_87<br />&gt;&gt;&gt;&gt; 9c93ab-4df1-435c-af02-565039fcc254=VmDevice:{id='VmDeviceId:<br />&gt;&gt;&gt;&gt; {deviceId='879c93ab-4df1-435c-af02-565039fcc254',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='unix',<br />&gt;&gt;&gt;&gt; type='CHANNEL', bootOrder='0', specParams='[]', address='{bus=0,<br />&gt;&gt;&gt;&gt; controller=0, type=virtio-serial, port=1}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='channel0',<br />&gt;&gt;&gt;&gt; customProperties='[]', snapshotId='null', logicalName='null',<br />&gt;&gt;&gt;&gt; hostDevice='null'}, device_fbddd528-7d93-49c6-a286<br />&gt;&gt;&gt;&gt; -180e021cb274device_879c93ab-4df1-435c-af02-565039fcc254devi<br />&gt;&gt;&gt;&gt; ce_8945f61a-abbe-4156-8485-a4aa6f1908dbdevice_017b5e59-01c4-<br />&gt;&gt;&gt;&gt; 4aac-bf0c-b5d9557284d6=VmDevice:{id='VmDeviceId:{deviceId='0<br />&gt;&gt;&gt;&gt; 17b5e59-01c4-4aac-bf0c-b5d9557284d6', vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}',<br />&gt;&gt;&gt;&gt; device='tablet', type='UNKNOWN', bootOrder='0', specParams='[]',<br />&gt;&gt;&gt;&gt; address='{bus=0, type=usb, port=1}', managed='false', plugged='true',<br />&gt;&gt;&gt;&gt; readOnly='false', deviceAlias='input0', customProperties='[]',<br />&gt;&gt;&gt;&gt; snapshotId='null', logicalName='null', hostDevice='null'},<br />&gt;&gt;&gt;&gt; device_fbddd528-7d93-49c6-a286-180e021cb274=VmDevice:{id='Vm<br />&gt;&gt;&gt;&gt; DeviceId:{deviceId='fbddd528-7d93-49c6-a286-180e021cb274',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='ide',<br />&gt;&gt;&gt;&gt; type='CONTROLLER', bootOrder='0', specParams='[]', address='{slot=0x01,<br />&gt;&gt;&gt;&gt; bus=0x00, domain=0x0000, type=pci, function=0x1}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='ide', customProperties='[]',<br />&gt;&gt;&gt;&gt; snapshotId='null', logicalName='null', hostDevice='null'},<br />&gt;&gt;&gt;&gt; device_fbddd528-7d93-49c6-a286-180e021cb274device_879c93ab-4<br />&gt;&gt;&gt;&gt; df1-435c-af02-565039fcc254device_8945f61a-abbe-4156-8485-a4a<br />&gt;&gt;&gt;&gt; a6f1908db=VmDevice:{id='VmDeviceId:{deviceId='8945f61a-abbe-4156-8485-a4aa6f1908db',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='unix',<br />&gt;&gt;&gt;&gt; type='CHANNEL', bootOrder='0', specParams='[]', address='{bus=0,<br />&gt;&gt;&gt;&gt; controller=0, type=virtio-serial, port=2}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='channel1',<br />&gt;&gt;&gt;&gt; customProperties='[]', snapshotId='null', logicalName='null',<br />&gt;&gt;&gt;&gt; hostDevice='null'}}, vmType=kvm, memSize=8192, smpCoresPerSocket=1,<br />&gt;&gt;&gt;&gt; vmName=Oracle_SECONDARY, nice=0, status=Up, maxMemSize=32768,<br />&gt;&gt;&gt;&gt; bootMenuEnable=false, vmId=3f57e669-5e4c-4d10-85cc-d573004a099d,<br />&gt;&gt;&gt;&gt; numOfIoThreads=2, smpThreadsPerCore=1, smartcardEnable=false,<br />&gt;&gt;&gt;&gt; maxMemSlots=16, kvmEnable=true, pitReinjection=false,<br />&gt;&gt;&gt;&gt; displayNetwork=ovirtmgmt, devices=[Ljava.lang.Object;@2e4d3dd3,<br />&gt;&gt;&gt;&gt; memGuaranteedSize=8192, maxVCpus=16, clientIp=, statusTime=4304259600<br />&gt;&gt;&gt;&gt; &lt;(430)%20425-9600&gt;, display=vnc}], log id: 7cc65298<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,257+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmDevicesMonitoring] (ForkJoinPool-1-worker-4) []<br />&gt;&gt;&gt;&gt; Received a vnc Device without an address when processing VM<br />&gt;&gt;&gt;&gt; 3f57e669-5e4c-4d10-85cc-d573004a099d devices, skipping device:<br />&gt;&gt;&gt;&gt; {device=vnc, specParams={displayNetwork=ovirtmgmt, keyMap=fr,<br />&gt;&gt;&gt;&gt; displayIp=192.168.0.5}, type=graphics, deviceId=813957b1-446a-4e88-9e40-9fe76d2c442d,<br />&gt;&gt;&gt;&gt; port=5901}<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:42,257+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmDevicesMonitoring] (ForkJoinPool-1-worker-4) []<br />&gt;&gt;&gt;&gt; Received a lease Device without an address when processing VM<br />&gt;&gt;&gt;&gt; 3f57e669-5e4c-4d10-85cc-d573004a099d devices, skipping device:<br />&gt;&gt;&gt;&gt; {lease_id=3f57e669-5e4c-4d10-85cc-d573004a099d,<br />&gt;&gt;&gt;&gt; sd_id=1e51cecc-eb2e-47d0-b185-920fdc7afa16,<br />&gt;&gt;&gt;&gt; deviceId={uuid=a09949aa-5642-4b6d-94a4-8b0d04257be5}, offset=6291456,<br />&gt;&gt;&gt;&gt; device=lease, path=/rhev/data-center/mnt/glusterSD/192.168.0.6:<br />&gt;&gt;&gt;&gt; _DATA01/1e51cecc-eb2e-47d0-b185-920fdc7afa16/dom_md/xleases, type=lease}<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:46,260+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.FullListVDSCommand] (DefaultQuartzScheduler5) [7fcb200a]<br />&gt;&gt;&gt;&gt; FINISH, FullListVDSCommand, return: [{acpiEnable=true,<br />&gt;&gt;&gt;&gt; emulatedMachine=pc-i440fx-rhel7.3.0, afterMigrationStatus=,<br />&gt;&gt;&gt;&gt; tabletEnable=true, pid=18748, guestDiskMapping={0QEMU_QEMU_H<br />&gt;&gt;&gt;&gt; ARDDISK_d890fa68-fba4-4f49-9={name=/dev/sda},<br />&gt;&gt;&gt;&gt; QEMU_DVD-ROM_QM00003={name=/dev/sr0}}, transparentHugePages=true,<br />&gt;&gt;&gt;&gt; timeOffset=0, cpuType=Nehalem, smp=2, guestNumaNodes=[Ljava.lang.Obj<br />&gt;&gt;&gt;&gt; ect;@77951faf, custom={device_fbddd528-7d93-4<br />&gt;&gt;&gt;&gt; 9c6-a286-180e021cb274device_879c93ab-4df1-435c-af02-565039fc<br />&gt;&gt;&gt;&gt; c254=VmDevice:{id='VmDeviceId:{deviceId='879c93ab-4df1-435c-af02-565039fcc254',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='unix',<br />&gt;&gt;&gt;&gt; type='CHANNEL', bootOrder='0', specParams='[]', address='{bus=0,<br />&gt;&gt;&gt;&gt; controller=0, type=virtio-serial, port=1}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='channel0',<br />&gt;&gt;&gt;&gt; customProperties='[]', snapshotId='null', logicalName='null',<br />&gt;&gt;&gt;&gt; hostDevice='null'}, device_fbddd528-7d93-49c6-a286<br />&gt;&gt;&gt;&gt; -180e021cb274device_879c93ab-4df1-435c-af02-565039fcc254devi<br />&gt;&gt;&gt;&gt; ce_8945f61a-abbe-4156-8485-a4aa6f1908dbdevice_017b5e59-01c4-<br />&gt;&gt;&gt;&gt; 4aac-bf0c-b5d9557284d6=VmDevice:{id='VmDeviceId:{deviceId='0<br />&gt;&gt;&gt;&gt; 17b5e59-01c4-4aac-bf0c-b5d9557284d6', vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}',<br />&gt;&gt;&gt;&gt; device='tablet', type='UNKNOWN', bootOrder='0', specParams='[]',<br />&gt;&gt;&gt;&gt; address='{bus=0, type=usb, port=1}', managed='false', plugged='true',<br />&gt;&gt;&gt;&gt; readOnly='false', deviceAlias='input0', customProperties='[]',<br />&gt;&gt;&gt;&gt; snapshotId='null', logicalName='null', hostDevice='null'},<br />&gt;&gt;&gt;&gt; device_fbddd528-7d93-49c6-a286-180e021cb274=VmDevice:{id='Vm<br />&gt;&gt;&gt;&gt; DeviceId:{deviceId='fbddd528-7d93-49c6-a286-180e021cb274',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='ide',<br />&gt;&gt;&gt;&gt; type='CONTROLLER', bootOrder='0', specParams='[]', address='{slot=0x01,<br />&gt;&gt;&gt;&gt; bus=0x00, domain=0x0000, type=pci, function=0x1}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='ide', customProperties='[]',<br />&gt;&gt;&gt;&gt; snapshotId='null', logicalName='null', hostDevice='null'},<br />&gt;&gt;&gt;&gt; device_fbddd528-7d93-49c6-a286-180e021cb274device_879c93ab-4<br />&gt;&gt;&gt;&gt; df1-435c-af02-565039fcc254device_8945f61a-abbe-4156-8485-a4a<br />&gt;&gt;&gt;&gt; a6f1908db=VmDevice:{id='VmDeviceId:{deviceId='8945f61a-abbe-4156-8485-a4aa6f1908db',<br />&gt;&gt;&gt;&gt; vmId='3f57e669-5e4c-4d10-85cc-d573004a099d'}', device='unix',<br />&gt;&gt;&gt;&gt; type='CHANNEL', bootOrder='0', specParams='[]', address='{bus=0,<br />&gt;&gt;&gt;&gt; controller=0, type=virtio-serial, port=2}', managed='false',<br />&gt;&gt;&gt;&gt; plugged='true', readOnly='false', deviceAlias='channel1',<br />&gt;&gt;&gt;&gt; customProperties='[]', snapshotId='null', logicalName='null',<br />&gt;&gt;&gt;&gt; hostDevice='null'}}, vmType=kvm, memSize=8192, smpCoresPerSocket=1,<br />&gt;&gt;&gt;&gt; vmName=Oracle_SECONDARY, nice=0, status=Up, maxMemSize=32768,<br />&gt;&gt;&gt;&gt; bootMenuEnable=false, vmId=3f57e669-5e4c-4d10-85cc-d573004a099d,<br />&gt;&gt;&gt;&gt; numOfIoThreads=2, smpThreadsPerCore=1, smartcardEnable=false,<br />&gt;&gt;&gt;&gt; maxMemSlots=16, kvmEnable=true, pitReinjection=false,<br />&gt;&gt;&gt;&gt; displayNetwork=ovirtmgmt, devices=[Ljava.lang.Object;@286410fd,<br />&gt;&gt;&gt;&gt; memGuaranteedSize=8192, maxVCpus=16, clientIp=, statusTime=4304263620<br />&gt;&gt;&gt;&gt; &lt;(430)%20426-3620&gt;, display=vnc}], log id: 58cdef4c<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:46,267+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmDevicesMonitoring] (DefaultQuartzScheduler5)<br />&gt;&gt;&gt;&gt; [7fcb200a] Received a vnc Device without an address when processing VM<br />&gt;&gt;&gt;&gt; 3f57e669-5e4c-4d10-85cc-d573004a099d devices, skipping device:<br />&gt;&gt;&gt;&gt; {device=vnc, specParams={displayNetwork=ovirtmgmt, keyMap=fr,<br />&gt;&gt;&gt;&gt; displayIp=192.168.0.5}, type=graphics, deviceId=813957b1-446a-4e88-9e40-9fe76d2c442d,<br />&gt;&gt;&gt;&gt; port=5901}<br />&gt;&gt;&gt;&gt; 2018-02-12 16:46:46,268+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmDevicesMonitoring] (DefaultQuartzScheduler5)<br />&gt;&gt;&gt;&gt; [7fcb200a] Received a lease Device without an address when processing VM<br />&gt;&gt;&gt;&gt; 3f57e669-5e4c-4d10-85cc-d573004a099d devices, skipping device:<br />&gt;&gt;&gt;&gt; {lease_id=3f57e669-5e4c-4d10-85cc-d573004a099d,<br />&gt;&gt;&gt;&gt; sd_id=1e51cecc-eb2e-47d0-b185-920fdc7afa16,<br />&gt;&gt;&gt;&gt; deviceId={uuid=a09949aa-5642-4b6d-94a4-8b0d04257be5}, offset=6291456,<br />&gt;&gt;&gt;&gt; device=lease, path=/rhev/data-center/mnt/glusterSD/192.168.0.6:<br />&gt;&gt;&gt;&gt; _DATA01/1e51cecc-eb2e-47d0-b185-920fdc7afa16/dom_md/xleases, type=lease}<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; For the VM with 2 vdisks we see :<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,112+01 INFO [org.ovirt.engine.core.bll.MigrateVmToServerCommand]<br />&gt;&gt;&gt;&gt; (default task-50) [92b5af33-cb87-4142-b8fe-8b838dd7458e] Lock Acquired<br />&gt;&gt;&gt;&gt; to object 'EngineLock:{exclusiveLocks='[f7d4ec12-627a-4b83-b59e-886400d55474=VM]',<br />&gt;&gt;&gt;&gt; sharedLocks=''}'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,407+01 INFO [org.ovirt.engine.core.bll.MigrateVmToServerCommand]<br />&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-6-thread-49) [92b5af33-cb87-4142-b8fe-8b838dd7458e]<br />&gt;&gt;&gt;&gt; Running command: MigrateVmToServerCommand internal: false. Entities<br />&gt;&gt;&gt;&gt; affected : ID: f7d4ec12-627a-4b83-b59e-886400d55474 Type: VMAction<br />&gt;&gt;&gt;&gt; group MIGRATE_VM with role type USER<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,712+01 INFO [org.ovirt.engine.core.vdsbroker.MigrateVDSCommand]<br />&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-6-thread-49) [92b5af33-cb87-4142-b8fe-8b838dd7458e]<br />&gt;&gt;&gt;&gt; START, MigrateVDSCommand( MigrateVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='d569c2dd-8f30-4878-8aea-858db285cf69',<br />&gt;&gt;&gt;&gt; vmId='f7d4ec12-627a-4b83-b59e-886400d55474', srcHost='192.168.0.5',<br />&gt;&gt;&gt;&gt; dstVdsId='ce3938b1-b23f-4d22-840a-f17d7cd87bb1', dstHost='<br />&gt;&gt;&gt;&gt; 192.168.0.6:54321', migrationMethod='ONLINE', tunnelMigration='false',<br />&gt;&gt;&gt;&gt; migrationDowntime='0', autoConverge='true', migrateCompressed='false',<br />&gt;&gt;&gt;&gt; consoleAddress='null', maxBandwidth='500', enableGuestEvents='true',<br />&gt;&gt;&gt;&gt; maxIncomingMigrations='2', maxOutgoingMigrations='2',<br />&gt;&gt;&gt;&gt; convergenceSchedule='[init=[{name=setDowntime, params=[100]}],<br />&gt;&gt;&gt;&gt; stalling=[{limit=1, action={name=setDowntime, params=[150]}}, {limit=2,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[200]}}, {limit=3,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[300]}}, {limit=4,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[400]}}, {limit=6,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[500]}}, {limit=-1, action={name=abort,<br />&gt;&gt;&gt;&gt; params=[]}}]]'}), log id: 3702a9e0<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,713+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.MigrateBrokerVDSCommand] (org.ovirt.thread.pool-6-thread-49)<br />&gt;&gt;&gt;&gt; [92b5af33-cb87-4142-b8fe-8b838dd7458e] START,<br />&gt;&gt;&gt;&gt; MigrateBrokerVDSCommand(HostName = ginger.local.systea.fr,<br />&gt;&gt;&gt;&gt; MigrateVDSCommandParameters:{runAsync='true',<br />&gt;&gt;&gt;&gt; hostId='d569c2dd-8f30-4878-8aea-858db285cf69',<br />&gt;&gt;&gt;&gt; vmId='f7d4ec12-627a-4b83-b59e-886400d55474', srcHost='192.168.0.5',<br />&gt;&gt;&gt;&gt; dstVdsId='ce3938b1-b23f-4d22-840a-f17d7cd87bb1', dstHost='<br />&gt;&gt;&gt;&gt; 192.168.0.6:54321', migrationMethod='ONLINE', tunnelMigration='false',<br />&gt;&gt;&gt;&gt; migrationDowntime='0', autoConverge='true', migrateCompressed='false',<br />&gt;&gt;&gt;&gt; consoleAddress='null', maxBandwidth='500', enableGuestEvents='true',<br />&gt;&gt;&gt;&gt; maxIncomingMigrations='2', maxOutgoingMigrations='2',<br />&gt;&gt;&gt;&gt; convergenceSchedule='[init=[{name=setDowntime, params=[100]}],<br />&gt;&gt;&gt;&gt; stalling=[{limit=1, action={name=setDowntime, params=[150]}}, {limit=2,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[200]}}, {limit=3,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[300]}}, {limit=4,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[400]}}, {limit=6,<br />&gt;&gt;&gt;&gt; action={name=setDowntime, params=[500]}}, {limit=-1, action={name=abort,<br />&gt;&gt;&gt;&gt; params=[]}}]]'}), log id: 1840069c<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,724+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.vdsbroker.MigrateBrokerVDSCommand] (org.ovirt.thread.pool-6-thread-49)<br />&gt;&gt;&gt;&gt; [92b5af33-cb87-4142-b8fe-8b838dd7458e] FINISH, MigrateBrokerVDSCommand,<br />&gt;&gt;&gt;&gt; log id: 1840069c<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,732+01 INFO [org.ovirt.engine.core.vdsbroker.MigrateVDSCommand]<br />&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-6-thread-49) [92b5af33-cb87-4142-b8fe-8b838dd7458e]<br />&gt;&gt;&gt;&gt; FINISH, MigrateVDSCommand, return: MigratingFrom, log id: 3702a9e0<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:06,753+01 INFO [org.ovirt.engine.core.dal.db<br />&gt;&gt;&gt;&gt; broker.auditloghandling.AuditLogDirector] (org.ovirt.thread.pool-6-thread-49)<br />&gt;&gt;&gt;&gt; [92b5af33-cb87-4142-b8fe-8b838dd7458e] EVENT_ID:<br />&gt;&gt;&gt;&gt; VM_MIGRATION_START(62), Correlation ID: 92b5af33-cb87-4142-b8fe-8b838dd7458e,<br />&gt;&gt;&gt;&gt; Job ID: f4f54054-f7c8-4481-8eda-d5a15c383061, Call Stack: null, Custom<br />&gt;&gt;&gt;&gt; ID: null, Custom Event ID: -1, Message: Migration started (VM:<br />&gt;&gt;&gt;&gt; Oracle_PRIMARY, Source: ginger.local.systea.fr, Destination:<br />&gt;&gt;&gt;&gt; victor.local.systea.fr, User: admin@internal-authz).<br />&gt;&gt;&gt;&gt; ...<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:16,453+01 INFO [org.ovirt.engine.core.vdsbro<br />&gt;&gt;&gt;&gt; ker.monitoring.VmsStatisticsFetcher] (DefaultQuartzScheduler4)<br />&gt;&gt;&gt;&gt; [162a5bc3] Fetched 2 VMs from VDS 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1'<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:16,455+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (DefaultQuartzScheduler4) [162a5bc3] VM 'f7d4ec12-627a-4b83-b59e-886400d55474'(Oracle_PRIMARY)<br />&gt;&gt;&gt;&gt; was unexpectedly detected as 'MigratingTo' on VDS<br />&gt;&gt;&gt;&gt; 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1'(victor.local.systea.fr)<br />&gt;&gt;&gt;&gt; (expected on 'd569c2dd-8f30-4878-8aea-858db285cf69')<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:16,455+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (DefaultQuartzScheduler4) [162a5bc3] VM 'f7d4ec12-627a-4b83-b59e-886400d55474'<br />&gt;&gt;&gt;&gt; is migrating to VDS 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1'(<br />&gt;&gt;&gt;&gt; victor.local.systea.fr) ignoring it in the refresh until migration is<br />&gt;&gt;&gt;&gt; done<br />&gt;&gt;&gt;&gt; ...<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:31,484+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (DefaultQuartzScheduler5) [11a7619a] VM 'f7d4ec12-627a-4b83-b59e-886400d55474'(Oracle_PRIMARY)<br />&gt;&gt;&gt;&gt; was unexpectedly detected as 'MigratingTo' on VDS<br />&gt;&gt;&gt;&gt; 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1'(victor.local.systea.fr)<br />&gt;&gt;&gt;&gt; (expected on 'd569c2dd-8f30-4878-8aea-858db285cf69')<br />&gt;&gt;&gt;&gt; 2018-02-12 16:49:31,484+01 INFO [org.ovirt.engine.core.vdsbroker.monitoring.VmAnalyzer]<br />&gt;&gt;&gt;&gt; (DefaultQuartzScheduler5) [11a7619a] VM 'f7d4ec12-627a-4b83-b59e-886400d55474'<br />&gt;&gt;&gt;&gt; is migrating to VDS 'ce3938b1-b23f-4d22-840a-f17d7cd87bb1'(<br />&gt;&gt;&gt;&gt; victor.local.systea.fr) ignoring it in the refresh until migration is<br />&gt;&gt;&gt;&gt; done<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; and so on, last lines repeated indefinitly for hours since we poweroff<br />&gt;&gt;&gt;&gt; the VM...<br />&gt;&gt;&gt;&gt; Is this something known ? Any idea about that ?<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; Thanks<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; Ovirt 4.1.6, updated last at feb-13. Gluster 3.12.1.<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; --<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; Cordialement,<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; *Frank Soyer *<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;&gt; _______________________________________________<br />&gt;&gt;&gt;&gt; Users mailing list<br />&gt;&gt;&gt;&gt; Users@ovirt.org<br />&gt;&gt;&gt;&gt; http://lists.ovirt.org/mailman/listinfo/users<br />&gt;&gt;&gt;&gt;<br />&gt;&gt;&gt;<br />&gt;&gt;&gt;<br />&gt;&gt;&gt;<br />&gt;&gt;&gt;<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt;<br />&nbsp;</blockquote><br />&nbsp;</html>