<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif;">
<div>
<div>Hi,</div>
<div><br>
</div>
<div>We now created the new Cluster based on CentOS 7.1 which went fine, then we migrated 2 machines – no problem, we have Live Migration (back), Live Merge and so on, all good.</div>
<div><br>
</div>
<div>But some additional machine have problems starting on the new cluster and this happens</div>
<div><br>
</div>
<div><br>
</div>
<div>Grep for the Thread in vdsm.log</div>
<div>&lt;— snip —&gt;</div>
<div><br>
</div>
<div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:21,999::vm::2264::vm.Vm::(_startUnderlyingVm) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::Start</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,003::vm::2268::vm.Vm::(_startUnderlyingVm) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::_ongoingCreations acquired</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,008::vm::3261::vm.Vm::(_run) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::VM wrapper has started</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,021::task::595::Storage.TaskManager.Task::(_updateState) Task=`2bc7fe9c-204a-4ab7-a116-f7fbba32bd34`::moving from state init -&gt; state preparing</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,028::logUtils::44::dispatcher::(wrapper) Run and protect: getVolumeSize(sdUUID=u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', spUUID=u'0f954891-b1cd-4f09-99ae-75d404d95f9d', imgUUID=u'eae65249-e5e8-49e7-90a0-c7385e80e6ca',
 volUUID=u'8791f6ec-a6ef-484d-bd5a-730b22b19250', options=None)</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,069::logUtils::47::dispatcher::(wrapper) Run and protect: getVolumeSize, Return response: {'truesize': '2696552448', 'apparentsize': '2696609792'}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,069::task::1191::Storage.TaskManager.Task::(prepare) Task=`2bc7fe9c-204a-4ab7-a116-f7fbba32bd34`::finished: {'truesize': '2696552448', 'apparentsize': '2696609792'}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,069::task::595::Storage.TaskManager.Task::(_updateState) Task=`2bc7fe9c-204a-4ab7-a116-f7fbba32bd34`::moving from state preparing -&gt; state finished</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,070::resourceManager::940::Storage.ResourceManager.Owner::(releaseAll) Owner.releaseAll requests {} resources {}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,070::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,070::task::993::Storage.TaskManager.Task::(_decref) Task=`2bc7fe9c-204a-4ab7-a116-f7fbba32bd34`::ref 0 aborting False</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,071::task::595::Storage.TaskManager.Task::(_updateState) Task=`c508cf8f-9f02-43a6-a45d-2b3f1d7e66be`::moving from state init -&gt; state preparing</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,071::logUtils::44::dispatcher::(wrapper) Run and protect: getVolumeSize(sdUUID=u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', spUUID=u'0f954891-b1cd-4f09-99ae-75d404d95f9d', imgUUID=u'967d966c-3653-4ff6-9299-2fb5b4197c37',
 volUUID=u'99b085e6-6662-43ef-8ab4-40bc00e82460', options=None)</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,086::logUtils::47::dispatcher::(wrapper) Run and protect: getVolumeSize, Return response: {'truesize': '1110773760', 'apparentsize': '1110835200'}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,087::task::1191::Storage.TaskManager.Task::(prepare) Task=`c508cf8f-9f02-43a6-a45d-2b3f1d7e66be`::finished: {'truesize': '1110773760', 'apparentsize': '1110835200'}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,087::task::595::Storage.TaskManager.Task::(_updateState) Task=`c508cf8f-9f02-43a6-a45d-2b3f1d7e66be`::moving from state preparing -&gt; state finished</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,087::resourceManager::940::Storage.ResourceManager.Owner::(releaseAll) Owner.releaseAll requests {} resources {}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,088::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,088::task::993::Storage.TaskManager.Task::(_decref) Task=`c508cf8f-9f02-43a6-a45d-2b3f1d7e66be`::ref 0 aborting False</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,088::clientIF::335::vds::(prepareVolumePath) prepared volume path:</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,089::task::595::Storage.TaskManager.Task::(_updateState) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::moving from state init -&gt; state preparing</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:22,089::logUtils::44::dispatcher::(wrapper) Run and protect: prepareImage(sdUUID=u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', spUUID=u'0f954891-b1cd-4f09-99ae-75d404d95f9d', imgUUID=u'eae65249-e5e8-49e7-90a0-c7385e80e6ca',
 leafUUID=u'8791f6ec-a6ef-484d-bd5a-730b22b19250')</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,090::resourceManager::198::Storage.ResourceManager.Request::(__init__) ResName=`Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4`ReqID=`2ba5bd10-3b98-44fa-9c90-8a2ade3261dc`::Request was made in '/usr/share/vdsm/storage/hsm.py'
 line '3226' at 'prepareImage'</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,090::resourceManager::542::Storage.ResourceManager::(registerResource) Trying to register resource 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4' for lock type 'shared'</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,091::resourceManager::601::Storage.ResourceManager::(registerResource) Resource 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4' is free. Now locking as 'shared' (1 active user)</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,091::resourceManager::238::Storage.ResourceManager.Request::(grant) ResName=`Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4`ReqID=`2ba5bd10-3b98-44fa-9c90-8a2ade3261dc`::Granted request</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,092::task::827::Storage.TaskManager.Task::(resourceAcquired) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::_resourcesAcquired: Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4 (shared)</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:22,092::task::993::Storage.TaskManager.Task::(_decref) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::ref 1 aborting False</div>
<div>vdsm/vdsm.log:Thread-5475::ERROR::2015-05-21 18:27:24,107::task::866::Storage.TaskManager.Task::(_setError) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::Unexpected error</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,108::task::885::Storage.TaskManager.Task::(_run) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::Task._run: 7ca2f743-09b1-4499-b9e4-5f640002a2bc (u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', u'0f954891-b1cd-4f09-99ae-75d404d95f9d',
 u'eae65249-e5e8-49e7-90a0-c7385e80e6ca', u'8791f6ec-a6ef-484d-bd5a-730b22b19250') {} failed - stopping task</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,108::task::1217::Storage.TaskManager.Task::(stop) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::stopping in state preparing (force False)</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,108::task::993::Storage.TaskManager.Task::(_decref) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::ref 1 aborting True</div>
<div>vdsm/vdsm.log:Thread-5475::INFO::2015-05-21 18:27:24,109::task::1171::Storage.TaskManager.Task::(prepare) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::aborting: Task is aborted: 'Volume does not exist' - code 201</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,109::task::1176::Storage.TaskManager.Task::(prepare) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::Prepare: aborted: Volume does not exist</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,109::task::993::Storage.TaskManager.Task::(_decref) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::ref 0 aborting True</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,110::task::928::Storage.TaskManager.Task::(_doAbort) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::Task._doAbort: force False</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,110::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,110::task::595::Storage.TaskManager.Task::(_updateState) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::moving from state preparing -&gt; state aborting</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,110::task::550::Storage.TaskManager.Task::(__state_aborting) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::_aborting: recover policy none</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,111::task::595::Storage.TaskManager.Task::(_updateState) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::moving from state aborting -&gt; state failed</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,111::resourceManager::940::Storage.ResourceManager.Owner::(releaseAll) Owner.releaseAll requests {} resources {u'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4': &lt; ResourceRef 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4',
 isValid: 'True' obj: 'None'&gt;}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,111::resourceManager::977::Storage.ResourceManager.Owner::(cancelAll) Owner.cancelAll requests {}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,112::resourceManager::616::Storage.ResourceManager::(releaseResource) Trying to release resource 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4'</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,112::resourceManager::635::Storage.ResourceManager::(releaseResource) Released resource 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4' (0 active users)</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,112::resourceManager::641::Storage.ResourceManager::(releaseResource) Resource 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4' is free, finding out if anyone is waiting for it.</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,113::resourceManager::649::Storage.ResourceManager::(releaseResource) No one is waiting for resource 'Storage.276e9ba7-e19a-49c5-8ad7-26711934d5e4', Clearing records.</div>
<div>vdsm/vdsm.log:Thread-5475::ERROR::2015-05-21 18:27:24,113::dispatcher::76::Storage.Dispatcher::(wrapper) {'status': {'message': &quot;Volume does not exist: (u'8791f6ec-a6ef-484d-bd5a-730b22b19250',)&quot;, 'code': 201}}</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,114::vm::2294::vm.Vm::(_startUnderlyingVm) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::_ongoingCreations released</div>
<div>vdsm/vdsm.log:Thread-5475::ERROR::2015-05-21 18:27:24,114::vm::2331::vm.Vm::(_startUnderlyingVm) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::The vm start process failed</div>
<div>vdsm/vdsm.log:Thread-5475::DEBUG::2015-05-21 18:27:24,117::vm::2786::vm.Vm::(setDownStatus) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::Changed state to Down: Bad volume specification {u'index': 0, u'iface': u'virtio', u'type': u'disk', u'format': u'cow',
 u'bootOrder': u'1', u'address': {u'slot': u'0x06', u'bus': u'0x00', u'domain': u'0x0000', u'type': u'pci', u'function': u'0x0'}, u'volumeID': u'8791f6ec-a6ef-484d-bd5a-730b22b19250', 'apparentsize': '2696609792', u'imageID': u'eae65249-e5e8-49e7-90a0-c7385e80e6ca',
 u'specParams': {}, u'readonly': u'false', u'domainID': u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', 'reqsize': '0', u'deviceId': u'eae65249-e5e8-49e7-90a0-c7385e80e6ca', 'truesize': '2696552448', u'poolID': u'0f954891-b1cd-4f09-99ae-75d404d95f9d', u'device': u'disk',
 u'shared': u'false', u'propagateErrors': u'off', u'optional': u'false'} (code=1)</div>
</div>
<div><br>
</div>
<div>&lt;— snip —&gt;</div>
<div><br>
</div>
<div><br>
</div>
<div>Additionally i can find this</div>
<div><br>
</div>
<div>—</div>
<div>
<div>Thread-5475::ERROR::2015-05-21 18:27:24,107::task::866::Storage.TaskManager.Task::(_setError) Task=`7ca2f743-09b1-4499-b9e4-5f640002a2bc`::Unexpected error</div>
<div>Traceback (most recent call last):</div>
<div>&nbsp; File &quot;/usr/share/vdsm/storage/task.py&quot;, line 873, in _run</div>
<div>&nbsp; &nbsp; return fn(*args, **kargs)</div>
<div>&nbsp; File &quot;/usr/share/vdsm/logUtils.py&quot;, line 45, in wrapper</div>
<div>&nbsp; &nbsp; res = f(*args, **kwargs)</div>
<div>&nbsp; File &quot;/usr/share/vdsm/storage/hsm.py&quot;, line 3235, in prepareImage</div>
<div>&nbsp; &nbsp; raise se.VolumeDoesNotExist(leafUUID)</div>
<div>VolumeDoesNotExist: Volume does not exist: (u'8791f6ec-a6ef-484d-bd5a-730b22b19250’,)</div>
</div>
<div><br>
</div>
<div>—</div>
<div><br>
</div>
<div><br>
</div>
<div>—</div>
<div>
<div>Thread-5475::ERROR::2015-05-21 18:27:24,114::vm::2331::vm.Vm::(_startUnderlyingVm) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::The vm start process failed</div>
<div>Traceback (most recent call last):</div>
<div>&nbsp; File &quot;/usr/share/vdsm/virt/vm.py&quot;, line 2271, in _startUnderlyingVm</div>
<div>&nbsp; &nbsp; self._run()</div>
<div>&nbsp; File &quot;/usr/share/vdsm/virt/vm.py&quot;, line 3266, in _run</div>
<div>&nbsp; &nbsp; self.preparePaths(devices[DISK_DEVICES])</div>
<div>&nbsp; File &quot;/usr/share/vdsm/virt/vm.py&quot;, line 2353, in preparePaths</div>
<div>&nbsp; &nbsp; drive['path'] = self.cif.prepareVolumePath(drive, self.id)</div>
<div>&nbsp; File &quot;/usr/share/vdsm/clientIF.py&quot;, line 277, in prepareVolumePath</div>
<div>&nbsp; &nbsp; raise vm.VolumeError(drive)</div>
<div>VolumeError: Bad volume specification {u'index': 0, u'iface': u'virtio', u'type': u'disk', u'format': u'cow', u'bootOrder': u'1', u'address': {u'slot': u'0x06', u'bus': u'0x00', u'domain': u'0x0000', u'type': u'pci', u'function': u'0x0'}, u'volumeID':
 u'8791f6ec-a6ef-484d-bd5a-730b22b19250', 'apparentsize': '2696609792', u'imageID': u'eae65249-e5e8-49e7-90a0-c7385e80e6ca', u'specParams': {}, u'readonly': u'false', u'domainID': u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', 'reqsize': '0', u'deviceId': u'eae65249-e5e8-49e7-90a0-c7385e80e6ca',
 'truesize': '2696552448', u'poolID': u'0f954891-b1cd-4f09-99ae-75d404d95f9d', u'device': u'disk', u'shared': u'false', u'propagateErrors': u'off', u'optional': u'false'}</div>
<div>Thread-5475::DEBUG::2015-05-21 18:27:24,117::vm::2786::vm.Vm::(setDownStatus) vmId=`24bd5074-64fc-4aa0-87cd-5de3dd7b50d1`::Changed state to Down: Bad volume specification {u'index': 0, u'iface': u'virtio', u'type': u'disk', u'format': u'cow', u'bootOrder':
 u'1', u'address': {u'slot': u'0x06', u'bus': u'0x00', u'domain': u'0x0000', u'type': u'pci', u'function': u'0x0'}, u'volumeID': u'8791f6ec-a6ef-484d-bd5a-730b22b19250', 'apparentsize': '2696609792', u'imageID': u'eae65249-e5e8-49e7-90a0-c7385e80e6ca', u'specParams':
 {}, u'readonly': u'false', u'domainID': u'276e9ba7-e19a-49c5-8ad7-26711934d5e4', 'reqsize': '0', u'deviceId': u'eae65249-e5e8-49e7-90a0-c7385e80e6ca', 'truesize': '2696552448', u'poolID': u'0f954891-b1cd-4f09-99ae-75d404d95f9d', u'device': u'disk', u'shared':
 u'false', u'propagateErrors': u'off', u'optional': u'false'} (code=1)</div>
</div>
<div>—</div>
<div><br>
</div>
<div>The thing is, if i move that respective VM back to the old Cluster running Fedora 20 with the libvirt from the libvirt-preview repo, then the VM start with no problem.</div>
<div><br>
</div>
<div>That volume ‘8791f6ec-a6ef-484d-bd5a-730b22b19250’ does not exist</div>
<div><br>
</div>
<div>I experienced that problem with several Vms now – OS does not matter, also i check snapshots, there are none, i also tried cloning the VM and then moving it over, no luck either.</div>
<div><br>
</div>
<div>Any ideas where to look ?</div>
<div><br>
</div>
<div>Regards</div>
<div>Soeren&nbsp;</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
<div>
<div id="MAC_OUTLOOK_SIGNATURE"></div>
</div>
</div>
<div><br>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:12pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span>&lt;<a href="mailto:users-bounces@ovirt.org">users-bounces@ovirt.org</a>&gt; on behalf of Soeren Malchow<br>
<span style="font-weight:bold">Date: </span>Wednesday 20 May 2015 15:42<br>
<span style="font-weight:bold">To: </span>&quot;Bloemen, Jurriën&quot;, &quot;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&quot;<br>
<span style="font-weight:bold">Subject: </span>Re: [ovirt-users] Switch from Fedora 20 to CentOS 7.1<br>
</div>
<div><br>
</div>
<div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif;">
<div>
<div>
<div>Great, thanks, that is the plan then</div>
<div>
<div id=""></div>
</div>
</div>
</div>
<div><br>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:12pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span>&lt;<a href="mailto:users-bounces@ovirt.org">users-bounces@ovirt.org</a>&gt; on behalf of &quot;Bloemen, Jurriën&quot;<br>
<span style="font-weight:bold">Date: </span>Wednesday 20 May 2015 15:27<br>
<span style="font-weight:bold">To: </span>&quot;<a href="mailto:users@ovirt.org">users@ovirt.org</a>&quot;<br>
<span style="font-weight:bold">Subject: </span>Re: [ovirt-users] Switch from Fedora 20 to CentOS 7.1<br>
</div>
<div><br>
</div>
<div>
<div bgcolor="#FFFFFF" text="#000000"><font face="Liberation Sans">Hi Soeren,<br>
<br>
Yes! That works perfectly. Did it myself several times.<br>
<br>
Regards,<br>
<br>
Jurriën<br>
</font><br>
<div class="moz-cite-prefix">On 20-05-15 14:19, Soeren Malchow wrote:<br>
</div>
<blockquote cite="mid:D01DC342-9EC5-42E7-9AB1-02731F221546@mcon.net" type="cite">
<pre wrap="">Hi Vered,

Thanks for the quick answer, ok, understood

Then i could create a new Cluster in the same datacenter with newly installed hosts and then migrate the machines through shutting them down in the old cluster and then starting them in the new cluster, only thing i loose is the live migration

Regards
Soeren 



On 20/05/15 14:04, &quot;Vered Volansky&quot; <a class="moz-txt-link-rfc2396E" href="mailto:vered@redhat.com">&lt;vered@redhat.com&gt;</a> wrote:

</pre>
<blockquote type="cite">
<pre wrap="">Hi Soeren,

oVirt Clusters support one host distribution (all hosts must be of the same distribution).
If the cluster is empty at one point, you can add a host of a different distribution than the cluster occupied before.
But there can't be two type of distributions at the same time in one cluster.

Regards,
Vered

----- Original Message -----
</pre>
<blockquote type="cite">
<pre wrap="">From: &quot;Soeren Malchow&quot; <a class="moz-txt-link-rfc2396E" href="mailto:soeren.malchow@mcon.net">&lt;soeren.malchow@mcon.net&gt;</a>
To: <a class="moz-txt-link-abbreviated" href="mailto:users@ovirt.org">users@ovirt.org</a>
Sent: Wednesday, May 20, 2015 2:58:11 PM
Subject: [ovirt-users] Switch from Fedora 20 to CentOS 7.1

Dear all,

Would it be possible to switch from fedora 20 to centos 7.1 (as far as i
understood it has live merge support now) within one cluster, meaning


    * take out one compute host
    * Reinstall that compute host with Centos 7.1
    * Do a hosted-engine —deploy
    * Migrate VM to the CentOS 7.1 host
    * Take the next fedora host and reinstall

Any experiences, recommendations or remarks on that ?

Regards
Soeren

_______________________________________________
Users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Users@ovirt.org">Users@ovirt.org</a><a class="moz-txt-link-freetext" href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a></pre>
</blockquote>
</blockquote>
<pre wrap="">_______________________________________________
Users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Users@ovirt.org">Users@ovirt.org</a><a class="moz-txt-link-freetext" href="http://lists.ovirt.org/mailman/listinfo/users">http://lists.ovirt.org/mailman/listinfo/users</a></pre>
</blockquote>
<br>
This message (including any attachments) may contain information that is privileged or confidential. If you are not the intended recipient, please notify the sender and delete this email immediately from your systems and destroy all copies of it. You may not,
 directly or indirectly, use, disclose, distribute, print or copy this email or any part of it if you are not the intended recipient
</div>
</div>
</span></div>
</div>
</span>
</body>
</html>