<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 12pt;
font-family:Calibri
}
--></style></head>
<body class='hmmessage'><div dir='ltr'>Hi Joshua,<br><br><div><hr id="stopSpelling">Date: Sat, 15 Mar 2014 02:32:59 -0400<br>From: josh@wrale.com<br>To: users@ovirt.org<br>Subject: [Users] Post-Install Engine VM Changes Feasible?<br><br><div dir="ltr"><div><div>Hi,<br><br>I'm in the process of installing 3.4 RC(2?) on Fedora 19.&nbsp; I'm using hosted engine, introspective GlusterFS+keepalived+NFS ala [1], across six nodes.<br><br></div>I have a layered networking topology ((V)LANs for public, internal, storage, compute and ipmi).&nbsp; I am comfortable doing the bridging for each interface myself via /etc/sysconfig/network-scripts/ifcfg-*.&nbsp; <br>
<br></div><div>Here's my desired topology: <a href="http://www.asciiflow.com/#Draw6325992559863447154" target="_blank">http://www.asciiflow.com/#Draw6325992559863447154</a><br><br></div><div>Here's my keepalived setup: <a href="https://gist.github.com/josh-at-knoesis/98618a16418101225726" target="_blank">https://gist.github.com/josh-at-knoesis/98618a16418101225726</a><br>
</div><div><br></div><div>I'm writing a lot of documentation of the many steps I'm taking.&nbsp; I hope to eventually release a distributed introspective all-in-one (including distributed storage) guide.&nbsp; <br></div><div>
<br>Looking at <a href="http://vm.conf.in" target="_blank">vm.conf.in</a>, it looks like I'd by default end up with one interface on my engine, probably on my internal VLAN, as that's where I'd like the control traffic to flow.&nbsp; I definitely could do NAT, but I'd be most happy to see the engine have a presence on all of the LANs, if for no other reason than because I want to send backups directly over the storage VLAN.&nbsp; <br>
<br></div>I'll cut to it:&nbsp; I believe I could successfully alter the vdsm template (<a href="http://vm.conf.in" target="_blank">vm.conf.in</a>) to give me the extra interfaces I require.&nbsp; It hit me, however, that I could just take the defaults for the initial install.&nbsp; Later, I think I'll be able to come back with virsh and make my changes to the gracefully disabled VM.&nbsp; Is this true? <br>
<br><div><div>[1] <a href="http://www.andrewklau.com/ovirt-hosted-engine-with-3-4-0-nightly/" target="_blank">http://www.andrewklau.com/ovirt-hosted-engine-with-3-4-0-nightly/</a><br><br></div><div>Thanks,<br>Joshua<br></div></div></div>
<br><br>I started from the same reference[1] and ended up "statically" modifying vm.conf.in before launching setup, like this:<br><br>cp -a /usr/share/ovirt-hosted-engine-setup/templates/vm.conf.in /usr/share/ovirt-hosted-engine-setup/templates/vm.conf.in.orig<br>cat &lt;&lt; EOM &gt; /usr/share/ovirt-hosted-engine-setup/templates/vm.conf.in<br>vmId=@VM_UUID@<br>memSize=@MEM_SIZE@<br>display=@CONSOLE_TYPE@<br>devices={index:2,iface:ide,address:{ controller:0, target:0,unit:0, bus:1, type:drive},specParams:{},readonly:true,deviceId:@CDROM_UUID@,path:@CDROM@,device:cdrom,shared:false,type:disk@BOOT_CDROM@}<br>devices={index:0,iface:virtio,format:raw,poolID:@SP_UUID@,volumeID:@VOL_UUID@,imageID:@IMG_UUID@,specParams:{},readonly:false,domainID:@SD_UUID@,optional:false,deviceId:@IMG_UUID@,address:{bus:0x00, slot:0x06, domain:0x0000, type:pci, function:0x0},device:disk,shared:exclusive,propagateErrors:off,type:disk@BOOT_DISK@}<br>devices={device:scsi,model:virtio-scsi,type:controller}<br>devices={index:4,nicModel:pv,macAddr:@MAC_ADDR@,linkActive:true,network:@BRIDGE@,filter:vdsm-no-mac-spoofing,specParams:{},deviceId:@NIC_UUID@,address:{bus:0x00, slot:0x03, domain:0x0000, type:pci, function:0x0},device:bridge,type:interface@BOOT_PXE@}<br>devices={index:8,nicModel:pv,macAddr:02:16:3e:4f:c4:b0,linkActive:true,network:lan,filter:vdsm-no-mac-spoofing,specParams:{},address:{bus:0x00, slot:0x09, domain:0x0000, type:pci, function:0x0},device:bridge,type:interface@BOOT_PXE@}<br>devices={device:console,specParams:{},type:console,deviceId:@CONSOLE_UUID@,alias:console0}<br>vmName=@NAME@<br>spiceSecureChannels=smain,sdisplay,sinputs,scursor,splayback,srecord,ssmartcard,susbredir<br>smp=@VCPUS@<br>cpuType=@CPU_TYPE@<br>emulatedMachine=@EMULATED_MACHINE@<br>EOM<br><br>I simply added a second nic (with a fixed MAC address from the locally-administered pool, since I didn't know how to auto-generate one) and added an index for nics too (mimicking the the storage devices setup already present).<br><br>My network setup is much simpler than yours: ovirtmgmt bridge is on an isolated oVirt-management-only network without gateway, my actual LAN with gateway and Internet access (for package updates/installation) is connected to lan bridge and the SAN/migration LAN is a further (not bridged) 10 Gib/s isolated network for which I do not expect to need Engine/VMs reachability (so no third interface for Engine) since all actions should be performed from Engine but only through vdsm hosts (I use a "split-DNS" setup by means of carefully crafted hosts files on Engine and vdsm hosts)<br><br>I can confirm that the engine vm gets created as expected and that network connectivity works.<br><br>Unfortunately I cannot validate the whole design yet, since I'm still debugging HA-agent problems that prevent a reliable Engine/SD startup.<br><br>Hope it helps.<br><br>Greetings,<br>Giuseppe<br><br></div>                                               </div></body>
</html>