<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: arial,helvetica,sans-serif; font-size: 10pt; color: #000000'>Hi Doron,<br><br>But first you have to install the engine, before the VM. So, the idea is to make a backup and restore it to a VM?<br><br><hr id="zwchr"><div style="color: rgb(0, 0, 0); font-weight: normal; font-style: normal; text-decoration: none; font-family: Helvetica,Arial,sans-serif; font-size: 12pt;"><b>From: </b>"Doron Fediuck" &lt;dfediuck@redhat.com&gt;<br><b>To: </b>suporte@logicworks.pt<br><b>Cc: </b>users@ovirt.org<br><b>Sent: </b>Domingo, 8 de Setembro de 2013 23:06:20<br><b>Subject: </b>Re: [Users] so, what do you want next in oVirt?<br><br>Hi Jose,<br>the latter is available by hosted engine, which is a highly<br>available VM which will be migrated / restarted on a different<br>host if something goes wrong.<br><br>----- Original Message -----<br>&gt; From: suporte@logicworks.pt<br>&gt; To: users@ovirt.org<br>&gt; Sent: Friday, September 6, 2013 1:43:04 PM<br>&gt; Subject: Re: [Users] so, what do you want next in oVirt?<br>&gt; <br>&gt; Could be great o have on the Engine:<br>&gt; - An upload option for the ISO files<br>&gt; - A backup and restore option<br>&gt; - An high availability for the engine: install the engine on 2 platforms<br>&gt; (hardware?), than integrate them for synchronization<br>&gt; <br>&gt; Jose<br>&gt; <br>&gt; <br>&gt; From: "noc" &lt;noc@nieuwland.nl&gt;<br>&gt; Cc: users@ovirt.org<br>&gt; Sent: Sexta-feira, 6 de Setembro de 2013 10:28:09<br>&gt; Subject: Re: [Users] so, what do you want next in oVirt?<br>&gt; <br>&gt; On 6-9-2013 10:12, Itamar Heim wrote:<br>&gt; &gt; On 09/05/2013 10:30 AM, noc wrote:<br>&gt; &gt;&gt;&gt;&gt; On 08/21/2013 12:11 PM, Itamar Heim wrote:<br>&gt; &gt;&gt;&gt;&gt;&gt; On 08/21/2013 02:40 AM, Joop van de Wege wrote:<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; What I would like to see in the ! next version is pxe boot of the<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; nodes.<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; Probably not easy to achieve because of dependency on dhcp.<br>&gt; &gt;&gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt;&gt; Hi Joop,<br>&gt; &gt;&gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt;&gt; can you please give a bit more information on the use case / how you<br>&gt; &gt;&gt;&gt;&gt;&gt; envision this?<br>&gt; &gt;&gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt;&gt; current thinking around bare metal provisioning of hosts is to extend<br>&gt; &gt;&gt;&gt;&gt;&gt; the functionality around the foreman provider for this, but you may<br>&gt; &gt;&gt;&gt;&gt;&gt; have other suggestions?<br>&gt; &gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt; I think Joop means to be able to add hosts (nodes) to a cluster by<br>&gt; &gt;&gt;&gt;&gt; adding their MAC address to the dhcp list for PXE boot into ovirt-node<br>&gt; &gt;&gt;&gt;&gt; and thus join the cluster. This would make it easy to add new physical<br>&gt; &gt;&gt;&gt;&gt; nodes without any spinning disks or other local storage requirements.<br>&gt; &gt;&gt;&gt; <br>&gt; &gt;&gt;&gt; we started adding foreman integration in 3.3:<br>&gt; &gt;&gt;&gt; http://www.ovirt.org/Features/ForemanIntegration<br>&gt; &gt;&gt;&gt; <br>&gt; &gt;&gt;&gt; adding ohad and oved for their thoughts on this.<br>&gt; &gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt; I suppose this may not be easy with complex network connections (bonds<br>&gt; &gt;&gt;&gt;&gt; on mgmt network, mgmt network on a tagged vlan, etc), but it should be<br>&gt; &gt;&gt;&gt;&gt; possible if the management network interface is plain and physical.<br>&gt; &gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt; /Simon<br>&gt; &gt;&gt;&gt;&gt; <br>&gt; &gt;&gt;&gt;&gt; PS, Perhaps Joop can confirm this idea, we've talked about it IRL.<br>&gt; &gt;&gt;&gt;&gt; _______________________________________________<br>&gt; &gt;&gt;&gt;&gt; Users mailing list<br>&gt; &gt;&gt;&gt;&gt; Users@ovirt.org<br>&gt; &gt;&gt;&gt;&gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; &gt;&gt;&gt; <br>&gt; &gt;&gt; This isn't about provisioning with Foreman. Its about having the compute<br>&gt; &gt;&gt; nodes NOT having any spinning disks. So the only way to start a node is<br>&gt; &gt;&gt; to pxeboot it and then let it (re)connect with the engine. Then it will<br>&gt; &gt;&gt; be identified by engine as either a new node or a reconnecting node and<br>&gt; &gt;&gt; it will get its configuration from the engine. For reference: thats how<br>&gt; &gt;&gt; VirtualIron works. It has a managment network, just like ovirt, and on<br>&gt; &gt;&gt; that it runs a tftp and dhcp server. Nodes are plugged into the<br>&gt; &gt;&gt; managment network, without disk, and then pxe booted after which they<br>&gt; &gt;&gt; appear in the webui as new unconfigured nodes. You then can set various<br>&gt; &gt;&gt; settings and upon rebooting the nodes will recieve these settings<br>&gt; &gt;&gt; because it is recognised by its mac address. The advantage of this<br>&gt; &gt;&gt; construct is that you can place a new server into a rack, cable it,<br>&gt; &gt;&gt; power on and go back to you office where you'll find the new node<br>&gt; &gt;&gt; waiting to be configured. No messing around with CDs to install an OS,<br>&gt; &gt;&gt; not being in the datacenter for hours on end, just in and out.<br>&gt; &gt;&gt; <br>&gt; &gt;&gt; Yes, disks are cheap but they brake down, need maintenance, means<br>&gt; &gt;&gt; downtime and in general more admin time then when you don't have them. (<br>&gt; &gt;&gt; its a shame to have a raid1 of 2 1Tb disk just to install an OS of less<br>&gt; &gt;&gt; then 10G)<br>&gt; &gt; <br>&gt; &gt; just wondering, how do they prevent a rogue node/guest from<br>&gt; &gt; masquerading as such a host, getting access/secrets/VMs to be launched<br>&gt; &gt; on such an untrusted node (they could easily report a different mac<br>&gt; &gt; address if the layer 2 isn't hardened against that)?<br>&gt; &gt; <br>&gt; They would need physical access to your rack which ofcourse is locked,<br>&gt; you would need to powerdown/up which would trigger an alert, switch port<br>&gt; down/up would trigger an alert, so probably you're notified that<br>&gt; something not quite right is happening. I haven't gone through the<br>&gt; source to see if there is more then just the mac address check.<br>&gt; <br>&gt; &gt; other than that, yes. we actually used to have this via the<br>&gt; &gt; AutoApprovePatterns config option, which would have the engine approve<br>&gt; &gt; a pending node as it registers (I admit i don't think anyone used this<br>&gt; &gt; last several years, and it may be totally broken by now).<br>&gt; &gt; <br>&gt; &gt; please note this doesn't solve the need for a disk, just the<br>&gt; &gt; auto-registration part (if it still works)<br>&gt; What I would like is to have the ovirt Node pxe booting and getting its<br>&gt; config from engine or autoregister. I know there is a script which<br>&gt; converts the iso into a huge pxeboot kernel but don't know how to solve<br>&gt; or if its solved the config part.<br>&gt; <br>&gt; @karli:<br>&gt; If you run your cluster in Memory Optimization=None then you won't need<br>&gt; swap. Have been doing that for years and haven't had a single problem<br>&gt; attributed to that. I just would like to have the choice, pxe boot the<br>&gt; node and know that you don't have swap. Run with disks if you really<br>&gt; need overprovisioning.<br>&gt; <br>&gt; Regards,<br>&gt; <br>&gt; Joop<br>&gt; <br>&gt; _______________________________________________<br>&gt; Users mailing list<br>&gt; Users@ovirt.org<br>&gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; <br>&gt; <br>&gt; _______________________________________________<br>&gt; Users mailing list<br>&gt; Users@ovirt.org<br>&gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; <br></div><br></div></body></html>