<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 12pt;
font-family:Calibri
}
--></style></head>
<body class='hmmessage'><div dir='ltr'>Aha!<BR>"Host &lt;hostname&gt; does not comply with the cluster Default networks, the following networks are missing on host: 'ovirtmgmt' "<BR>&nbsp;<BR>What must I do to correct this? I do not remember reading about having to do something like this in the docs... Also, the node is on&nbsp;a different network that the engine, not sure if this matters or not (the two network do have connectivity to each other thru a router.)<BR>&nbsp;<BR>Thanks,<BR>Will<br>&nbsp;<BR><div>&gt; Date: Fri, 17 Jan 2014 12:10:50 -0500<br>&gt; From: ecohen@redhat.com<br>&gt; To: willarddennis@live.com<br>&gt; CC: noc@nieuwland.nl; users@ovirt.org<br>&gt; Subject: Re: [Users] New user to oVirt, and I haz a sad so far...<br>&gt; <br>&gt; &gt; ----- Original Message -----<br>&gt; &gt; From: "Will Dennis (Live.com)" &lt;willarddennis@live.com&gt;<br>&gt; &gt; Sent: Friday, January 17, 2014 11:55:55 AM<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; Thanks, Joop, for the node platform best practices… I did turn selinux from<br>&gt; &gt; “enforcing” to “permissive”, and then when I tried to ping the engine by<br>&gt; &gt; fqdn, I saw that DNS lookups were failing (even tho resolv.conf looked<br>&gt; &gt; correct…) Did a ‘yum remove NetworkManager” and then fixed the<br>&gt; &gt; /etc/sysconfig/network-scripts/ifcfg-&lt;nic&gt;, and then after a reboot, I can<br>&gt; &gt; now see the info for the node in the WUI on the manager, although the status<br>&gt; &gt; for the node is still “Non Operational”…<br>&gt; <br>&gt; In the GUI, within the "Events" sub-tab of that node, there should be an error <br>&gt; message detailing the reason for that node being in the Non-Operational state; <br>&gt; what does this message say?<br>&gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; Where can I find the node install log (on the engine or the node, and name?)<br>&gt; &gt; (Sorry for noob status, but I am a quick learner ;)<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; Thanks,<br>&gt; &gt; <br>&gt; &gt; Will<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; From: users-bounces@ovirt.org [mailto:users-bounces@ovirt.org] On Behalf Of<br>&gt; &gt; noc<br>&gt; &gt; Sent: Friday, January 17, 2014 3:35 AM<br>&gt; &gt; To: users@ovirt.org<br>&gt; &gt; Subject: Re: [Users] New user to oVirt, and I haz a sad so far...<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; On 17-1-2014 8:53, Gabi C wrote:<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; 've been there! :-D<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; I mean exactly same issuse you had on Centos, I had on Fedora 19.<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; Did you disable selinux on nodes? 'cause that's what is causing SSh<br>&gt; &gt; connection closing<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; My setup:<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; 1 engine on vmware - fedora 19, up-to-date<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; 2 nodes on IBM x series 3650 - fedora 19 based -oVirt Node - 3.0.3 - 1.1.fc19<br>&gt; &gt; with nodes beig in glusterfs cluster also.....<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; Right now, I'm banging my head against "Operation Add-Disk failed to<br>&gt; &gt; complete." , message I have got after adding a new virtual machine and try<br>&gt; &gt; to addd its disk<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; On Fri, Jan 17, 2014 at 6:08 AM, Will Dennis (Live.com) &lt;<br>&gt; &gt; willarddennis@live.com &gt; wrote:<br>&gt; &gt; <br>&gt; &gt; Hi all, ready for a story? (well, more of a rant, but hopefully it will be a<br>&gt; &gt; good UX tale, and may even be entertaining.)<br>&gt; &gt; <br>&gt; &gt; Had one of the groups come to me at work this week and request a OpenStack<br>&gt; &gt; setup. When I sat down and discussed their needs, it turns out that they<br>&gt; &gt; really only need a multi-hypervisor setup where they can spin up VMs for<br>&gt; &gt; their research projects. The VMs should be fairly long-lived, and will have<br>&gt; &gt; persistent storage. Their other request is that the storage should be local<br>&gt; &gt; on the hypervisor nodes (they plan to use Intel servers with 8-10 2TB drives<br>&gt; &gt; for VM storage on each node.) They desire this in order to keep the VM I/O<br>&gt; &gt; local - they do not have a SAN of any sort anyhow, and they do not care<br>&gt; &gt; about live migration, etc<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; @Will<br>&gt; &gt; If the installation ends, either with or without error, it will give you a<br>&gt; &gt; log location. Upload the log to a paste.bin and mail the link.<br>&gt; &gt; <br>&gt; &gt; @Gabi,<br>&gt; &gt; There should be more info in either the vdsm.log on the SPM server or in the<br>&gt; &gt; engine.log on the engine server, see above for lettings us know what the<br>&gt; &gt; error is.<br>&gt; &gt; <br>&gt; &gt; Having installed oVirt, probably dozens of times, I have some guidelines:<br>&gt; &gt; - temporarily disable firewalld/iptables (if all works, enable should still<br>&gt; &gt; work, scripts with rules are generated and location is given)<br>&gt; &gt; - make selinux permissive either via setenforce 0 (until next boot) or via<br>&gt; &gt; /etc/selinux/config ( survives reboots), dont disable it!<br>&gt; &gt; - make sure fqdn work in both directions between engine and host(s) (either<br>&gt; &gt; using /etc/hosts or DNS)<br>&gt; &gt; - make sure NetworkManager is disabled and network enabled<br>&gt; &gt; <br>&gt; &gt; Joop<br>&gt; &gt; <br>&gt; &gt; _______________________________________________<br>&gt; &gt; Users mailing list<br>&gt; &gt; Users@ovirt.org<br>&gt; &gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; &gt; <br></div>                                               </div></body>
</html>