<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=utf-8">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <p dir="ltr">For the record, once I added a new storage domain the
      Data center came up.</p>
    So in the end, this seems to have been due to known bugs:<br>
    <pre wrap=""><a class="moz-txt-link-freetext" href="https://bugzilla.redhat.com/show_bug.cgi?id=1160667">https://bugzilla.redhat.com/show_bug.cgi?id=1160667</a>
<a class="moz-txt-link-freetext" href="https://bugzilla.redhat.com/show_bug.cgi?id=1160423">https://bugzilla.redhat.com/show_bug.cgi?id=1160423</a></pre>
    <br>
    Effectively, for hosts with static/manual IP addressing (i.e. not
    DHCP), the DNS and default route information are not set up
    correctly by hosted-engine-setup. I'm not sure why that's not
    considered a higher priority bug (e.g. blocker for 3.5.2?) since I
    believe the most typical configuration for servers is static IP
    addressing.<br>
    <p dir="ltr">All seems to be working now. Many thanks to Simone for
      the invaluable assistance.<br>
    </p>
    <p dir="ltr">-Bob</p>
    <p dir="ltr">
      On Mar 10, 2015 2:29 PM, "Bob Doolittle" &lt;<a
        href="mailto:bob@doolittle.us.com">bob@doolittle.us.com</a>&gt;
      wrote:<br>
      &gt;<br>
      &gt;<br>
      &gt; On 03/10/2015 10:20 AM, Simone Tiraboschi wrote:<br>
      &gt;&gt;<br>
      &gt;&gt;<br>
      &gt;&gt; ----- Original Message -----<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; From: "Bob Doolittle" &lt;<a
        href="mailto:bob@doolittle.us.com">bob@doolittle.us.com</a>&gt;<br>
      &gt;&gt;&gt; To: "Simone Tiraboschi" &lt;<a
        href="mailto:stirabos@redhat.com">stirabos@redhat.com</a>&gt;<br>
      &gt;&gt;&gt; Cc: "users-ovirt" &lt;<a
        href="mailto:users@ovirt.org">users@ovirt.org</a>&gt;<br>
      &gt;&gt;&gt; Sent: Tuesday, March 10, 2015 2:40:13 PM<br>
      &gt;&gt;&gt; Subject: Re: [ovirt-users] Error during
      hosted-engine-setup for 3.5.1 on F20 (The VDSM host was found in a
      failed<br>
      &gt;&gt;&gt; state)<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; On 03/10/2015 04:58 AM, Simone Tiraboschi wrote:<br>
      &gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt; ----- Original Message -----<br>
      &gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt; From: "Bob Doolittle" &lt;<a
        href="mailto:bob@doolittle.us.com">bob@doolittle.us.com</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt; To: "Simone Tiraboschi" &lt;<a
        href="mailto:stirabos@redhat.com">stirabos@redhat.com</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt; Cc: "users-ovirt" &lt;<a
        href="mailto:users@ovirt.org">users@ovirt.org</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt; Sent: Monday, March 9, 2015 11:48:03 PM<br>
      &gt;&gt;&gt;&gt;&gt; Subject: Re: [ovirt-users] Error during
      hosted-engine-setup for 3.5.1 on<br>
      &gt;&gt;&gt;&gt;&gt; F20 (The VDSM host was found in a failed<br>
      &gt;&gt;&gt;&gt;&gt; state)<br>
      &gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt; On 03/09/2015 02:47 PM, Bob Doolittle wrote:<br>
      &gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; Resending with CC to list (and an
      update).<br>
      &gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; On 03/09/2015 01:40 PM, Simone Tiraboschi
      wrote:<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; ----- Original Message -----<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; From: "Bob Doolittle" &lt;<a
        href="mailto:bob@doolittle.us.com">bob@doolittle.us.com</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; To: "Simone Tiraboschi" &lt;<a
        href="mailto:stirabos@redhat.com">stirabos@redhat.com</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Cc: "users-ovirt" &lt;<a
        href="mailto:users@ovirt.org">users@ovirt.org</a>&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Sent: Monday, March 9, 2015
      6:26:30 PM<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; Subject: Re: [ovirt-users] Error
      during hosted-engine-setup for 3.5.1<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; on<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; F20 (Cannot add the host to
      cluster ... SSH<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; has failed)<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt; ...<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; OK, I've started over. Simply
      removing the storage domain was<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; insufficient,<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; the hosted-engine deploy failed
      when it found the HA and Broker<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; services<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; already configured. I decided to
      just start over fresh starting with<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; re-installing the OS on my host.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; I can't deploy DNS at the moment,
      so I have to simply replicate<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; /etc/hosts<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; files on my host/engine. I did
      that this time, but have run into a new<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; problem:<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ INFO  ] Engine replied: DB
      Up!Welcome to Health Status!<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;           Enter the name of the
      cluster to which you want to add the<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;           host<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;           (Default) [Default]:<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ INFO  ] Waiting for the host to
      become operational in the engine.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; This<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; may<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; take several minutes...<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ ERROR ] The VDSM host was found
      in a failed state. Please check<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; engine<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; and<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; bootstrap installation logs.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ ERROR ] Unable to add ovirt-vm
      to the manager<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;           Please shutdown the VM
      allowing the system to launch it as a<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;           monitored service.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;           The system will wait
      until the VM is down.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ ERROR ] Failed to execute stage
      'Closing up': [Errno 111] Connection<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; refused<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ INFO  ] Stage: Clean up<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; [ ERROR ] Failed to execute stage
      'Clean up': [Errno 111] Connection<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; refused<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; I've attached my engine log and
      the ovirt-hosted-engine-setup log. I<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; think I<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; had an issue with resolving
      external hostnames, or else a connectivity<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; issue<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;&gt; during the install.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; For some reason your engine wasn't
      able to deploy your hosts but the SSH<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; session this time was established.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; 2015-03-09 13:05:58,514 ERROR<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;
      [org.ovirt.engine.core.bll.InstallVdsInternalCommand]<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; (org.ovirt.thread.pool-8-thread-3)
      [3cf91626] Host installation failed<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; for host
      217016bb-fdcd-4344-a0ca-4548262d10a8, ovirt-vm.:<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; java.io.IOException: Command returned
      failure code 1 during SSH session<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; '<a
        href="mailto:root@xion2.smartcity.net">root@xion2.smartcity.net</a>'<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt;&gt; Can you please attach host-deploy
      logs from the engine VM?<br>
      &gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; OK, attached.<br>
      &gt;&gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt;&gt; Like I said, it looks to me like a
      name-resolution issue during the yum<br>
      &gt;&gt;&gt;&gt;&gt;&gt; update on the engine. I think I've fixed
      that, but do you have a better<br>
      &gt;&gt;&gt;&gt;&gt;&gt; suggestion for cleaning up and
      re-deploying other than installing the OS<br>
      &gt;&gt;&gt;&gt;&gt;&gt; on my host and starting all over again?<br>
      &gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt; I just finished starting over from scratch,
      starting with OS installation<br>
      &gt;&gt;&gt;&gt;&gt; on<br>
      &gt;&gt;&gt;&gt;&gt; my host/node, and wound up with a very
      similar problem - the engine<br>
      &gt;&gt;&gt;&gt;&gt; couldn't<br>
      &gt;&gt;&gt;&gt;&gt; reach the hosts during the yum operation. But
      this time the error was<br>
      &gt;&gt;&gt;&gt;&gt; "Network is unreachable". Which is weird,
      because I can ssh into the<br>
      &gt;&gt;&gt;&gt;&gt; engine<br>
      &gt;&gt;&gt;&gt;&gt; and ping many of those hosts, after the
      operation has failed.<br>
      &gt;&gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt;&gt; Here's my latest host-deploy log from the
      engine. I'd appreciate any<br>
      &gt;&gt;&gt;&gt;&gt; clues.<br>
      &gt;&gt;&gt;&gt;<br>
      &gt;&gt;&gt;&gt; It seams that now your host is able to resolve
      that addresses but it's not<br>
      &gt;&gt;&gt;&gt; able to connect over http.<br>
      &gt;&gt;&gt;&gt; On your hosts some of them resolves as IPv6
      addresses; can you please try<br>
      &gt;&gt;&gt;&gt; to use curl to get one of the file that it wasn't
      able to fetch?<br>
      &gt;&gt;&gt;&gt; Can you please check your network configuration
      before and after<br>
      &gt;&gt;&gt;&gt; host-deploy?<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; I can give you the network configuration after
      host-deploy, at least for the<br>
      &gt;&gt;&gt; host/Node. The engine won't start for me this
      morning, after I shut down the<br>
      &gt;&gt;&gt; host for the night.<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; In order to give you the config before host-deploy
      (or, apparently for the<br>
      &gt;&gt;&gt; engine), I'll have to re-install the OS on the host
      and start again from<br>
      &gt;&gt;&gt; scratch. Obviously I'd rather not do that unless
      absolutely necessary.<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; Here's the host config after the failed host-deploy:<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; Host/Node:<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; # ip route<br>
      &gt;&gt;&gt; <a href="http://169.254.0.0/16">169.254.0.0/16</a>
      dev ovirtmgmt  scope link  metric 1007<br>
      &gt;&gt;&gt; <a href="http://172.16.0.0/16">172.16.0.0/16</a> dev
      ovirtmgmt  proto kernel  scope link  src 172.16.0.58<br>
      &gt;&gt;<br>
      &gt;&gt; You are missing a default gateway and so the issue.<br>
      &gt;&gt; Are you sure that it was properly configured before
      trying to deploy that host?<br>
      &gt;<br>
      &gt;<br>
      &gt; It should have been, it was a fresh OS install. So I'm
      starting again, and keeping careful records of my network config.<br>
      &gt;<br>
      &gt; Here is my initial network config of my host/node,
      immediately following a new OS install:<br>
      &gt;<br>
      &gt; % ip route<br>
      &gt; default via 172.16.0.1 dev p3p1  proto static  metric 1024 <br>
      &gt; <a href="http://172.16.0.0/16">172.16.0.0/16</a> dev p3p1 
      proto kernel  scope link  src 172.16.0.58 <br>
      &gt;<br>
      &gt; % ip addr<br>
      &gt; 1: lo: &lt;LOOPBACK,UP,LOWER_UP&gt; mtu 65536 qdisc noqueue
      state UNKNOWN group default <br>
      &gt;     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br>
      &gt;     inet <a href="http://127.0.0.1/8">127.0.0.1/8</a> scope
      host lo<br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt;     inet6 ::1/128 scope host <br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt; 2: p3p1: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500
      qdisc pfifo_fast state UP group default qlen 1000<br>
      &gt;     link/ether b8:ca:3a:79:22:12 brd ff:ff:ff:ff:ff:ff<br>
      &gt;     inet <a href="http://172.16.0.58/16">172.16.0.58/16</a>
      brd 172.16.255.255 scope global p3p1<br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt;     inet6 fe80::baca:3aff:fe79:2212/64 scope link <br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt; 3: wlp2s0: &lt;NO-CARRIER,BROADCAST,MULTICAST,UP&gt; mtu 1500
      qdisc mq state DOWN group default qlen 1000<br>
      &gt;     link/ether 1c:3e:84:50:8d:c3 brd ff:ff:ff:ff:ff:ff<br>
      &gt;<br>
      &gt;<br>
      &gt; After the VM is first created, the host/node config is:<br>
      &gt;<br>
      &gt; # ip route<br>
      &gt; default via 172.16.0.1 dev ovirtmgmt <br>
      &gt; <a href="http://169.254.0.0/16">169.254.0.0/16</a> dev
      ovirtmgmt  scope link  metric 1006 <br>
      &gt; <a href="http://172.16.0.0/16">172.16.0.0/16</a> dev
      ovirtmgmt  proto kernel  scope link  src 172.16.0.58 <br>
      &gt;<br>
      &gt; # ip addr <br>
      &gt; 1: lo: &lt;LOOPBACK,UP,LOWER_UP&gt; mtu 65536 qdisc noqueue
      state UNKNOWN group default <br>
      &gt;     link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br>
      &gt;     inet <a href="http://127.0.0.1/8">127.0.0.1/8</a> scope
      host lo<br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt;     inet6 ::1/128 scope host <br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt; 2: p3p1: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500
      qdisc pfifo_fast master ovirtmgmt state UP group default qlen 1000<br>
      &gt;     link/ether b8:ca:3a:79:22:12 brd ff:ff:ff:ff:ff:ff<br>
      &gt;     inet6 fe80::baca:3aff:fe79:2212/64 scope link <br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt; 3: wlp2s0: &lt;NO-CARRIER,BROADCAST,MULTICAST,UP&gt; mtu 1500
      qdisc mq state DOWN group default qlen 1000<br>
      &gt;     link/ether 1c:3e:84:50:8d:c3 brd ff:ff:ff:ff:ff:ff<br>
      &gt; 4: bond0: &lt;NO-CARRIER,BROADCAST,MULTICAST,MASTER,UP&gt;
      mtu 1500 qdisc noqueue state DOWN group default <br>
      &gt;     link/ether 92:cb:9d:97:18:36 brd ff:ff:ff:ff:ff:ff<br>
      &gt; 5: ;vdsmdummy;: &lt;BROADCAST,MULTICAST&gt; mtu 1500 qdisc
      noop state DOWN group default <br>
      &gt;     link/ether 9a:bc:29:52:82:38 brd ff:ff:ff:ff:ff:ff<br>
      &gt; 6: ovirtmgmt: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu
      1500 qdisc noqueue state UP group default <br>
      &gt;     link/ether b8:ca:3a:79:22:12 brd ff:ff:ff:ff:ff:ff<br>
      &gt;     inet <a href="http://172.16.0.58/16">172.16.0.58/16</a>
      brd 172.16.255.255 scope global ovirtmgmt<br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt;     inet6 fe80::baca:3aff:fe79:2212/64 scope link <br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt; 7: vnet0: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500
      qdisc pfifo_fast master ovirtmgmt state UNKNOWN group default qlen
      500<br>
      &gt;     link/ether fe:16:3e:16:a4:37 brd ff:ff:ff:ff:ff:ff<br>
      &gt;     inet6 fe80::fc16:3eff:fe16:a437/64 scope link <br>
      &gt;        valid_lft forever preferred_lft forever<br>
      &gt;<br>
      &gt;<br>
      &gt; At this point, I was already seeing a problem on the
      host/node. I remembered that a newer version of sos package is
      delivered from the ovirt repositories. So I tried to do a "yum
      update" on my host, and got a similar problem:<br>
      &gt;<br>
      &gt; % sudo yum update<br>
      &gt; [sudo] password for rad: <br>
      &gt; Loaded plugins: langpacks, refresh-packagekit<br>
      &gt; Resolving Dependencies<br>
      &gt; --&gt; Running transaction check<br>
      &gt; ---&gt; Package sos.noarch 0:3.1-1.fc20 will be updated<br>
      &gt; ---&gt; Package sos.noarch 0:3.2-0.2.fc20.ovirt will be an
      update<br>
      &gt; --&gt; Finished Dependency Resolution<br>
      &gt;<br>
      &gt; Dependencies Resolved<br>
      &gt;<br>
      &gt;
================================================================================================================<br>
      &gt;  Package             Arch                  
      Version                             Repository                
      Size<br>
      &gt;
================================================================================================================<br>
      &gt; Updating:<br>
      &gt;  sos                 noarch                
      3.2-0.2.fc20.ovirt                  ovirt-3.5                 292
      k<br>
      &gt;<br>
      &gt; Transaction Summary<br>
      &gt;
================================================================================================================<br>
      &gt; Upgrade  1 Package<br>
      &gt;<br>
      &gt; Total download size: 292 k<br>
      &gt; Is this ok [y/d/N]: y<br>
      &gt; Downloading packages:<br>
      &gt; No Presto metadata available for ovirt-3.5<br>
      &gt; sos-3.2-0.2.fc20.ovirt.noarch.
      FAILED                                          <br>
      &gt; <a
href="http://www.gtlib.gatech.edu/pub/oVirt/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm">http://www.gtlib.gatech.edu/pub/oVirt/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm</a>:
      [Errno 14] curl#6 - "Could not resolve host: <a
        href="http://www.gtlib.gatech.edu">www.gtlib.gatech.edu</a>"<br>
      &gt; Trying other mirror.<br>
      &gt; sos-3.2-0.2.fc20.ovirt.noarch.
      FAILED                                          <br>
      &gt; <a
href="ftp://ftp.gtlib.gatech.edu/pub/oVirt/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm">ftp://ftp.gtlib.gatech.edu/pub/oVirt/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm</a>:
      [Errno 14] curl#6 - "Could not resolve host: <a
        href="http://ftp.gtlib.gatech.edu">ftp.gtlib.gatech.edu</a>"<br>
      &gt; Trying other mirror.<br>
      &gt; sos-3.2-0.2.fc20.ovirt.noarch.
      FAILED                                          <br>
      &gt; <a
href="http://resources.ovirt.org/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm">http://resources.ovirt.org/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm</a>:
      [Errno 14] curl#6 - "Could not resolve host: <a
        href="http://resources.ovirt.org">resources.ovirt.org</a>"<br>
      &gt; Trying other mirror.<br>
      &gt; sos-3.2-0.2.fc20.ovirt.noarch.
      FAILED                                          <br>
      &gt; <a
href="http://ftp.snt.utwente.nl/pub/software/ovirt/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm">http://ftp.snt.utwente.nl/pub/software/ovirt/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm</a>:
      [Errno 14] curl#6 - "Could not resolve host: <a
        href="http://ftp.snt.utwente.nl">ftp.snt.utwente.nl</a>"<br>
      &gt; Trying other mirror.<br>
      &gt; sos-3.2-0.2.fc20.ovirt.noarch.
      FAILED                                          <br>
      &gt; <a
href="http://ftp.nluug.nl/os/Linux/virtual/ovirt/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm">http://ftp.nluug.nl/os/Linux/virtual/ovirt/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm</a>:
      [Errno 14] curl#6 - "Could not resolve host: <a
        href="http://ftp.nluug.nl">ftp.nluug.nl</a>"<br>
      &gt; Trying other mirror.<br>
      &gt; sos-3.2-0.2.fc20.ovirt.noarch.
      FAILED                                          <br>
      &gt; <a
href="http://mirror.linux.duke.edu/ovirt/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm">http://mirror.linux.duke.edu/ovirt/pub/ovirt-3.5/rpm/fc20/noarch/sos-3.2-0.2.fc20.ovirt.noarch.rpm</a>:
      [Errno 14] curl#6 - "Could not resolve host: <a
        href="http://mirror.linux.duke.edu">mirror.linux.duke.edu</a>"<br>
      &gt; Trying other mirror.<br>
      &gt;<br>
      &gt;<br>
      &gt; Error downloading packages:<br>
      &gt;   sos-3.2-0.2.fc20.ovirt.noarch: [Errno 256] No more mirrors
      to try.<br>
      &gt;<br>
      &gt;<br>
      &gt; This was similar to my previous failures. I took a look, and
      the problem was that /etc/resolv.conf had no nameservers, and the
      /etc/sysconfig/network-scripts/ifcfg-ovirtmgmt file contained no
      entries for DNS1 or DOMAIN.<br>
      &gt;<br>
      &gt; So, it appears that when hosted-engine set up my bridged
      network, it neglected to carry over the DNS configuration
      necessary to the bridge.<br>
      &gt;<br>
      &gt; Note that I am using *static* network configuration, rather
      than DHCP. During installation of the OS I am setting up the
      network configuration as Manual. Perhaps the hosted-engine script
      is not properly prepared to deal with that?<br>
      &gt;<br>
      &gt; I went ahead and modified the ifcfg-ovirtmgmt network script
      (for the next service restart/boot) and resolv.conf (I was afraid
      to restart the network in the middle of hosted-engine execution
      since I don't know what might already be connected to the engine).
      This time it got further, but ultimately it still failed at the
      very end:<br>
      &gt;<br>
      &gt; [ INFO  ] Waiting for the host to become operational in the
      engine. This may take several minutes...<br>
      &gt; [ INFO  ] Still waiting for VDSM host to become
      operational...<br>
      &gt; [ INFO  ] The VDSM Host is now operational<br>
      &gt;           Please shutdown the VM allowing the system to
      launch it as a monitored service.<br>
      &gt;           The system will wait until the VM is down.<br>
      &gt; [ ERROR ] Failed to execute stage 'Closing up': Error
      acquiring VM status<br>
      &gt; [ INFO  ] Stage: Clean up<br>
      &gt; [ INFO  ] Generating answer file
      '/var/lib/ovirt-hosted-engine-setup/answers/answers-20150310140028.conf'<br>
      &gt; [ INFO  ] Stage: Pre-termination<br>
      &gt; [ INFO  ] Stage: Termination<br>
      &gt;<br>
      &gt;<br>
      &gt; At that point, neither the ovirt-ha-broker or ovirt-ha-agent
      services were running.<br>
      &gt;<br>
      &gt; Note there was no significant pause after it said "The system
      will wait until the VM is down".<br>
      &gt;<br>
      &gt; After the script completed, I shut down the VM, and manually
      started the ha services, and the VM came up. I could login to the
      Administration Portal, and finally see my HostedEngine VM. :-)<br>
      &gt;<br>
      &gt; I seem to be in a bad state however: The Data Center has no
      storage domains attached. I'm not sure what else might need
      cleaning up. Any assistance appreciated.</p>
    &gt;<br>
    <p dir="ltr">
      &gt; -Bob<br>
      &gt;<br>
      &gt;<br>
      &gt;<br>
      &gt;&gt;&gt; # ip addr<br>
      &gt;&gt;&gt; 1: lo: &lt;LOOPBACK,UP,LOWER_UP&gt; mtu 65536 qdisc
      noqueue state UNKNOWN group<br>
      &gt;&gt;&gt; default<br>
      &gt;&gt;&gt;     link/loopback 00:00:00:00:00:00 brd
      00:00:00:00:00:00<br>
      &gt;&gt;&gt;     inet <a href="http://127.0.0.1/8">127.0.0.1/8</a>
      scope host lo<br>
      &gt;&gt;&gt;        valid_lft forever preferred_lft forever<br>
      &gt;&gt;&gt;     inet6 ::1/128 scope host<br>
      &gt;&gt;&gt;        valid_lft forever preferred_lft forever<br>
      &gt;&gt;&gt; 2: p3p2: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu
      1500 qdisc pfifo_fast master<br>
      &gt;&gt;&gt; ovirtmgmt state UP group default qlen 1000<br>
      &gt;&gt;&gt;     link/ether b8:ca:3a:79:22:12 brd
      ff:ff:ff:ff:ff:ff<br>
      &gt;&gt;&gt;     inet6 fe80::baca:3aff:fe79:2212/64 scope link<br>
      &gt;&gt;&gt;        valid_lft forever preferred_lft forever<br>
      &gt;&gt;&gt; 3: bond0:
      &lt;NO-CARRIER,BROADCAST,MULTICAST,MASTER,UP&gt; mtu 1500 qdisc
      noqueue<br>
      &gt;&gt;&gt; state DOWN group default<br>
      &gt;&gt;&gt;     link/ether 56:56:f7:cf:73:27 brd
      ff:ff:ff:ff:ff:ff<br>
      &gt;&gt;&gt; 4: wlp2s0: &lt;NO-CARRIER,BROADCAST,MULTICAST,UP&gt;
      mtu 1500 qdisc mq state DOWN<br>
      &gt;&gt;&gt; group default qlen 1000<br>
      &gt;&gt;&gt;     link/ether 1c:3e:84:50:8d:c3 brd
      ff:ff:ff:ff:ff:ff<br>
      &gt;&gt;&gt; 6: ;vdsmdummy;: &lt;BROADCAST,MULTICAST&gt; mtu 1500
      qdisc noop state DOWN group<br>
      &gt;&gt;&gt; default<br>
      &gt;&gt;&gt;     link/ether 22:a1:01:9e:30:71 brd
      ff:ff:ff:ff:ff:ff<br>
      &gt;&gt;&gt; 7: ovirtmgmt: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt;
      mtu 1500 qdisc noqueue state<br>
      &gt;&gt;&gt; UP group default<br>
      &gt;&gt;&gt;     link/ether b8:ca:3a:79:22:12 brd
      ff:ff:ff:ff:ff:ff<br>
      &gt;&gt;&gt;     inet <a href="http://172.16.0.58/16">172.16.0.58/16</a>
      brd 172.16.255.255 scope global ovirtmgmt<br>
      &gt;&gt;&gt;        valid_lft forever preferred_lft forever<br>
      &gt;&gt;&gt;     inet6 fe80::baca:3aff:fe79:2212/64 scope link<br>
      &gt;&gt;&gt;        valid_lft forever preferred_lft forever<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; The only unusual thing about my setup that I can
      think of, from the network<br>
      &gt;&gt;&gt; perspective, is that my physical host has a wireless
      interface, which I've<br>
      &gt;&gt;&gt; not configured. Could it be confusing hosted-engine
      --deploy?<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt; -Bob<br>
      &gt;&gt;&gt;<br>
      &gt;&gt;&gt;<br>
      &gt;<br>
    </p>
  </body>
</html>