<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 29, 2015 at 8:28 PM, Adrian Garay <span dir="ltr">&lt;<a href="mailto:adrian.garay@thaultanklines.com" target="_blank">adrian.garay@thaultanklines.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
  

    
  
  <div bgcolor="#FFFFFF" text="#000000">
    I followed the instructions <a href="http://www.ovirt.org/OVirt_3.6_Release_Notes" target="_blank">here</a> on
    upgrading to Ovirt 3.6RC from 3.5.4 and have encountered a few
    problems.<br>
    <br>
    My Ovirt 3.5.4 test environment consisted of:<br>
    <br>
    1 Centos 7.1 host running hosted engine stored on a separate NFS
    server<br>
    1 Centos 7.1 ovirt engine vm<br>
    <br>
    With some research I was able to solve two of the three issues I&#39;ve
    experienced.  I&#39;ll list them here for acadamia - and perhaps they
    point to a misstep on my behalf that is causing the third.<br>
    <br>
    1. Upon a &quot;successful&quot; upgrade, the admin@local account was
    expired.  The problem is <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1261382" target="_blank">documented
      here</a> and currently caused by following the upgrade
    instructions <a href="http://www.ovirt.org/OVirt_3.6_Release_Notes#Install_.2F_Upgrade_from_previous_versions" target="_blank">as
      seen here</a>. Solution was to do the following from the
    ovirt-engine vm (they may not have all been necessary, it was
    late!):<br>
        a. ovirt-aaa-jdbc-tool
    --db-config=/etc/ovirt-engine/aaa/internal.properties user
    password-reset admin --force<br>
        b. ovirt-aaa-jdbc-tool
    --db-config=/etc/ovirt-engine/aaa/internal.properties user
    password-reset admin --password-valid-to=&quot;2019-01-01 12:00:00Z&quot;<br>
        c. ovirt-aaa-jdbc-tool
    --db-config=/etc/ovirt-engine/aaa/internal.properties user edit
    admin --account-valid-from=&quot;2014-01-01 12:00:00Z&quot;
    --account-valid-to=&quot;2019-01-01 12:00:00Z&quot;<br>
        d. ovirt-aaa-jdbc-tool
    --db-config=/etc/ovirt-engine/aaa/internal.properties user unlock
    admin<br>
    <br>
    2. Rebooting the Centos 7.1 host caused a loss of default gateway. 
    The engine does not allow you to modify the host because it is in
    use and modifying /etc/sysconfig/network-scripts is undone by VDSM
    upon the next reboot.  I assume in the past this worked okay because
    I had a GATEWAY=xxxx in /etc/sysconfig/network as a pre-Ovirt
    relic.  Solution here was to add gateway and defaultRoute fields
    using the vdsClient command line utility:<br>
        a. vdsClient -s 0 setupNetworks
networks=&#39;{ovirtmgmt:{ipaddr:10.1.0.21,netmask:255.255.254.0,bonding:bond0,bridged:true,gateway:10.1.1.254,defaultRoute:True}}&#39;<br>
        b. vdsClient -s 0 setSafeNetworkConfig<br></div></blockquote><div><br></div><div>Thanks for reporting it.</div><div>We already have an open bug on that </div><div><a href="https://bugzilla.redhat.com/1262431">https://bugzilla.redhat.com/1262431</a><br></div><div>What you did to manually fix it is correct, we&#39;ll try to find a solution to properly fix it without user actions.<br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div bgcolor="#FFFFFF" text="#000000">
    Now for the issue I can&#39;t solve.  When I reboot the Centos 7.1 host
    I get the following:<br>
    <br>
    [root@ovirt-one /]# hosted-engine --vm-status<br>
    You must run deploy first<br></div></blockquote><div><br></div><div>This message is not coherent.</div><div>Can you please report the rpm version you are using?</div><div>this one should be already fixed.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div bgcolor="#FFFFFF" text="#000000">
    I then notice that the NFS share to the hosted engine is not mounted
    and the ovirt-ha-agent.service has failed to start itself at boot.<br>
    <br>
    [root@ovirt-one /]# systemctl status ovirt-ha-agent.service<br>
    ovirt-ha-agent.service - oVirt Hosted Engine High Availability
    Monitoring Agent<br>
       Loaded: loaded (/usr/lib/systemd/system/ovirt-ha-agent.service;
    enabled)<br>
       Active: failed (Result: exit-code) since Tue 2015-09-29 12:17:55
    CDT; 9min ago<br>
      Process: 1424 ExecStop=/usr/lib/systemd/systemd-ovirt-ha-agent
    stop (code=exited, status=0/SUCCESS)<br>
      Process: 1210 ExecStart=/usr/lib/systemd/systemd-ovirt-ha-agent
    start (code=exited, status=0/SUCCESS)<br>
     Main PID: 1377 (code=exited, status=254)<br>
       CGroup: /system.slice/ovirt-ha-agent.service<br>
    <br>
    Sep 29 12:17:55 <a href="http://ovirt-one.thaultanklines.com" target="_blank">ovirt-one.thaultanklines.com</a>
    systemd-ovirt-ha-agent[1210]: Starting ovirt-ha-agent: [  OK  ]<br>
    Sep 29 12:17:55 <a href="http://ovirt-one.thaultanklines.com" target="_blank">ovirt-one.thaultanklines.com</a> systemd[1]: Started
    oVirt Hosted Engine High Availability Monitoring Agent.<br>
    Sep 29 12:17:55 <a href="http://ovirt-one.thaultanklines.com" target="_blank">ovirt-one.thaultanklines.com</a> ovirt-ha-agent[1377]:
    ovirt-ha-agent
    ovirt_hosted_engine_ha.agent.hosted_engine.HostedEngine ERROR
    Service vdsmd is not running and the admin is responsible for
    starting it. Shutting down.<br>
    Sep 29 12:17:55 <a href="http://ovirt-one.thaultanklines.com" target="_blank">ovirt-one.thaultanklines.com</a> systemd[1]:
    ovirt-ha-agent.service: main process exited, code=exited,
    status=254/n/a<br>
    Sep 29 12:17:55 <a href="http://ovirt-one.thaultanklines.com" target="_blank">ovirt-one.thaultanklines.com</a> systemd[1]: Unit
    ovirt-ha-agent.service entered failed state.<br>
    <br>
    Manually starting ovirt-ha-agent.service works and it then correctly
    mounts the hosted engine NFS share and all works and I can
    eventually start the hosted engine.  Why would the
    ovirt-ha-agent.service attempt to start before VDSM was ready?<br>
    <br>
    Snippet from /usr/lib/systemd/system/ovirt-ha-agent.service<br>
    [Unit]<br>
    Description=oVirt Hosted Engine High Availability Monitoring Agent<br>
    Wants=ovirt-ha-broker.service<br>
    Wants=vdsmd.service<br></div></blockquote><div><br></div><div>In the past ovirt-ha-agent was directly starting VDSM service cause we were supporting also el6, now we rely just on systemd for that but probably something should fixed on that side.</div><div>Thanks for reporting.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div bgcolor="#FFFFFF" text="#000000">
    Wants=sanlock.service<br>
    After=ovirt-ha-broker.service<br>
    <br>
    Any help would be appreciated!<br>
    <br>
  </div>

<br>_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman/listinfo/users</a><br>
<br></blockquote></div><br></div></div>