<div dir="ltr">+ Yaniv B.<br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Aug 22, 2017 at 12:14 PM, Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br><br><div class="gmail_quote"><div dir="ltr">On יום ג׳, 22 באוג׳ 2017, 12:57 Yedidyah Bar David &lt;<a href="mailto:didi@redhat.com" target="_blank">didi@redhat.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Tue, Aug 22, 2017 at 12:52 PM, Anton Marchukov &lt;<a href="mailto:amarchuk@redhat.com" target="_blank">amarchuk@redhat.com</a>&gt; wrote:<br>
&gt; Hello All.<br>
&gt;<br>
&gt; Any news on this?  I see the latest failures for vdsm is the same [1] and<br>
&gt; the job is still not working for it.<br>
&gt;<br>
&gt; [1]<br>
&gt; <a href="http://jenkins.ovirt.org/job/ovirt-master_change-queue-tester/1901/artifact/exported-artifacts/basic-suit-master-el7/test_logs/basic-suite-master/post-002_bootstrap.py/lago-basic-suite-master-engine/_var_log/ovirt-engine/host-deploy/ovirt-host-deploy-20170822035135-lago-basic-suite-master-host0-1f46d892.log" rel="noreferrer" target="_blank">http://jenkins.ovirt.org/job/<wbr>ovirt-master_change-queue-<wbr>tester/1901/artifact/exported-<wbr>artifacts/basic-suit-master-<wbr>el7/test_logs/basic-suite-<wbr>master/post-002_bootstrap.py/<wbr>lago-basic-suite-master-<wbr>engine/_var_log/ovirt-engine/<wbr>host-deploy/ovirt-host-deploy-<wbr>20170822035135-lago-basic-<wbr>suite-master-host0-1f46d892.<wbr>log</a><br>
<br>
This log has:<br>
<br>
2017-08-22 03:51:28,272-0400 DEBUG otopi.context<br>
context._executeMethod:128 Stage closeup METHOD<br>
otopi.plugins.ovirt_host_<wbr>deploy.vdsm.packages.Plugin._<wbr>reconfigure<br>
2017-08-22 03:51:28,272-0400 DEBUG<br>
otopi.plugins.ovirt_host_<wbr>deploy.vdsm.packages plugin.executeRaw:813<br>
execute: (&#39;/bin/vdsm-tool&#39;, &#39;configure&#39;, &#39;--force&#39;),<br>
executable=&#39;None&#39;, cwd=&#39;None&#39;, env=None<br>
2017-08-22 03:51:30,687-0400 DEBUG<br>
otopi.plugins.ovirt_host_<wbr>deploy.vdsm.packages plugin.executeRaw:863<br>
execute-result: (&#39;/bin/vdsm-tool&#39;, &#39;configure&#39;, &#39;--force&#39;), rc=1<br>
2017-08-22 03:51:30,688-0400 DEBUG<br>
otopi.plugins.ovirt_host_<wbr>deploy.vdsm.packages plugin.execute:921<br>
execute-output: (&#39;/bin/vdsm-tool&#39;, &#39;configure&#39;, &#39;--force&#39;) stdout:<br>
<br>
Checking configuration status...<br>
<br>
abrt is not configured for vdsm<br>
WARNING: LVM local configuration: /etc/lvm/lvmlocal.conf is not based<br>
on vdsm configuration<br>
lvm requires configuration<br>
libvirt is not configured for vdsm yet<br>
FAILED: conflicting vdsm and libvirt-qemu tls configuration.<br>
vdsm.conf with ssl=True requires the following changes:<br>
libvirtd.conf: listen_tcp=0, auth_tcp=&quot;sasl&quot;, listen_tls=1<br>
qemu.conf: spice_tls=1.<br>
multipath requires configuration<br>
<br>
Running configure...<br>
Reconfiguration of abrt is done.<br>
Reconfiguration of passwd is done.<br>
WARNING: LVM local configuration: /etc/lvm/lvmlocal.conf is not based<br>
on vdsm configuration<br>
Backing up /etc/lvm/lvmlocal.conf to /etc/lvm/lvmlocal.conf.<wbr>201708220351<br>
Installing /usr/share/vdsm/lvmlocal.conf at /etc/lvm/lvmlocal.conf<br>
Units need configuration: {&#39;lvm2-lvmetad.service&#39;: {&#39;LoadState&#39;:<br>
&#39;loaded&#39;, &#39;ActiveState&#39;: &#39;active&#39;}, &#39;lvm2-lvmetad.socket&#39;:<br>
{&#39;LoadState&#39;: &#39;loaded&#39;, &#39;ActiveState&#39;: &#39;active&#39;}}<br>
Reconfiguration of lvm is done.<br>
Reconfiguration of sebool is done.<br>
<br>
2017-08-22 03:51:30,688-0400 DEBUG<br>
otopi.plugins.ovirt_host_<wbr>deploy.vdsm.packages plugin.execute:926<br>
execute-output: (&#39;/bin/vdsm-tool&#39;, &#39;configure&#39;, &#39;--force&#39;) stderr:<br>
Error:  ServiceNotExistError: Tried all alternatives but failed:<br>
ServiceNotExistError: dev-hugepages1G.mount is not native systemctl service<br>
ServiceNotExistError: dev-hugepages1G.mount is not a SysV service<br>
<br>
<br>
2017-08-22 03:51:30,689-0400 WARNING<br>
otopi.plugins.ovirt_host_<wbr>deploy.vdsm.packages<br>
packages._reconfigure:155 Cannot configure vdsm<br>
<br>
Nir, any idea?<br></blockquote></div><div><br></div><div>Looks like some configurator has failed after sebool, but we don&#39;t have proper error message with the name of the configurator.</div><div><br></div><div>Piotr, can you take a look?</div><div><br></div></blockquote><div><br></div><div>I saw it yesterday and already talked to Yaniv about it.</div><div><br></div><div>@Yaniv please take a look.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div></div><div><br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Sun, Aug 20, 2017 at 12:39 PM, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; On Sun, Aug 20, 2017 at 11:08 AM Dan Kenigsberg &lt;<a href="mailto:danken@redhat.com" target="_blank">danken@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Sun, Aug 20, 2017 at 10:39 AM, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com" target="_blank">ykaul@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; On Sun, Aug 20, 2017 at 8:48 AM, Daniel Belenky &lt;<a href="mailto:dbelenky@redhat.com" target="_blank">dbelenky@redhat.com</a>&gt;<br>
&gt;&gt;&gt; &gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Failed test: basic_suite_master/002_<wbr>bootstrap<br>
&gt;&gt;&gt; &gt;&gt; Version: oVirt Master<br>
&gt;&gt;&gt; &gt;&gt; Link to failed job: ovirt-master_change-queue-<wbr>tester/1860/<br>
&gt;&gt;&gt; &gt;&gt; Link to logs (Jenkins): test logs<br>
&gt;&gt;&gt; &gt;&gt; Suspected patch: <a href="https://gerrit.ovirt.org/#/c/80749/3" rel="noreferrer" target="_blank">https://gerrit.ovirt.org/#/c/<wbr>80749/3</a><br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; From what I was able to find, It seems that for some reason VDSM<br>
&gt;&gt;&gt; &gt;&gt; failed to<br>
&gt;&gt;&gt; &gt;&gt; start on host 1. The VDSM log is empty, and the only error I could<br>
&gt;&gt;&gt; &gt;&gt; find in<br>
&gt;&gt;&gt; &gt;&gt; supervdsm.log is that start of LLDP failed (Not sure if it&#39;s related)<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Can you check the networking on the hosts? Something&#39;s very strange<br>
&gt;&gt;&gt; &gt; there.<br>
&gt;&gt;&gt; &gt; For example:<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 NetworkManager[685]:<br>
&gt;&gt;&gt; &gt; &lt;info&gt;<br>
&gt;&gt;&gt; &gt; [1503175122.2682] manager: (e7NZWeNDXwIjQia): new Bond device<br>
&gt;&gt;&gt; &gt; (/org/freedesktop/<wbr>NetworkManager/Devices/17)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting xmit hash policy to layer2+3 (2)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting xmit hash policy to encap2+3 (3)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting xmit hash policy to encap3+4 (4)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; option xmit_hash_policy: invalid value (5)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting primary_reselect to always (0)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting primary_reselect to better (1)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting primary_reselect to failure (2)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; option primary_reselect: invalid value (3)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting arp_all_targets to any (0)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; Setting arp_all_targets to all (1)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: e7NZWeNDXwIjQia:<br>
&gt;&gt;&gt; &gt; option arp_all_targets: invalid value (2)<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 kernel: bonding:<br>
&gt;&gt;&gt; &gt; e7NZWeNDXwIjQia is being deleted...<br>
&gt;&gt;&gt; &gt; Aug 19 16:38:42 lago-basic-suite-master-host0 lldpad: recvfrom(Event<br>
&gt;&gt;&gt; &gt; interface): No buffer space available<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Y.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The post-boot noise with funny-looking bonds is due to our calling of<br>
&gt;&gt;&gt; `vdsm-tool dump-bonding-options` every boot, in order to find the<br>
&gt;&gt;&gt; bonding defaults for the current kernel.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; From host-deploy log:<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; 2017-08-19 16:38:41,476-0400 DEBUG<br>
&gt;&gt;&gt; &gt;&gt; otopi.plugins.otopi.services.<wbr>systemd<br>
&gt;&gt;&gt; &gt;&gt; systemd.state:130 starting service vdsmd<br>
&gt;&gt;&gt; &gt;&gt; 2017-08-19 16:38:41,476-0400 DEBUG<br>
&gt;&gt;&gt; &gt;&gt; otopi.plugins.otopi.services.<wbr>systemd<br>
&gt;&gt;&gt; &gt;&gt; plugin.executeRaw:813 execute: (&#39;/bin/systemctl&#39;, &#39;start&#39;,<br>
&gt;&gt;&gt; &gt;&gt; &#39;vdsmd.service&#39;),<br>
&gt;&gt;&gt; &gt;&gt; executable=&#39;None&#39;, cwd=&#39;None&#39;, env=None<br>
&gt;&gt;&gt; &gt;&gt; 2017-08-19 16:38:44,628-0400 DEBUG<br>
&gt;&gt;&gt; &gt;&gt; otopi.plugins.otopi.services.<wbr>systemd<br>
&gt;&gt;&gt; &gt;&gt; plugin.executeRaw:863 execute-result: (&#39;/bin/systemctl&#39;, &#39;start&#39;,<br>
&gt;&gt;&gt; &gt;&gt; &#39;vdsmd.service&#39;), rc=1<br>
&gt;&gt;&gt; &gt;&gt; 2017-08-19 16:38:44,630-0400 DEBUG<br>
&gt;&gt;&gt; &gt;&gt; otopi.plugins.otopi.services.<wbr>systemd<br>
&gt;&gt;&gt; &gt;&gt; plugin.execute:921 execute-output: (&#39;/bin/systemctl&#39;, &#39;start&#39;,<br>
&gt;&gt;&gt; &gt;&gt; &#39;vdsmd.service&#39;) stdout:<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; 2017-08-19 16:38:44,630-0400 DEBUG<br>
&gt;&gt;&gt; &gt;&gt; otopi.plugins.otopi.services.<wbr>systemd<br>
&gt;&gt;&gt; &gt;&gt; plugin.execute:926 execute-output: (&#39;/bin/systemctl&#39;, &#39;start&#39;,<br>
&gt;&gt;&gt; &gt;&gt; &#39;vdsmd.service&#39;) stderr:<br>
&gt;&gt;&gt; &gt;&gt; Job for vdsmd.service failed because the control process exited with<br>
&gt;&gt;&gt; &gt;&gt; error<br>
&gt;&gt;&gt; &gt;&gt; code. See &quot;systemctl status vdsmd.service&quot; and &quot;journalctl -xe&quot; for<br>
&gt;&gt;&gt; &gt;&gt; details.<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; 2017-08-19 16:38:44,631-0400 DEBUG otopi.context<br>
&gt;&gt;&gt; &gt;&gt; context._executeMethod:142 method exception<br>
&gt;&gt;&gt; &gt;&gt; Traceback (most recent call last):<br>
&gt;&gt;&gt; &gt;&gt;   File &quot;/tmp/ovirt-dunwHj8Njn/<wbr>pythonlib/otopi/context.py&quot;, line 132,<br>
&gt;&gt;&gt; &gt;&gt; in<br>
&gt;&gt;&gt; &gt;&gt; _executeMethod<br>
&gt;&gt;&gt; &gt;&gt;     method[&#39;method&#39;]()<br>
&gt;&gt;&gt; &gt;&gt;   File<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; &quot;/tmp/ovirt-dunwHj8Njn/otopi-<wbr>plugins/ovirt-host-deploy/<wbr>vdsm/packages.py&quot;,<br>
&gt;&gt;&gt; &gt;&gt; line 224, in _start<br>
&gt;&gt;&gt; &gt;&gt;     self.services.state(&#39;vdsmd&#39;, True)<br>
&gt;&gt;&gt; &gt;&gt;   File<br>
&gt;&gt;&gt; &gt;&gt; &quot;/tmp/ovirt-dunwHj8Njn/otopi-<wbr>plugins/otopi/services/<wbr>systemd.py&quot;,<br>
&gt;&gt;&gt; &gt;&gt; line 141, in state<br>
&gt;&gt;&gt; &gt;&gt;     service=name,<br>
&gt;&gt;&gt; &gt;&gt; RuntimeError: Failed to start service &#39;vdsmd&#39;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; From /var/log/messages:<br>
&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; Error:<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; One of<br>
&gt;&gt;&gt; &gt;&gt; the modules is not configured to work with VDSM.<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh: To<br>
&gt;&gt;&gt; &gt;&gt; configure the module use the following:<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; &#39;vdsm-tool configure [--module module-name]&#39;.<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh: If<br>
&gt;&gt;&gt; &gt;&gt; all<br>
&gt;&gt;&gt; &gt;&gt; modules are not configured try to use:<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; &#39;vdsm-tool configure --force&#39;<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; (The<br>
&gt;&gt;&gt; &gt;&gt; force flag will stop the module&#39;s service and start it<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; afterwards automatically to load the new configuration.)<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; abrt<br>
&gt;&gt;&gt; &gt;&gt; is already configured for vdsm<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; lvm is<br>
&gt;&gt;&gt; &gt;&gt; configured for vdsm<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; libvirt is already configured for vdsm<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; multipath requires configuration<br>
&gt;&gt;&gt; &gt;&gt; Aug 19 16:38:44 lago-basic-suite-master-host0 vdsmd_init_common.sh:<br>
&gt;&gt;&gt; &gt;&gt; Modules sanlock, multipath are not configured<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; This means the host was not deployed correctly. When deploying vdsm<br>
&gt;&gt; host deploy must run &quot;vdsm-tool configure --force&quot;, which configures<br>
&gt;&gt; multipath and sanlock.<br>
&gt;&gt;<br>
&gt;&gt; We did not change anything in multipath and sanlock configurators lately.<br>
&gt;&gt;<br>
&gt;&gt; Didi, can you check this?<br>
&gt;&gt;<br>
&gt;&gt; ______________________________<wbr>_________________<br>
&gt;&gt; Devel mailing list<br>
&gt;&gt; <a href="mailto:Devel@ovirt.org" target="_blank">Devel@ovirt.org</a><br>
&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/devel" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/devel</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Anton Marchukov<br>
&gt; Team Lead - Release Management - RHV DevOps - Red Hat<br>
&gt;<br>
<br>
<br><span class="HOEnZb"><font color="#888888">
<br>
--<br>
Didi<br>
</font></span></blockquote></div>
</blockquote></div><br></div></div>