<p dir="ltr"></p>
<p dir="ltr">On Nov 20, 2016 6:30 PM, &quot;Eyal Edri&quot; &lt;<a href="mailto:eedri@redhat.com">eedri@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Renaming title and adding devel.<br>
&gt;<br>
&gt; On Sun, Nov 20, 2016 at 2:36 PM, Piotr Kliczewski &lt;<a href="mailto:pkliczew@redhat.com">pkliczew@redhat.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; The last failure seems to be storage related.<br>
&gt;&gt;<br>
&gt;&gt; @Nir please take a look.<br>
&gt;&gt;<br>
&gt;&gt; Here is engine side error:<br>
&gt;&gt;<br>
&gt;&gt; 2016-11-20 05:54:59,605 DEBUG [org.ovirt.engine.core.vdsbroker.vdsbroker.ConnectStoragePoolVDSCommand] (default task-5) [59fc0074] Exception: org.ovirt.engine.core.vdsbroker.irsbroker.IRSNoMasterDomainException: IRSGenericException: IRSErrorException: IRSNoMasterDomainException: Cannot find master domain: u&#39;spUUID=1ca141f1-b64d-4a52-8861-05c7de2a72b2, msdUUID=7d4bf750-4fb8-463f-bbb0-92156c47306e&#39;<br>
&gt;&gt;<br>
&gt;&gt; and here is vdsm:<br>
&gt;&gt;<br>
&gt;&gt; jsonrpc.Executor/5::ERROR::2016-11-20 05:54:56,331::multipath::95::Storage.Multipath::(resize_devices) Could not resize device 360014052749733c7b8248628637b990f<br>
&gt;&gt; Traceback (most recent call last):<br>
&gt;&gt;   File &quot;/usr/share/vdsm/storage/multipath.py&quot;, line 93, in resize_devices<br>
&gt;&gt;     _resize_if_needed(guid)<br>
&gt;&gt;   File &quot;/usr/share/vdsm/storage/multipath.py&quot;, line 101, in _resize_if_needed<br>
&gt;&gt;     for slave in devicemapper.getSlaves(name)]<br>
&gt;&gt;   File &quot;/usr/share/vdsm/storage/multipath.py&quot;, line 158, in getDeviceSize<br>
&gt;&gt;     bs, phyBs = getDeviceBlockSizes(devName)<br>
&gt;&gt;   File &quot;/usr/share/vdsm/storage/multipath.py&quot;, line 150, in getDeviceBlockSizes<br>
&gt;&gt;     &quot;queue&quot;, &quot;logical_block_size&quot;)).read())<br>
&gt;&gt; IOError: [Errno 2] No such file or directory: &#39;/sys/block/sdb/queue/logical_block_size&#39;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; We now see a different error in master [1], which also indicates the hosts are in a problematic state: ( failing &#39;assign_hosts_network_label&#39; test  )<br>
&gt;<br>
&gt; status: 409<br>
&gt; reason: Conflict<br>
&gt; detail: Cannot add Label. Operation can be performed only when Host status is  Maintenance, Up, NonOperational.</p>
<p dir="ltr">I believe you are mixing unrelated issues. <br>
I&#39;ve seen this once and I have an unproven theory :<br>
The previous suite restarts Engine after LDAP configuration then performs its test, which is quite short (24 seconds on my poor laptop + few additional secs between suites). <br>
I&#39;m not convinced it is enough time for hosts status to be updated in Engine back to UP state. </p>
<p dir="ltr">Y. </p>
<p dir="ltr">&gt; -------------------- &gt;&gt; begin captured logging &lt;&lt; --------------------<br>
&gt;<br>
&gt;<br>
&gt; [1] <a href="http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_master/3506/testReport/junit/(root)/006_network_by_label/assign_hosts_network_label/">http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_master/3506/testReport/junit/(root)/006_network_by_label/assign_hosts_network_label/</a><br>
&gt;<br>
&gt;  <br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Sun, Nov 20, 2016 at 12:50 PM, Eyal Edri &lt;<a href="mailto:eedri@redhat.com">eedri@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Sun, Nov 20, 2016 at 1:42 PM, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On Sun, Nov 20, 2016 at 1:30 PM, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; On Sun, Nov 20, 2016 at 1:18 PM, Eyal Edri &lt;<a href="mailto:eedri@redhat.com">eedri@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; the test fails to run VM because no hosts are in UP state(?) [1], not sure it is related to the triggering patch[2]<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; status: 400<br>
&gt;&gt;&gt;&gt;&gt;&gt; reason: Bad Request<br>
&gt;&gt;&gt;&gt;&gt;&gt; detail: There are no hosts to use. Check that the cluster contains at least one host in Up state.<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; Thoughts? Shouldn&#39;t we fail the test earlier we hosts are not UP? <br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Yes. It&#39;s more likely that we are picking the wrong host or so, but who knows - where are the engine and VDSM logs?<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; A simple grep on the engine.log[1] finds serveral unrelated issues I&#39;m not sure are reported, it&#39;s despairing to even begin...<br>
&gt;&gt;&gt;&gt; That being said, I don&#39;t see the issue there. We may need better logging on the API level, to see what is being sent. Is it consistent?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Just failed now the first time, I didn&#39;t see it before.<br>
&gt;&gt;&gt;  <br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Y.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; [1] <a href="http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_4.0/3015/artifact/exported-artifacts/basic_suite_4.0.sh-el7/exported-artifacts/test_logs/basic-suite-4.0/post-004_basic_sanity.py/lago-basic-suite-4-0-engine/_var_log_ovirt-engine/engine.log">http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_4.0/3015/artifact/exported-artifacts/basic_suite_4.0.sh-el7/exported-artifacts/test_logs/basic-suite-4.0/post-004_basic_sanity.py/lago-basic-suite-4-0-engine/_var_log_ovirt-engine/engine.log</a> <br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Y.<br>
&gt;&gt;&gt;&gt;&gt;  <br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; [1] <a href="http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_4.0/3015/testReport/junit/(root)/004_basic_sanity/vm_run/">http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_4.0/3015/testReport/junit/(root)/004_basic_sanity/vm_run/</a><br>
&gt;&gt;&gt;&gt;&gt;&gt; [2] <a href="http://jenkins.ovirt.org/job/ovirt-engine_4.0_build-artifacts-el7-x86_64/1535/changes#detail">http://jenkins.ovirt.org/job/ovirt-engine_4.0_build-artifacts-el7-x86_64/1535/changes#detail</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; On Sun, Nov 20, 2016 at 1:00 PM, &lt;<a href="mailto:jenkins@jenkins.phx.ovirt.org">jenkins@jenkins.phx.ovirt.org</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; Build: <a href="http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_4.0/3015/">http://jenkins.ovirt.org/job/test-repo_ovirt_experimental_4.0/3015/</a>,<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; Build Number: 3015,<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; Build Status: FAILURE<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; Infra mailing list<br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; <a href="mailto:Infra@ovirt.org">Infra@ovirt.org</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt; <a href="http://lists.ovirt.org/mailman/listinfo/infra">http://lists.ovirt.org/mailman/listinfo/infra</a><br>
&gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; -- <br>
&gt;&gt;&gt;&gt;&gt;&gt; Eyal Edri<br>
&gt;&gt;&gt;&gt;&gt;&gt; Associate Manager<br>
&gt;&gt;&gt;&gt;&gt;&gt; RHV DevOps<br>
&gt;&gt;&gt;&gt;&gt;&gt; EMEA ENG Virtualization R&amp;D<br>
&gt;&gt;&gt;&gt;&gt;&gt; Red Hat Israel<br>
&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;&gt; phone: +972-9-7692018<br>
&gt;&gt;&gt;&gt;&gt;&gt; irc: eedri (on #tlv #rhev-dev #rhev-integ)<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; -- <br>
&gt;&gt;&gt; Eyal Edri<br>
&gt;&gt;&gt; Associate Manager<br>
&gt;&gt;&gt; RHV DevOps<br>
&gt;&gt;&gt; EMEA ENG Virtualization R&amp;D<br>
&gt;&gt;&gt; Red Hat Israel<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; phone: +972-9-7692018<br>
&gt;&gt;&gt; irc: eedri (on #tlv #rhev-dev #rhev-integ)<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; -- <br>
&gt; Eyal Edri<br>
&gt; Associate Manager<br>
&gt; RHV DevOps<br>
&gt; EMEA ENG Virtualization R&amp;D<br>
&gt; Red Hat Israel<br>
&gt;<br>
&gt; phone: +972-9-7692018<br>
&gt; irc: eedri (on #tlv #rhev-dev #rhev-integ)<br></p>