<p dir="ltr"></p>
<p dir="ltr">On Sep 29, 2016 10:28 AM, &quot;Evgheni Dereveanchin&quot; &lt;<a href="mailto:ederevea@redhat.com">ederevea@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; Hi,<br>
&gt;<br>
&gt; Indeed the proposed dd test does not work on zRAM slaves.<br>
&gt; Can we modify the job not to run on nodes with ram_disk label?</p>
<p dir="ltr">Are those zram based or ram based *virtio-blk* disks,  or zram/ram disks within the VMs? <br>
The former should work. The latter -  no idea. </p>
<p dir="ltr">&gt;<br>
&gt; The node will be offline for now until we agree on what to do.<br>
&gt; An option is to abandon RAM disks completely as we didn&#39;t find<br>
&gt; any performance benefits from using them so far.</p>
<p dir="ltr">That&#39;s very surprising. On my case it doubles the performance,  at least. But I assume my storage (single disk) is far slower than yours. <br>
Y. </p>
<p dir="ltr">&gt;<br>
&gt; Regards,<br>
&gt; Evgheni Dereveanchin<br>
&gt;<br>
&gt; ----- Original Message -----<br>
&gt; From: &quot;Eyal Edri&quot; &lt;<a href="mailto:eedri@redhat.com">eedri@redhat.com</a>&gt;<br>
&gt; To: &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt;, &quot;Evgheni Dereveanchin&quot; &lt;<a href="mailto:ederevea@redhat.com">ederevea@redhat.com</a>&gt;<br>
&gt; Cc: &quot;Yaniv Kaul&quot; &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt;, &quot;devel&quot; &lt;<a href="mailto:devel@ovirt.org">devel@ovirt.org</a>&gt;, &quot;infra&quot; &lt;<a href="mailto:infra@ovirt.org">infra@ovirt.org</a>&gt;<br>
&gt; Sent: Thursday, 29 September, 2016 8:08:45 AM<br>
&gt; Subject: Re: [ovirt-devel] [VDSM] All tests using directio fail on CI<br>
&gt;<br>
&gt; Evgheni,<br>
&gt; Can you try switching the current RAM drive with zram?<br>
&gt;<br>
&gt; On Wed, Sep 28, 2016 at 11:43 PM, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; On Wed, Sep 28, 2016 at 11:39 PM, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt; wrote:<br>
&gt; &gt; &gt; On Sep 28, 2016 11:37 PM, &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; On Wed, Sep 28, 2016 at 11:20 PM, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt;<br>
&gt; &gt; wrote:<br>
&gt; &gt; &gt;&gt; &gt; On Wed, Sep 28, 2016 at 10:31 PM, Barak Korren &lt;<a href="mailto:bkorren@redhat.com">bkorren@redhat.com</a>&gt;<br>
&gt; &gt; &gt;&gt; &gt; wrote:<br>
&gt; &gt; &gt;&gt; &gt;&gt; The CI setup did not change recently.<br>
&gt; &gt; &gt;&gt; &gt;<br>
&gt; &gt; &gt;&gt; &gt; Great<br>
&gt; &gt; &gt;&gt; &gt;<br>
&gt; &gt; &gt;&gt; &gt;&gt; All standard-CI jobs run inside mock (chroot) which is stored on top<br>
&gt; &gt; &gt;&gt; &gt;&gt; of a regular FS, so they should not be affected by the slave OS at<br>
&gt; &gt; all<br>
&gt; &gt; &gt;&gt; &gt;&gt; as far as FS settings go.<br>
&gt; &gt; &gt;&gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; &gt;&gt; But perhaps some slave-OS/mock-OS combination is acting strangely, so<br>
&gt; &gt; &gt;&gt; &gt;&gt; could you be more specific and point to particular job runs that<br>
&gt; &gt; fail?<br>
&gt; &gt; &gt;&gt; &gt;<br>
&gt; &gt; &gt;&gt; &gt; This jobs failed, but it was deleted (I get 404 now):<br>
&gt; &gt; &gt;&gt; &gt; <a href="http://jenkins.ovirt.org/job/vdsm_master_check-patch-fc24-">http://jenkins.ovirt.org/job/vdsm_master_check-patch-fc24-</a><br>
&gt; &gt; x86_64/2530/<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; Oops, wrong build.<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; This is the failing build:<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; <a href="http://jenkins.ovirt.org/job/vdsm_master_check-patch-el7-">http://jenkins.ovirt.org/job/vdsm_master_check-patch-el7-</a><br>
&gt; &gt; x86_64/1054/console<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; And this is probably the reason - using a ram disk:<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; 12:24:53 Building remotely on <a href="http://ovirt-srv08.phx.ovirt.org">ovirt-srv08.phx.ovirt.org</a> (phx physical<br>
&gt; &gt; &gt;&gt; integ-tests ram_disk fc23) in workspace<br>
&gt; &gt; &gt;&gt; /home/jenkins/workspace/vdsm_master_check-patch-el7-x86_64<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; We cannot run the storage tests using a ramdisk. We are creating<br>
&gt; &gt; &gt;&gt; (tiny) volumes and storage domains and doing copies, this code cannot<br>
&gt; &gt; &gt;&gt; work with ramdisk.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Will it work on zram?<br>
&gt; &gt; &gt; What if we configure ram based iSCSI targets?<br>
&gt; &gt;<br>
&gt; &gt; I don&#39;t know, but it is easy to test - it this works the tests will work:<br>
&gt; &gt;<br>
&gt; &gt; dd if=/dev/zero of=file bs=512 count=1 oflag=direct<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Infra mailing list<br>
&gt; &gt; <a href="mailto:Infra@ovirt.org">Infra@ovirt.org</a><br>
&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/infra">http://lists.ovirt.org/mailman/listinfo/infra</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Eyal Edri<br>
&gt; Associate Manager<br>
&gt; RHV DevOps<br>
&gt; EMEA ENG Virtualization R&amp;D<br>
&gt; Red Hat Israel<br>
&gt;<br>
&gt; phone: +972-9-7692018<br>
&gt; irc: eedri (on #tlv #rhev-dev #rhev-integ)<br></p>