<div dir="ltr">zram does not support direct IO (tested, indeed fails).<div>What I do is host the VMs there, though - this is working - but I&#39;m using Lago (and not oVirt). does oVirt need direct IO for the temp disks? I thought we are doing them on the libvirt level?</div><div><br></div><div>This is the command I use:</div><div>sudo modprobe zram num_devices=1 &amp;&amp; sudo zramctl --find --size 12G &amp;&amp; sudo mkfs.xfs -K /dev/zram0 &amp;&amp; sudo mount -o nobarrier /dev/zram0 /home/zram &amp;&amp; sudo chmod 777 /home/zram<br></div><div><br></div><div>And then I run lago with: ./run_suite.sh -o /home/zram basic_suite_master</div><div><br></div><div>Y.</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Sep 29, 2016 at 10:47 AM, Evgheni Dereveanchin <span dir="ltr">&lt;<a href="mailto:ederevea@redhat.com" target="_blank">ederevea@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Yaniv,<br>
<br>
this is a physical server with work directories<br>
created on a zRAM device, here&#39;s the patch:<br>
<a href="https://gerrit.ovirt.org/#/c/62249/2/site/ovirt_jenkins_slave/templates/prepare-ram-disk.service.erb" rel="noreferrer" target="_blank">https://gerrit.ovirt.org/#/c/<wbr>62249/2/site/ovirt_jenkins_<wbr>slave/templates/prepare-ram-<wbr>disk.service.erb</a><br>
<br>
I&#39;ll still need to read up on this but the only<br>
slave having this class (ovirt-srv08) is now offline<br>
and should not cause issues. I tested on VM slaves<br>
and did not see errors from the dd test command you provided.<br>
<br>
Please tell me if you see errors on other nodes and I&#39;ll<br>
check what&#39;s going on but it must be something else than RAM disks.<br>
<span class="im HOEnZb"><br>
Regards,<br>
Evgheni Dereveanchin<br>
<br>
----- Original Message -----<br>
</span><div class="HOEnZb"><div class="h5">From: &quot;Yaniv Kaul&quot; &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt;<br>
To: &quot;Evgheni Dereveanchin&quot; &lt;<a href="mailto:ederevea@redhat.com">ederevea@redhat.com</a>&gt;<br>
Cc: &quot;infra&quot; &lt;<a href="mailto:infra@ovirt.org">infra@ovirt.org</a>&gt;, &quot;devel&quot; &lt;<a href="mailto:devel@ovirt.org">devel@ovirt.org</a>&gt;, &quot;Eyal Edri&quot; &lt;<a href="mailto:eedri@redhat.com">eedri@redhat.com</a>&gt;, &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt;<br>
Sent: Thursday, 29 September, 2016 9:32:45 AM<br>
Subject: Re: [ovirt-devel] [VDSM] All tests using directio fail on CI<br>
<br>
On Sep 29, 2016 10:28 AM, &quot;Evgheni Dereveanchin&quot; &lt;<a href="mailto:ederevea@redhat.com">ederevea@redhat.com</a>&gt;<br>
wrote:<br>
&gt;<br>
&gt; Hi,<br>
&gt;<br>
&gt; Indeed the proposed dd test does not work on zRAM slaves.<br>
&gt; Can we modify the job not to run on nodes with ram_disk label?<br>
<br>
Are those zram based or ram based *virtio-blk* disks,  or zram/ram disks<br>
within the VMs?<br>
The former should work. The latter -  no idea.<br>
<br>
&gt;<br>
&gt; The node will be offline for now until we agree on what to do.<br>
&gt; An option is to abandon RAM disks completely as we didn&#39;t find<br>
&gt; any performance benefits from using them so far.<br>
<br>
That&#39;s very surprising. On my case it doubles the performance,  at least.<br>
But I assume my storage (single disk) is far slower than yours.<br>
Y.<br>
<br>
&gt;<br>
&gt; Regards,<br>
&gt; Evgheni Dereveanchin<br>
&gt;<br>
&gt; ----- Original Message -----<br>
&gt; From: &quot;Eyal Edri&quot; &lt;<a href="mailto:eedri@redhat.com">eedri@redhat.com</a>&gt;<br>
&gt; To: &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt;, &quot;Evgheni Dereveanchin&quot; &lt;<br>
<a href="mailto:ederevea@redhat.com">ederevea@redhat.com</a>&gt;<br>
&gt; Cc: &quot;Yaniv Kaul&quot; &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt;, &quot;devel&quot; &lt;<a href="mailto:devel@ovirt.org">devel@ovirt.org</a>&gt;, &quot;infra&quot; &lt;<br>
<a href="mailto:infra@ovirt.org">infra@ovirt.org</a>&gt;<br>
&gt; Sent: Thursday, 29 September, 2016 8:08:45 AM<br>
&gt; Subject: Re: [ovirt-devel] [VDSM] All tests using directio fail on CI<br>
&gt;<br>
&gt; Evgheni,<br>
&gt; Can you try switching the current RAM drive with zram?<br>
&gt;<br>
&gt; On Wed, Sep 28, 2016 at 11:43 PM, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; On Wed, Sep 28, 2016 at 11:39 PM, Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com">ykaul@redhat.com</a>&gt; wrote:<br>
&gt; &gt; &gt; On Sep 28, 2016 11:37 PM, &quot;Nir Soffer&quot; &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; On Wed, Sep 28, 2016 at 11:20 PM, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt;<br>
&gt; &gt; wrote:<br>
&gt; &gt; &gt;&gt; &gt; On Wed, Sep 28, 2016 at 10:31 PM, Barak Korren &lt;<a href="mailto:bkorren@redhat.com">bkorren@redhat.com</a>&gt;<br>
&gt; &gt; &gt;&gt; &gt; wrote:<br>
&gt; &gt; &gt;&gt; &gt;&gt; The CI setup did not change recently.<br>
&gt; &gt; &gt;&gt; &gt;<br>
&gt; &gt; &gt;&gt; &gt; Great<br>
&gt; &gt; &gt;&gt; &gt;<br>
&gt; &gt; &gt;&gt; &gt;&gt; All standard-CI jobs run inside mock (chroot) which is stored on<br>
top<br>
&gt; &gt; &gt;&gt; &gt;&gt; of a regular FS, so they should not be affected by the slave OS at<br>
&gt; &gt; all<br>
&gt; &gt; &gt;&gt; &gt;&gt; as far as FS settings go.<br>
&gt; &gt; &gt;&gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; &gt;&gt; But perhaps some slave-OS/mock-OS combination is acting<br>
strangely, so<br>
&gt; &gt; &gt;&gt; &gt;&gt; could you be more specific and point to particular job runs that<br>
&gt; &gt; fail?<br>
&gt; &gt; &gt;&gt; &gt;<br>
&gt; &gt; &gt;&gt; &gt; This jobs failed, but it was deleted (I get 404 now):<br>
&gt; &gt; &gt;&gt; &gt; <a href="http://jenkins.ovirt.org/job/vdsm_master_check-patch-fc24-" rel="noreferrer" target="_blank">http://jenkins.ovirt.org/job/<wbr>vdsm_master_check-patch-fc24-</a><br>
&gt; &gt; x86_64/2530/<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; Oops, wrong build.<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; This is the failing build:<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; <a href="http://jenkins.ovirt.org/job/vdsm_master_check-patch-el7-" rel="noreferrer" target="_blank">http://jenkins.ovirt.org/job/<wbr>vdsm_master_check-patch-el7-</a><br>
&gt; &gt; x86_64/1054/console<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; And this is probably the reason - using a ram disk:<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; 12:24:53 Building remotely on <a href="http://ovirt-srv08.phx.ovirt.org" rel="noreferrer" target="_blank">ovirt-srv08.phx.ovirt.org</a> (phx physical<br>
&gt; &gt; &gt;&gt; integ-tests ram_disk fc23) in workspace<br>
&gt; &gt; &gt;&gt; /home/jenkins/workspace/vdsm_<wbr>master_check-patch-el7-x86_64<br>
&gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt;&gt; We cannot run the storage tests using a ramdisk. We are creating<br>
&gt; &gt; &gt;&gt; (tiny) volumes and storage domains and doing copies, this code cannot<br>
&gt; &gt; &gt;&gt; work with ramdisk.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Will it work on zram?<br>
&gt; &gt; &gt; What if we configure ram based iSCSI targets?<br>
&gt; &gt;<br>
&gt; &gt; I don&#39;t know, but it is easy to test - it this works the tests will<br>
work:<br>
&gt; &gt;<br>
&gt; &gt; dd if=/dev/zero of=file bs=512 count=1 oflag=direct<br>
&gt; &gt; ______________________________<wbr>_________________<br>
&gt; &gt; Infra mailing list<br>
&gt; &gt; <a href="mailto:Infra@ovirt.org">Infra@ovirt.org</a><br>
&gt; &gt; <a href="http://lists.ovirt.org/mailman/listinfo/infra" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/infra</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Eyal Edri<br>
&gt; Associate Manager<br>
&gt; RHV DevOps<br>
&gt; EMEA ENG Virtualization R&amp;D<br>
&gt; Red Hat Israel<br>
&gt;<br>
&gt; phone: <a href="tel:%2B972-9-7692018" value="+97297692018">+972-9-7692018</a><br>
&gt; irc: eedri (on #tlv #rhev-dev #rhev-integ)<br>
</div></div></blockquote></div><br></div>