<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 6, 2016 at 5:26 PM, Gabriel Ozaki <span dir="ltr">&lt;<a href="mailto:gabriel.ozaki@kemi.com.br" target="_blank">gabriel.ozaki@kemi.com.br</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div><div>Hi Yaniv<br><br></div>This results is averange in sysbench, my machine for example gets 1.3905Mb/sec, i don&#39;t know how this test really works and i will search about it<br></div><br>So i try to make a<b> bonnie++ test</b> ( reference  <a href="http://support.commgate.net/index.php?/Knowledgebase/Article/View/212" target="_blank">http://support.commgate.net/<wbr>index.php?/Knowledgebase/<wbr>Article/View/212</a> ):<br><br></div>Xenserver speeds:<br></div>Write speed: 91076 KB/sec<br></div>ReWrite speed: 57885 KB/sec<br></div>Read speed: 215457 KB/sec (Strange, too high)<br></div><div>Num of Blocks: 632.4<br></div><div><br></div>Ovirt Speeds:<br><div><div><div><div><div><div><div>Write speed: 111597 KB/sec (22% more then xenserver)<br>ReWrite speed: 73402 KB/sec (26% more then xenserver)<br>Read speed:  121537 KB/sec (44% less then xenserver)<br>Num of Blocks: 537.2 ( 15% less then xenserver)<br><br><br></div><div>result: a draw?<br></div></div></div></div></div></div></div></div></blockquote><div><br></div><div>Perhaps - depends on what you wish to measure.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div><div></div><div><br><br></div><div>And<b> DD test </b>( reference: <a href="https://romanrm.net/dd-benchmark" target="_blank">https://romanrm.net/dd-<wbr>benchmark</a> )<b>:</b><br>[root@xenserver teste]# echo 2 &gt; /proc/sys/vm/drop_caches  &amp;&amp; sync<br>[root@xenserver teste]# dd bs=1M count=256 if=/dev/zero of=test conv=fdatasync<br></div></div></div></div></div></div></div></div></blockquote><div><br></div><div>fdatasync is the wrong choice - it still caches (but again, I&#39;m not sure what you are trying to measure). You should use direct IO (oflag=direct) if you are interested in pure IO data path performance .</div><div>Note that most applications do not:</div><div>1. Write sequentially (especially not VMs)</div><div>2. Write 1MB blocks.</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div><div>256+0 registros de entrada<br>256+0 registros de saída<br>268435456 bytes (268 MB) copiados, 1,40111 s, 192 MB/s (Again, too high)<br></div></div></div></div></div></div></div></div></blockquote><div><br></div><div>Perhaps the disk is caching?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div><div><br></div><div>[root@ovirt teste]# echo 2 &gt; /proc/sys/vm/drop_caches  &amp;&amp; sync<br>[root@ovirt teste]# dd bs=1M count=256 if=/dev/zero of=test conv=fdatasync<br>256+0 registros de entrada<br>256+0 registros de saída<br>268435456 bytes (268 MB) copiados, 2,31288 s, 116 MB/s (Really fair, the host result is 124 MB/s)<br><br><br></div><div><b>HDparm </b>(FAIL on xenserver)<br>[root@xenserver teste]# hdparm -Tt /dev/xvda1 <br><br>/dev/xvda1:<br> Timing cached reads:   25724 MB in  2.00 seconds = 12882.77 MB/sec <br> Timing buffered disk reads: 2984 MB in  3.00 seconds = 994.43 MB/sec ( 8 times the expect value, something is very wrong)<br><br></div><div>[root@ovirt teste]# hdparm -Tt /dev/vda1<br><br>/dev/vda1:<br> Timing cached reads:   25042 MB in  2.00 seconds = 12540.21 MB/sec<br> Timing buffered disk reads: 306 MB in  3.01 seconds = 101.66 MB/sec(ok result)<br><br><br></div><div>There is something strange in xenserver affecting the results, probably the best choice is close the thread and  start the studies about benchmarks<br></div></div></div></div></div></div></div></div></blockquote><div><br></div><div>Agreed. It&#39;s not easy, it&#39;s sometimes more art than science, but first of all you need to define what you wish to benchmark exactly. </div><div>I warmly suggest you look more into real life applications rather than synthetic benchmarks, but if you insist, I warmly recommend fio (<a href="https://github.com/axboe/fio">https://github.com/axboe/fio</a>)</div><div><br></div><div>HTH,</div><div>Y.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div><div><br></div><div>Thanks<br></div><div><br></div></div></div></div></div></div></div></div><div class="gmail_extra"><br clear="all"><div><div><div dir="ltr"><div><div dir="ltr"><img src="https://docs.google.com/a/kemi.com.br/uc?id=0BxC77GE-UKwcSzB4TXNhcTNBSzQ&amp;export=download"><br><br><div><br></div></div></div></div></div></div><div><div class="gmail-h5">
<br><div class="gmail_quote">2016-09-05 12:01 GMT-03:00 Yaniv Kaul <span dir="ltr">&lt;<a href="mailto:ykaul@redhat.com" target="_blank">ykaul@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span>On Mon, Sep 5, 2016 at 1:45 PM, Gabriel Ozaki <span dir="ltr">&lt;<a href="mailto:gabriel.ozaki@kemi.com.br" target="_blank">gabriel.ozaki@kemi.com.br</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div>Hi Yaniv and Sandro<br><br></div>The disk is in the same machine then ovirt-engine<br></div></div></blockquote><div><br></div></span><div>I&#39;m looking back at your results, and something is terribly wrong there:</div><div>For example, sysbench:</div><span><div><br></div><div style="font-size:12.8px">Host result:            2.9843Mb/sec<br></div><div style="font-size:12.8px">Ovirt result:           1.1561Mb/sec<br></div><div style="font-size:12.8px">Xenserver result:   2.9006Mb/sec</div><div style="font-size:12.8px"><br></div></span><div style="font-size:12.8px">This is slower than a USB1 disk on key performance. I don&#39;t know what to make of it, but it&#39;s completely bogus. Even plain QEMU can get better results than this.</div><div style="font-size:12.8px">And the 2nd benchmark:</div><span><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><b>*The novabench test:<br></b><div>Ovirt result:          79Mb/s<br></div></div><div><span style="font-size:12.8px">Xenserver result:  101Mb/s</span> </div><div><br></div></span><div>This is better, but still very slow. If I translate it to MB/s, it&#39;s ~10-12MBs - still very very slow.</div><div>If, however, this is MB/sec, then this makes sense - and is probably as much as you can get from a single spindle.</div><div>The difference between XenServer and oVirt are more likely have to do with caching than anything else. I don&#39;t know what the caching settings of XenServer - can you ensure no caching (&#39;direct IO&#39;) is used?</div><div><div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div>Thanks<br></div><div class="gmail_extra"><br clear="all"><div><div><div dir="ltr"><div><div dir="ltr"><img src="https://docs.google.com/a/kemi.com.br/uc?id=0BxC77GE-UKwcSzB4TXNhcTNBSzQ&amp;export=download"><br><br><div><br></div></div></div></div></div></div><div><div>
<br><div class="gmail_quote">2016-09-02 15:31 GMT-03:00 Yaniv Kaul <span dir="ltr">&lt;<a href="mailto:ykaul@redhat.com" target="_blank">ykaul@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span>On Fri, Sep 2, 2016 at 6:11 PM, Gabriel Ozaki <span dir="ltr">&lt;<a href="mailto:gabriel.ozaki@kemi.com.br" target="_blank">gabriel.ozaki@kemi.com.br</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Hi Yaniv<br><br></div>Sorry guys, i don&#39;t explain well on my first mail, i notice a bad IO performance on <b>disk</b> benchmarks, the network are working really fine<br></div></blockquote><div><br></div></span><div>But where is the disk? If it&#39;s across the network, then network is involved and is certainly a bottleneck.</div><span><font color="#888888"><div>Y.</div></font></span><div><div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><br></div><div class="gmail_extra"><br clear="all"><div><div><div dir="ltr"><div><div dir="ltr"><img src="https://docs.google.com/a/kemi.com.br/uc?id=0BxC77GE-UKwcSzB4TXNhcTNBSzQ&amp;export=download"><br><br><div><br></div></div></div></div></div></div><div><div>
<br><div class="gmail_quote">2016-09-02 12:04 GMT-03:00 Yaniv Kaul <span dir="ltr">&lt;<a href="mailto:ykaul@redhat.com" target="_blank">ykaul@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><div>On Fri, Sep 2, 2016 at 5:33 PM, Gabriel Ozaki <span dir="ltr">&lt;<a href="mailto:gabriel.ozaki@kemi.com.br" target="_blank">gabriel.ozaki@kemi.com.br</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><div>Hi Nir, thanks for the answer<br><br></div><span><b>The nfs server is in the host?<br></b></span></div>Yes, i choose NFS to use as storage on ovirt host<span><br><br><b>- Is this 2.9GiB/s or 2.9 MiB/s?</b><br></span></div>Is MiB/s, i put the full test on paste bin<br>centos guest on ovirt:<br><a href="http://pastebin.com/d48qfvuf" target="_blank">http://pastebin.com/d48qfvuf</a><br><br></div>centos guest on xenserver:<br><a href="http://pastebin.com/gqN3du29" target="_blank">http://pastebin.com/gqN3du29</a><br><br></div>how the test works:<br><a href="https://www.howtoforge.com/how-to-benchmark-your-system-cpu-file-io-mysql-with-sysbench" target="_blank">https://www.howtoforge.com/how<wbr>-to-benchmark-your-system-cpu-<wbr>file-io-mysql-with-sysbench</a><span><br><br><b>- Are you testing using NFS in all versions?</b><br></span><div><div><div><div>i am using the v3 version<span><br><br><b>- What is the disk format?</b><br></span></div><div>partion size format<br></div><div>/    20Gb xfs<br></div><div>swap 2 Gb xfs<br></div><div>/dados rest of disk xfs   (note, this is the partition where i save the ISOs,exports and VM disks)<span><br><br><b>- How do you test io on the host?<br></b></span></div><div>I do a clean install of centos and do the test before i install the ovirt<br>the test:<br><a href="http://pastebin.com/7RKU7778" target="_blank">http://pastebin.com/7RKU7778</a><br></div><div><span><br><div><b>- What kind of nic is used? (1G, 10G?)</b></div></span><span><div>Is only a 100mbps :(<br></div></span></div></div></div></div></div></blockquote><div><br></div></div></div><div>100Mbps will not get you more than several MB/s. 11MB/s on a very bright day... </div><span><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div><div><div><span><div><br></div><span><div><b>We need much more details to understand what do you test here.</b></div></span></span>I have problems to upload the benchmark test on orvirt to novabench site, so here is the screenshot(i make a mistake on the last email i get the wrong value), is 86 Mb/s:<br></div></div></div></div></div></blockquote><div><br></div></span><div>Which is not possible on the wire. Unless it&#39;s VM to VM? And the storage is local, which means it&#39;s the bandwidth of the physical disk itself?</div><div>Y.</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div><div dir="ltr"><div><div><div><div><img src="cid:ii_isluoxyd0_156eb485435838b4" height="532" width="498"><br>​<br></div><div>And the novabench on xenserver:<br><a href="https://novabench.com/compare.php?id=ba8dd628e4042dfc1f3d39670b164ab11061671" target="_blank">https://novabench.com/compare.<wbr>php?id=ba8dd628e4042dfc1f3d396<wbr>70b164ab11061671</a><span><br><br><div><b>- For Xenserver - detailed description of the vm and the storage configuration?</b></div></span><div><div>The host is the same(i install xenserver, do the tests before i install centos), the VM i use the same configuration of ovirt, 2 cores, 4 Gb of ram<img src="https://ssl.gstatic.com/ui/v1/icons/mail/images/cleardot.gif"> and 60 Gb disk(in the default xenserver SR)<span><br><br><b>- For ovirt, can you share the vm command line, available in /var/log/libvirt/qemu/vmname.</b><b>l<wbr>og?</b><br></span>2016-09-01 12:50:28.268+0000: starting up libvirt version: 1.2.17, package: 13.el7_2.5 (CentOS BuildSystem &lt;<a href="http://bugs.centos.org" target="_blank">http://bugs.centos.org</a>&gt;, 2016-06-23-14:23:27, <a href="http://worker1.bsys.centos.org" target="_blank">worker1.bsys.centos.org</a>), qemu version: 2.3.0 (qemu-kvm-ev-2.3.0-31.el7.16.1<wbr>)<br>LC_ALL=C PATH=/usr/local/sbin:/usr/loca<wbr>l/bin:/usr/sbin:/usr/bin QEMU_AUDIO_DRV=none /usr/libexec/qemu-kvm -name vmcentos -S -machine pc-i440fx-rhel7.2.0,accel=kvm,<wbr>usb=off -cpu Haswell-noTSX -m size=4194304k,slots=16,maxmem=<wbr>4294967296k -realtime mlock=off -smp 2,maxcpus=16,sockets=16,cores=<wbr>1,threads=1 -numa node,nodeid=0,cpus=0-1,mem=409<wbr>6 -uuid 21872e4b-7699-4502-b1ef-2c058e<wbr>ff1c3c -smbios type=1,manufacturer=oVirt,prod<wbr>uct=oVirt Node,version=7-2.1511.el7.cent<wbr>os.2.10,serial=03AA02FC-0414-0<wbr>5F8-D906-710700080009,uuid=218<wbr>72e4b-7699-4502-b1ef-2c058eff1<wbr>c3c -no-user-config -nodefaults -chardev socket,id=charmonitor,path=/va<wbr>r/lib/libvirt/qemu/domain-vmce<wbr>ntos/monitor.sock,server,nowai<wbr>t -mon chardev=charmonitor,id=monitor<wbr>,mode=control -rtc base=2016-09-01T09:50:28,drift<wbr>fix=slew -global kvm-pit.lost_tick_policy=disca<wbr>rd -no-hpet -no-shutdown -boot strict=on -device piix3-usb-uhci,id=usb,bus=pci.<wbr>0,addr=0x1.0x2 -device virtio-scsi-pci,id=scsi0,bus=p<wbr>ci.0,addr=0x3 -device virtio-serial-pci,id=virtio-se<wbr>rial0,max_ports=16,bus=pci.0,a<wbr>ddr=0x4 -drive file=/rhev/data-center/mnt/ovi<wbr>rt.kemi.intranet:_dados_iso/52<wbr>ee9f87-9d38-48ec-8003-193262f8<wbr>1994/images/11111111-1111-1111<wbr>-1111-111111111111/CentOS-7-x8<wbr>6_64-NetInstall-1511.iso,if=no<wbr>ne,id=drive-ide0-1-0,readonly=<wbr>on,format=raw -device ide-cd,bus=ide.1,unit=0,drive=<wbr>drive-ide0-1-0,id=ide0-1-0,boo<wbr>tindex=2 -drive file=/rhev/data-center/0000000<wbr>1-0001-0001-0001-0000000002bb/<wbr>4ccdd1f3-ee79-4425-b6ed-577464<wbr>3003fa/images/2ecfcf18-ae84-4e<wbr>73-922f-28b9cda9e6e1/800f05bf-<wbr>23f7-4c9d-8c1d-b2503592875f,if<wbr>=none,id=drive-virtio-disk0,fo<wbr>rmat=raw,serial=2ecfcf18-ae84-<wbr>4e73-922f-28b9cda9e6e1,cache=n<wbr>one,werror=stop,rerror=stop,ai<wbr>o=threads -device virtio-blk-pci,scsi=off,bus=pc<wbr>i.0,addr=0x6,drive=drive-virti<wbr>o-disk0,id=virtio-disk0,bootin<wbr>dex=1 -chardev socket,id=charchannel0,path=/v<wbr>ar/lib/libvirt/qemu/channels/2<wbr>1872e4b-7699-4502-b1ef-2c058ef<wbr>f1c3c.com.redhat.rhevm.vdsm,se<wbr>rver,nowait -device virtserialport,bus=virtio-seri<wbr>al0.0,nr=1,chardev=charchannel<wbr>0,id=channel0,name=com.redhat.<wbr>rhevm.vdsm -chardev socket,id=charchannel1,path=/v<wbr>ar/lib/libvirt/qemu/channels/2<wbr>1872e4b-7699-4502-b1ef-2c058ef<wbr>f1c3c.org.qemu.guest_agent.0,s<wbr>erver,nowait -device virtserialport,bus=virtio-seri<wbr>al0.0,nr=2,chardev=charchannel<wbr>1,id=channel1,name=<a href="http://org.qemu.gu" target="_blank">org.qemu.gu</a><wbr>est_agent.0 -device usb-tablet,id=input0 -vnc <a href="http://192.168.0.189:0" target="_blank">192.168.0.189:0</a>,password -k pt-br -device VGA,id=video0,vgamem_mb=16,bus<wbr>=pci.0,addr=0x2 -device virtio-balloon-pci,id=balloon0<wbr>,bus=pci.0,addr=0x5 -msg timestamp=on<br>2016-09-01T12:50:28.307173Z qemu-kvm: warning: CPU(s) not present in any NUMA nodes: 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br>2016-09-01T12:50:28.307371Z qemu-kvm: warning: All CPU(s) up to maxcpus should be described in NUMA config<br>qemu: terminating on signal 15 from pid 1<br>2016-09-01 19:13:47.899+0000: shutting down<br><br></div><div><br></div><div>Thanks<br></div><div><br></div></div></div><div><br></div></div></div></div></div><div class="gmail_extra"><br clear="all"><div><div><div dir="ltr"><div><div dir="ltr"><img src="https://docs.google.com/a/kemi.com.br/uc?id=0BxC77GE-UKwcSzB4TXNhcTNBSzQ&amp;export=download"><br><br><div><br></div></div></div></div></div></div><div><div>
<br><div class="gmail_quote">2016-09-02 11:05 GMT-03:00 Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span>On Fri, Sep 2, 2016 at 4:44 PM, Gabriel Ozaki <span dir="ltr">&lt;<a href="mailto:gabriel.ozaki@kemi.com.br" target="_blank">gabriel.ozaki@kemi.com.br</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><div>Hi<br></div>i am trying Ovirt 4.0 and i am getting some strange results when comparing with Xenserver<br><br></div><div><b>*The host machine</b><br> Intel Core i5-4440  3.10GHz running at 3093 MHz<br></div><div>8 Gb of RAM (1x8)<br></div><div>500 Gb of Disk (seagate st500dm002 7200rpm)<br></div><div>CentOS 7 (netinstall for the most updated and stable packages)<br><br></div><div><br></div><div><b>*How i am testing:<br></b></div><div>I choose two benchmark tools, sysbench(epel-repo on centos) and novabench(for windows guest, <a href="https://novabench.com" target="_blank">https://novabench.com</a> ), then i make a clean install of xenserver and create two guests(CentOS and Windows 7 SP1)<br><br></div><div><b>*The Guest specs<br></b></div><div>2 cores<br></div><div>4 Gb of RAM<br></div><div>60 Gb of disk (using virtIO in a NFS storage)<br></div></div></blockquote><div><br></div></span><div>The nfs server is in the host?</div><span><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div></div><div>Important note: only the testing guest are up on benchmark and i have installed the drivers in guest<br><br></div><div><b>*The Sysbench disk test(creates 10Gb of data and do the bench):<br></b></div><div><b></b></div><div># sysbench --test=fileio --file-total-size=10G prepare<br># sysbench --test=fileio --file-total-size=10G --file-test-mode=rndrw --init-rng=on --max-time=300 --max-requests=0 run<br><br></div><div>Host result:            2.9843Mb/sec<br></div><div>Ovirt result:           1.1561Mb/sec<br></div><div>Xenserver result:   2.9006Mb/sec<br></div></div></blockquote><div><br></div></span><div>- Is this 2.9GiB/s or 2.9 MiB/s?</div><div>- Are you testing using NFS in all versions?</div><div>- What is the disk format?</div><div>- How do you test io on the host?</div><div>- What kind of nic is used? (1G, 10G?)</div><span><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><br></div><div><b>*The novabench test:<br></b><div>Ovirt result:          79Mb/s<br></div>Xenserver result:  101Mb/s<br></div></div></blockquote><div><br></div></span><div>We need much more details to understand what do you test here.</div><div><br></div><div>- For ovirt, can you share the vm command line, available in /var/log/libvirt/qemu/vmname.l<wbr>og?</div><div>- For Xenserver - detailed description of the vm and the storage configuration?</div><span><font color="#888888"><div><br></div><div>Nir</div></font></span></div></div></div>
</blockquote></div><br></div></div></div>
<br></div></div>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
<br></blockquote></div><br></div></div>
</blockquote></div><br></div></div></div>
</blockquote></div></div></div><br></div></div>
</blockquote></div><br></div></div></div>
</blockquote></div></div></div><br></div></div>
</blockquote></div><br></div></div></div>
</blockquote></div><br></div></div>