<html><body><div style="font-family: georgia,serif; font-size: 12pt; color: #000000"><div>Hi Punit,</div><div>You might find also tcpdump as useful tool, so then to investigate the recorded data using Wireshark tool.</div><div><a href="http://www.tcpdump.org/manpages/tcpdump.1.html" data-mce-href="http://www.tcpdump.org/manpages/tcpdump.1.html">http://www.tcpdump.org/manpages/tcpdump.1.html</a></div><div><a href="https://ask.wireshark.org/questions/23138/wireshark-for-red-hat-enterprise-linux" data-mce-href="https://ask.wireshark.org/questions/23138/wireshark-for-red-hat-enterprise-linux">https://ask.wireshark.org/questions/23138/wireshark-for-red-hat-enterprise-linux</a></div><div><span name="x"></span><br>Thanks in advance.<br><div><br></div>Best regards,<br>Nikolai<br>____________________<br>Nikolai Sednev<br>Senior Quality Engineer at Compute team<br>Red Hat Israel<br>34 Jerusalem Road,<br>Ra'anana, Israel 43501<br><div><br></div>Tel: &nbsp; &nbsp; &nbsp; +972 &nbsp; 9 7692043<br>Mobile: +972 52 7342734<br>Email: nsednev@redhat.com<br>IRC: nsednev<span name="x"></span><br></div><div><br></div><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>users-request@ovirt.org<br><b>To: </b>users@ovirt.org<br><b>Sent: </b>Monday, January 26, 2015 5:27:25 PM<br><b>Subject: </b>Users Digest, Vol 40, Issue 140<br><div><br></div>Send Users mailing list submissions to<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;users@ovirt.org<br><div><br></div>To subscribe or unsubscribe via the World Wide Web, visit<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;http://lists.ovirt.org/mailman/listinfo/users<br>or, via email, send a message with subject or body 'help' to<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;users-request@ovirt.org<br><div><br></div>You can reach the person managing the list at<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;users-owner@ovirt.org<br><div><br></div>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of Users digest..."<br><div><br></div><br>Today's Topics:<br><div><br></div>&nbsp;&nbsp; 1. Re: &nbsp;Update to 3.5.1 scrambled multipath.conf? (Dan Kenigsberg)<br>&nbsp;&nbsp; 2. Re: &nbsp;Update to 3.5.1 scrambled multipath.conf? (Nir Soffer)<br>&nbsp;&nbsp; 3. Re: &nbsp;Loopback interface has huge network transctions<br>&nbsp;&nbsp; &nbsp; &nbsp;(Martin Pavl?k)<br>&nbsp;&nbsp; 4. Re: &nbsp;[ovirt-devel] oVirt 3.6 Feature: Cumulative Network<br>&nbsp;&nbsp; &nbsp; &nbsp;Usage Statistics (Dan Kenigsberg)<br>&nbsp;&nbsp; 5. Re: &nbsp;Cutting edge ovirt node images. (Tolik Litovsky)<br>&nbsp;&nbsp; 6. Re: &nbsp;Cutting edge ovirt node images. (Fabian Deutsch)<br>&nbsp;&nbsp; 7. Re: &nbsp;Update to 3.5.1 scrambled multipath.conf? (Fabian Deutsch)<br><div><br></div><br>----------------------------------------------------------------------<br><div><br></div>Message: 1<br>Date: Mon, 26 Jan 2015 12:09:23 +0000<br>From: Dan Kenigsberg &lt;danken@redhat.com&gt;<br>To: Gianluca Cecchi &lt;gianluca.cecchi@gmail.com&gt;, nsoffer@redhat.com<br>Cc: users &lt;users@ovirt.org&gt;<br>Subject: Re: [ovirt-users] Update to 3.5.1 scrambled multipath.conf?<br>Message-ID: &lt;20150126120923.GF14455@redhat.com&gt;<br>Content-Type: text/plain; charset=us-ascii<br><div><br></div>On Sat, Jan 24, 2015 at 12:59:01AM +0100, Gianluca Cecchi wrote:<br>&gt; Hello,<br>&gt; on my all-in-one installation @home I had 3.5.0 with F20.<br>&gt; Today I updated to 3.5.1.<br>&gt; <br>&gt; it seems it modified /etc/multipath.conf preventing me from using my second<br>&gt; disk at all...<br>&gt; <br>&gt; My system has internal ssd disk (sda) for OS and one local storage domain<br>&gt; and another disk (sdb) with some partitions (on one of them there is also<br>&gt; another local storage domain).<br>&gt; <br>&gt; At reboot I was put in emergency boot because partitions at sdb disk could<br>&gt; not be mounted (they were busy).<br>&gt; it took me some time to understand that the problem was due to sdb gone<br>&gt; managed as multipath device and so busy for partitions to be mounted.<br>&gt; <br>&gt; Here you can find how multipath became after update and reboot<br>&gt; https://drive.google.com/file/d/0BwoPbcrMv8mvS0FkMnNyMTdVTms/view?usp=sharing<br>&gt; <br>&gt; No device-mapper-multipath update in yum.log<br>&gt; <br>&gt; Also it seems that after changing it, it was then reverted at boot again (I<br>&gt; don't know if the responsible was initrd/dracut or vdsmd) so in the mean<br>&gt; time the only thing I could do was to make the file immutable with<br>&gt; <br>&gt; chattr +i /etc/multipath.conf<br><div><br></div>The "supported" method of achieving this is to place "# RHEV PRIVATE" in<br>the second line of your hand-modified multipath.conf<br><div><br></div>I do not understand why this has happened only after upgrade to 3.5.1 -<br>3.5.0's should have reverted you multipath.conf just as well during each<br>vdsm startup.<br><div><br></div>The good thing is that this annoying behavior has been dropped from the<br>master branch, so that 3.6 is not going to have it. Vdsm is not to mess<br>with other services config file while it is running. The logic moved to<br>`vdsm-tool configure`<br><div><br></div>&gt; <br>&gt; and so I was able to reboot and verify that my partitions on sdb were ok<br>&gt; and I was able to mount them (for safe I also ran an fsck against them)<br>&gt; <br>&gt; Update ran around 19:20 and finished at 19:34<br>&gt; here the log in gzip format<br>&gt; https://drive.google.com/file/d/0BwoPbcrMv8mvWjJDTXU1YjRWOFk/view?usp=sharing<br>&gt; <br>&gt; Reboot was done around 21:10-21:14<br>&gt; <br>&gt; Here my /var/log/messages in gzip format, where you can see latest days.<br>&gt; https://drive.google.com/file/d/0BwoPbcrMv8mvMm1ldXljd3hZWnM/view?usp=sharing<br>&gt; <br>&gt; <br>&gt; Any suggestion appreciated.<br>&gt; <br>&gt; Current multipath.conf (where I also commented out the getuid_callout that<br>&gt; is not used anymore):<br>&gt; <br>&gt; [root@tekkaman setup]# cat /etc/multipath.conf<br>&gt; # RHEV REVISION 1.1<br>&gt; <br>&gt; blacklist {<br>&gt; &nbsp; &nbsp; devnode "^(sda|sdb)[0-9]*"<br>&gt; }<br>&gt; <br>&gt; defaults {<br>&gt; &nbsp; &nbsp; polling_interval &nbsp; &nbsp; &nbsp; &nbsp;5<br>&gt; &nbsp; &nbsp; #getuid_callout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;"/usr/lib/udev/scsi_id --whitelisted<br>&gt; --replace-whitespace --device=/dev/%n"<br>&gt; &nbsp; &nbsp; no_path_retry &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; fail<br>&gt; &nbsp; &nbsp; user_friendly_names &nbsp; &nbsp; no<br>&gt; &nbsp; &nbsp; flush_on_last_del &nbsp; &nbsp; &nbsp; yes<br>&gt; &nbsp; &nbsp; fast_io_fail_tmo &nbsp; &nbsp; &nbsp; &nbsp;5<br>&gt; &nbsp; &nbsp; dev_loss_tmo &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;30<br>&gt; &nbsp; &nbsp; max_fds &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4096<br>&gt; }<br><div><br></div><br>------------------------------<br><div><br></div>Message: 2<br>Date: Mon, 26 Jan 2015 07:37:59 -0500 (EST)<br>From: Nir Soffer &lt;nsoffer@redhat.com&gt;<br>To: Dan Kenigsberg &lt;danken@redhat.com&gt;<br>Cc: Benjamin Marzinski &lt;bmarzins@redhat.com&gt;, users &lt;users@ovirt.org&gt;<br>Subject: Re: [ovirt-users] Update to 3.5.1 scrambled multipath.conf?<br>Message-ID:<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&lt;610569491.313815.1422275879664.JavaMail.zimbra@redhat.com&gt;<br>Content-Type: text/plain; charset=utf-8<br><div><br></div>----- Original Message -----<br>&gt; From: "Dan Kenigsberg" &lt;danken@redhat.com&gt;<br>&gt; To: "Gianluca Cecchi" &lt;gianluca.cecchi@gmail.com&gt;, nsoffer@redhat.com<br>&gt; Cc: "users" &lt;users@ovirt.org&gt;, ykaplan@redhat.com<br>&gt; Sent: Monday, January 26, 2015 2:09:23 PM<br>&gt; Subject: Re: [ovirt-users] Update to 3.5.1 scrambled multipath.conf?<br>&gt; <br>&gt; On Sat, Jan 24, 2015 at 12:59:01AM +0100, Gianluca Cecchi wrote:<br>&gt; &gt; Hello,<br>&gt; &gt; on my all-in-one installation @home I had 3.5.0 with F20.<br>&gt; &gt; Today I updated to 3.5.1.<br>&gt; &gt; <br>&gt; &gt; it seems it modified /etc/multipath.conf preventing me from using my second<br>&gt; &gt; disk at all...<br>&gt; &gt; <br>&gt; &gt; My system has internal ssd disk (sda) for OS and one local storage domain<br>&gt; &gt; and another disk (sdb) with some partitions (on one of them there is also<br>&gt; &gt; another local storage domain).<br>&gt; &gt; <br>&gt; &gt; At reboot I was put in emergency boot because partitions at sdb disk could<br>&gt; &gt; not be mounted (they were busy).<br>&gt; &gt; it took me some time to understand that the problem was due to sdb gone<br>&gt; &gt; managed as multipath device and so busy for partitions to be mounted.<br>&gt; &gt; <br>&gt; &gt; Here you can find how multipath became after update and reboot<br>&gt; &gt; https://drive.google.com/file/d/0BwoPbcrMv8mvS0FkMnNyMTdVTms/view?usp=sharing<br>&gt; &gt; <br>&gt; &gt; No device-mapper-multipath update in yum.log<br>&gt; &gt; <br>&gt; &gt; Also it seems that after changing it, it was then reverted at boot again (I<br>&gt; &gt; don't know if the responsible was initrd/dracut or vdsmd) so in the mean<br>&gt; &gt; time the only thing I could do was to make the file immutable with<br>&gt; &gt; <br>&gt; &gt; chattr +i /etc/multipath.conf<br>&gt; <br>&gt; The "supported" method of achieving this is to place "# RHEV PRIVATE" in<br>&gt; the second line of your hand-modified multipath.conf<br>&gt; <br>&gt; I do not understand why this has happened only after upgrade to 3.5.1 -<br>&gt; 3.5.0's should have reverted you multipath.conf just as well during each<br>&gt; vdsm startup.<br>&gt; <br>&gt; The good thing is that this annoying behavior has been dropped from the<br>&gt; master branch, so that 3.6 is not going to have it. Vdsm is not to mess<br>&gt; with other services config file while it is running. The logic moved to<br>&gt; `vdsm-tool configure`<br>&gt; <br>&gt; &gt; <br>&gt; &gt; and so I was able to reboot and verify that my partitions on sdb were ok<br>&gt; &gt; and I was able to mount them (for safe I also ran an fsck against them)<br>&gt; &gt; <br>&gt; &gt; Update ran around 19:20 and finished at 19:34<br>&gt; &gt; here the log in gzip format<br>&gt; &gt; https://drive.google.com/file/d/0BwoPbcrMv8mvWjJDTXU1YjRWOFk/view?usp=sharing<br>&gt; &gt; <br>&gt; &gt; Reboot was done around 21:10-21:14<br>&gt; &gt; <br>&gt; &gt; Here my /var/log/messages in gzip format, where you can see latest days.<br>&gt; &gt; https://drive.google.com/file/d/0BwoPbcrMv8mvMm1ldXljd3hZWnM/view?usp=sharing<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; Any suggestion appreciated.<br>&gt; &gt; <br>&gt; &gt; Current multipath.conf (where I also commented out the getuid_callout that<br>&gt; &gt; is not used anymore):<br>&gt; &gt; <br>&gt; &gt; [root@tekkaman setup]# cat /etc/multipath.conf<br>&gt; &gt; # RHEV REVISION 1.1<br>&gt; &gt; <br>&gt; &gt; blacklist {<br>&gt; &gt; &nbsp; &nbsp; devnode "^(sda|sdb)[0-9]*"<br>&gt; &gt; }<br><div><br></div><br>I think what happened is:<br><div><br></div>1. 3.5.1 had new multipath version<br>2. So vdsm upgraded the local file<br>3. blacklist above was removed<br>&nbsp;&nbsp; (it should exists in /etc/multipath.bak)<br><div><br></div>To prevent local changes, you have to mark the file as private<br>as Dan suggests.<br><div><br></div>Seems to be related to the find_multiapth = "yes" bug:<br>https://bugzilla.redhat.com/show_bug.cgi?id=1173290<br><div><br></div>Ben, can you confirm that this is the same issue?<br><div><br></div>&gt; &gt; <br>&gt; &gt; defaults {<br>&gt; &gt; &nbsp; &nbsp; polling_interval &nbsp; &nbsp; &nbsp; &nbsp;5<br>&gt; &gt; &nbsp; &nbsp; #getuid_callout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;"/usr/lib/udev/scsi_id --whitelisted<br>&gt; &gt; --replace-whitespace --device=/dev/%n"<br>&gt; &gt; &nbsp; &nbsp; no_path_retry &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; fail<br>&gt; &gt; &nbsp; &nbsp; user_friendly_names &nbsp; &nbsp; no<br>&gt; &gt; &nbsp; &nbsp; flush_on_last_del &nbsp; &nbsp; &nbsp; yes<br>&gt; &gt; &nbsp; &nbsp; fast_io_fail_tmo &nbsp; &nbsp; &nbsp; &nbsp;5<br>&gt; &gt; &nbsp; &nbsp; dev_loss_tmo &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;30<br>&gt; &gt; &nbsp; &nbsp; max_fds &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4096<br>&gt; &gt; }<br>&gt; <br><div><br></div>Regards,<br>Nir<br><div><br></div><br>------------------------------<br><div><br></div>Message: 3<br>Date: Mon, 26 Jan 2015 14:25:23 +0100<br>From: Martin Pavl?k &lt;mpavlik@redhat.com&gt;<br>To: Punit Dambiwal &lt;hypunit@gmail.com&gt;<br>Cc: "users@ovirt.org" &lt;users@ovirt.org&gt;<br>Subject: Re: [ovirt-users] Loopback interface has huge network<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;transctions<br>Message-ID: &lt;6E2536E1-27AE-47EB-BCA7-88B3901D2B02@redhat.com&gt;<br>Content-Type: text/plain; charset="us-ascii"<br><div><br></div>Hi Punit,<br><div><br></div>it is ok since ovirt-engine is using loopback for its purposes, e.g. postgress databas access. Try to check netstat -putna | grep 127.0.0 to see how many things are attached to it.<br><div><br></div>If you are interested in checking what is going on a bit more have a look @ this great how-to http://www.slashroot.in/find-network-traffic-and-bandwidth-usage-process-linux &lt;http://www.slashroot.in/find-network-traffic-and-bandwidth-usage-process-linux&gt;<br><div><br></div><br>HTH <br><div><br></div>Martin Pavlik<br><div><br></div>RHEV QE<br><div><br></div>&gt; On 26 Jan 2015, at 02:24, Punit Dambiwal &lt;hypunit@gmail.com&gt; wrote:<br>&gt; <br>&gt; Hi,<br>&gt; <br>&gt; I have noticed that the loop back interface has huge network packets sent and received...is it common or need to some tweaks.... <br>&gt; <br>&gt; 1. Ovirt 3.5.1<br>&gt; 2. Before ovirt engine installation...loop back address doesn't has that huge amount of packets sent/receive....<br>&gt; 3. After Ovirt engine install it's keep increasing.....and in just 48 hours it reach to 35 GB...<br>&gt; <br>&gt; [root@ccr01 ~]# ifconfig<br>&gt; eth0: flags=4163&lt;UP,BROADCAST,RUNNING,MULTICAST&gt; &nbsp;mtu 1500<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; inet 43.252.x.x &nbsp;netmask 255.255.255.0 &nbsp;broadcast 43.252.x.x<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; ether 60:eb:69:82:0b:4c &nbsp;txqueuelen 1000 &nbsp;(Ethernet)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; RX packets 6605350 &nbsp;bytes 6551029484 (6.1 GiB)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; RX errors 0 &nbsp;dropped 120622 &nbsp;overruns 0 &nbsp;frame 0<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; TX packets 2155524 &nbsp;bytes 431348174 (411.3 MiB)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; TX errors 0 &nbsp;dropped 0 overruns 0 &nbsp;carrier 0 &nbsp;collisions 0<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; device memory 0xdf6e0000-df700000<br>&gt; <br>&gt; eth1: flags=4163&lt;UP,BROADCAST,RUNNING,MULTICAST&gt; &nbsp;mtu 1500<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; inet 10.10.0.2 &nbsp;netmask 255.255.255.0 &nbsp;broadcast 10.10.0.255<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; ether 60:eb:69:82:0b:4d &nbsp;txqueuelen 1000 &nbsp;(Ethernet)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; RX packets 788160 &nbsp;bytes 133915292 (127.7 MiB)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; RX errors 0 &nbsp;dropped 0 &nbsp;overruns 0 &nbsp;frame 0<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; TX packets 546352 &nbsp;bytes 131672255 (125.5 MiB)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; TX errors 0 &nbsp;dropped 0 overruns 0 &nbsp;carrier 0 &nbsp;collisions 0<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; device memory 0xdf660000-df680000<br>&gt; <br>&gt; lo: flags=73&lt;UP,LOOPBACK,RUNNING&gt; &nbsp;mtu 65536<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; inet 127.0.0.1 &nbsp;netmask 255.0.0.0<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; loop &nbsp;txqueuelen 0 &nbsp;(Local Loopback)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; RX packets 84747311 &nbsp;bytes 40376482560 (37.6 GiB)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; RX errors 0 &nbsp;dropped 0 &nbsp;overruns 0 &nbsp;frame 0<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; TX packets 84747311 &nbsp;bytes 40376482560 (37.6 GiB)<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; TX errors 0 &nbsp;dropped 0 overruns 0 &nbsp;carrier 0 &nbsp;collisions 0<br>&gt; <br>&gt; [root@ccr01 ~]# w<br>&gt; &nbsp;09:23:07 up 2 days, 11:43, &nbsp;1 user, &nbsp;load average: 0.27, 0.30, 0.31<br>&gt; USER &nbsp; &nbsp; TTY &nbsp; &nbsp; &nbsp; &nbsp;LOGIN@ &nbsp; IDLE &nbsp; JCPU &nbsp; PCPU WHAT<br>&gt; root &nbsp; &nbsp; pts/0 &nbsp; &nbsp; 09:16 &nbsp; &nbsp;3.00s &nbsp;0.01s &nbsp;0.00s w<br>&gt; [root@ccr01 ~]#<br>&gt; <br>&gt; Thanks,<br>&gt; Punit<br>&gt; _______________________________________________<br>&gt; Users mailing list<br>&gt; Users@ovirt.org<br>&gt; http://lists.ovirt.org/mailman/listinfo/users<br><div><br></div>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;http://lists.ovirt.org/pipermail/users/attachments/20150126/c38655c3/attachment-0001.html&gt;<br><div><br></div>------------------------------<br><div><br></div>Message: 4<br>Date: Mon, 26 Jan 2015 13:45:56 +0000<br>From: Dan Kenigsberg &lt;danken@redhat.com&gt;<br>To: Lior Vernia &lt;lvernia@redhat.com&gt;<br>Cc: "Users@ovirt.org List" &lt;Users@ovirt.org&gt;,&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;"devel@ovirt.org"<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&lt;devel@ovirt.org&gt;<br>Subject: Re: [ovirt-users] [ovirt-devel] oVirt 3.6 Feature: Cumulative<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Network Usage Statistics<br>Message-ID: &lt;20150126134555.GI14455@redhat.com&gt;<br>Content-Type: text/plain; charset=us-ascii<br><div><br></div>On Mon, Dec 22, 2014 at 01:40:06PM +0200, Lior Vernia wrote:<br>&gt; Hello users and developers,<br>&gt; <br>&gt; Just put up a feature page for the aforementioned feature; in summary,<br>&gt; to report total RX/TX statistics for hosts and VMs in oVirt. This has<br>&gt; been requested several times on the users mailing list, and is<br>&gt; especially useful for accounting in VDI deployments.<br>&gt; <br>&gt; You're more than welcome to review the feature page:<br>&gt; http://www.ovirt.org/Features/Cumulative_RX_TX_Statistics<br><div><br></div>Sorry for the late review; I have a couple of questions/comments.<br>- What do you mean by "VDI use cases" in the "Benefit to oVirt sanpshot"<br>&nbsp;&nbsp;section?<br>&nbsp;&nbsp;Do you refer to hosting services who would like to charge their<br>&nbsp;&nbsp;customers based on actual bandwidth usage?<br>- I've added another motivation: currently-reported rxRate/txRate<br>&nbsp;&nbsp;can be utterly meaningless.<br><div><br></div><br>I don't see reference to nasty negative flows: what happens if a host<br>disappears? Or a VM? I suppose there's always a chance that some traffic<br>would go unaccounted for. But do you expect to extract this information<br>somehow? Either way, it should be mentioned as a caveat on the feature<br>page.<br><div><br></div>&gt; <br>&gt; Note that this only deals with network usage - it'll be great if we have<br>&gt; similar features for CPU and disk usage!<br><div><br></div>There's a formal feature request about this:<br>&nbsp;&nbsp; &nbsp;Bug 1172153 - [RFE] Collect CPU, IO and network accounting<br>&nbsp;&nbsp; &nbsp;information<br><div><br></div>Dan<br><div><br></div><br>------------------------------<br><div><br></div>Message: 5<br>Date: Mon, 26 Jan 2015 09:00:29 -0500 (EST)<br>From: Tolik Litovsky &lt;tlitovsk@redhat.com&gt;<br>To: users@ovirt.org<br>Cc: devel@ovirt.org<br>Subject: Re: [ovirt-users] Cutting edge ovirt node images.<br>Message-ID: &lt;14200256.98.1422280826405.JavaMail.tlitovsk@tolikl&gt;<br>Content-Type: text/plain; charset=utf-8<br><div><br></div>Hi<br><div><br></div>Both projects are now built with VDSM and Hosted Engine plugins.<br><div><br></div>Best Regards.<br>Tolik.<br><div><br></div>----- Original Message -----<br>From: "Anatoly Litvosky" &lt;tlitovsk@redhat.com&gt;<br>To: users@ovirt.org<br>Cc: devel@ovirt.org<br>Sent: Thursday, 15 January, 2015 3:46:10 PM<br>Subject: Re: [ovirt-users] Cutting edge ovirt node images.<br><div><br></div>Hi <br><div><br></div>A centos7 based ovirt-node project joined our jenkins<br>http://jenkins.ovirt.org/job/ovirt-node_master_create-iso-el7_merged/<br><div><br></div>Best Regards<br>Tolik<br><div><br></div>On Sun, 2015-01-11 at 17:29 +0200, Anatoly Litvosky wrote:<br>&gt; Hi<br>&gt; <br>&gt; For all of you that want the latest images for ovirt node.<br>&gt; For some time there is a new job in the ovirt jenkins that builds an<br>&gt; image for every commit made.<br>&gt; http://jenkins.ovirt.org/job/ovirt-node_master_create-iso-fc20_merged/<br>&gt; Currently for fedora 20 but hopefully more to come.<br>&gt; <br>&gt; Many thanks to David (dcaro) for all the effort.<br>&gt; <br>&gt; Best regards.<br>&gt; Tolik.<br>&gt; <br>&gt; <br>&gt; <br><div><br></div><br>_______________________________________________<br>Users mailing list<br>Users@ovirt.org<br>http://lists.ovirt.org/mailman/listinfo/users<br><div><br></div><br>------------------------------<br><div><br></div>Message: 6<br>Date: Mon, 26 Jan 2015 10:19:29 -0500 (EST)<br>From: Fabian Deutsch &lt;fdeutsch@redhat.com&gt;<br>To: Tolik Litovsky &lt;tlitovsk@redhat.com&gt;<br>Cc: users@ovirt.org, devel@ovirt.org<br>Subject: Re: [ovirt-users] Cutting edge ovirt node images.<br>Message-ID:<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&lt;1747701132.306300.1422285569125.JavaMail.zimbra@redhat.com&gt;<br>Content-Type: text/plain; charset=utf-8<br><div><br></div>Kudos Tolik!<br><div><br></div>- fabian<br><div><br></div>----- Original Message -----<br>&gt; Hi<br>&gt; <br>&gt; Both projects are now built with VDSM and Hosted Engine plugins.<br>&gt; <br>&gt; Best Regards.<br>&gt; Tolik.<br>&gt; <br>&gt; ----- Original Message -----<br>&gt; From: "Anatoly Litvosky" &lt;tlitovsk@redhat.com&gt;<br>&gt; To: users@ovirt.org<br>&gt; Cc: devel@ovirt.org<br>&gt; Sent: Thursday, 15 January, 2015 3:46:10 PM<br>&gt; Subject: Re: [ovirt-users] Cutting edge ovirt node images.<br>&gt; <br>&gt; Hi<br>&gt; <br>&gt; A centos7 based ovirt-node project joined our jenkins<br>&gt; http://jenkins.ovirt.org/job/ovirt-node_master_create-iso-el7_merged/<br>&gt; <br>&gt; Best Regards<br>&gt; Tolik<br>&gt; <br>&gt; On Sun, 2015-01-11 at 17:29 +0200, Anatoly Litvosky wrote:<br>&gt; &gt; Hi<br>&gt; &gt; <br>&gt; &gt; For all of you that want the latest images for ovirt node.<br>&gt; &gt; For some time there is a new job in the ovirt jenkins that builds an<br>&gt; &gt; image for every commit made.<br>&gt; &gt; http://jenkins.ovirt.org/job/ovirt-node_master_create-iso-fc20_merged/<br>&gt; &gt; Currently for fedora 20 but hopefully more to come.<br>&gt; &gt; <br>&gt; &gt; Many thanks to David (dcaro) for all the effort.<br>&gt; &gt; <br>&gt; &gt; Best regards.<br>&gt; &gt; Tolik.<br>&gt; &gt; <br>&gt; &gt; <br>&gt; &gt; <br>&gt; <br>&gt; <br>&gt; _______________________________________________<br>&gt; Users mailing list<br>&gt; Users@ovirt.org<br>&gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; _______________________________________________<br>&gt; Users mailing list<br>&gt; Users@ovirt.org<br>&gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; <br><div><br></div><br>------------------------------<br><div><br></div>Message: 7<br>Date: Mon, 26 Jan 2015 10:27:23 -0500 (EST)<br>From: Fabian Deutsch &lt;fdeutsch@redhat.com&gt;<br>To: Nir Soffer &lt;nsoffer@redhat.com&gt;<br>Cc: Benjamin Marzinski &lt;bmarzins@redhat.com&gt;, users &lt;users@ovirt.org&gt;<br>Subject: Re: [ovirt-users] Update to 3.5.1 scrambled multipath.conf?<br>Message-ID:<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&lt;1036916460.310615.1422286043504.JavaMail.zimbra@redhat.com&gt;<br>Content-Type: text/plain; charset=utf-8<br><div><br></div><br><div><br></div>----- Original Message -----<br>&gt; ----- Original Message -----<br>&gt; &gt; From: "Dan Kenigsberg" &lt;danken@redhat.com&gt;<br>&gt; &gt; To: "Gianluca Cecchi" &lt;gianluca.cecchi@gmail.com&gt;, nsoffer@redhat.com<br>&gt; &gt; Cc: "users" &lt;users@ovirt.org&gt;, ykaplan@redhat.com<br>&gt; &gt; Sent: Monday, January 26, 2015 2:09:23 PM<br>&gt; &gt; Subject: Re: [ovirt-users] Update to 3.5.1 scrambled multipath.conf?<br>&gt; &gt; <br>&gt; &gt; On Sat, Jan 24, 2015 at 12:59:01AM +0100, Gianluca Cecchi wrote:<br>&gt; &gt; &gt; Hello,<br>&gt; &gt; &gt; on my all-in-one installation @home I had 3.5.0 with F20.<br>&gt; &gt; &gt; Today I updated to 3.5.1.<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; it seems it modified /etc/multipath.conf preventing me from using my<br>&gt; &gt; &gt; second<br>&gt; &gt; &gt; disk at all...<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; My system has internal ssd disk (sda) for OS and one local storage domain<br>&gt; &gt; &gt; and another disk (sdb) with some partitions (on one of them there is also<br>&gt; &gt; &gt; another local storage domain).<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; At reboot I was put in emergency boot because partitions at sdb disk<br>&gt; &gt; &gt; could<br>&gt; &gt; &gt; not be mounted (they were busy).<br>&gt; &gt; &gt; it took me some time to understand that the problem was due to sdb gone<br>&gt; &gt; &gt; managed as multipath device and so busy for partitions to be mounted.<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Here you can find how multipath became after update and reboot<br>&gt; &gt; &gt; https://drive.google.com/file/d/0BwoPbcrMv8mvS0FkMnNyMTdVTms/view?usp=sharing<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; No device-mapper-multipath update in yum.log<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Also it seems that after changing it, it was then reverted at boot again<br>&gt; &gt; &gt; (I<br>&gt; &gt; &gt; don't know if the responsible was initrd/dracut or vdsmd) so in the mean<br>&gt; &gt; &gt; time the only thing I could do was to make the file immutable with<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; chattr +i /etc/multipath.conf<br>&gt; &gt; <br>&gt; &gt; The "supported" method of achieving this is to place "# RHEV PRIVATE" in<br>&gt; &gt; the second line of your hand-modified multipath.conf<br>&gt; &gt; <br>&gt; &gt; I do not understand why this has happened only after upgrade to 3.5.1 -<br>&gt; &gt; 3.5.0's should have reverted you multipath.conf just as well during each<br>&gt; &gt; vdsm startup.<br>&gt; &gt; <br>&gt; &gt; The good thing is that this annoying behavior has been dropped from the<br>&gt; &gt; master branch, so that 3.6 is not going to have it. Vdsm is not to mess<br>&gt; &gt; with other services config file while it is running. The logic moved to<br>&gt; &gt; `vdsm-tool configure`<br>&gt; &gt; <br>&gt; &gt; &gt; <br>&gt; &gt; &gt; and so I was able to reboot and verify that my partitions on sdb were ok<br>&gt; &gt; &gt; and I was able to mount them (for safe I also ran an fsck against them)<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Update ran around 19:20 and finished at 19:34<br>&gt; &gt; &gt; here the log in gzip format<br>&gt; &gt; &gt; https://drive.google.com/file/d/0BwoPbcrMv8mvWjJDTXU1YjRWOFk/view?usp=sharing<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Reboot was done around 21:10-21:14<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Here my /var/log/messages in gzip format, where you can see latest days.<br>&gt; &gt; &gt; https://drive.google.com/file/d/0BwoPbcrMv8mvMm1ldXljd3hZWnM/view?usp=sharing<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Any suggestion appreciated.<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Current multipath.conf (where I also commented out the getuid_callout<br>&gt; &gt; &gt; that<br>&gt; &gt; &gt; is not used anymore):<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; [root@tekkaman setup]# cat /etc/multipath.conf<br>&gt; &gt; &gt; # RHEV REVISION 1.1<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; blacklist {<br>&gt; &gt; &gt; &nbsp; &nbsp; devnode "^(sda|sdb)[0-9]*"<br>&gt; &gt; &gt; }<br>&gt; <br>&gt; <br>&gt; I think what happened is:<br>&gt; <br>&gt; 1. 3.5.1 had new multipath version<br>&gt; 2. So vdsm upgraded the local file<br>&gt; 3. blacklist above was removed<br>&gt; &nbsp; &nbsp;(it should exists in /etc/multipath.bak)<br>&gt; <br>&gt; To prevent local changes, you have to mark the file as private<br>&gt; as Dan suggests.<br>&gt; <br>&gt; Seems to be related to the find_multiapth = "yes" bug:<br>&gt; https://bugzilla.redhat.com/show_bug.cgi?id=1173290<br><div><br></div>The symptoms above sound exactly liek this issue.<br>When find_multipahts is no (the default when the directive is not present)<br>I sthat all non-blacklisted devices are tried to get claimed, and this happened above.<br><div><br></div>Blacklisting the devices works, or adding "find_mutlipaths yes" should also work, because<br>in that case only device which have more than one path (or are explicitly named) will be<br>claimed by multipath.<br><div><br></div>My 2ct.<br><div><br></div>- fabian<br><div><br></div>&gt; Ben, can you confirm that this is the same issue?<br>&gt; <br>&gt; &gt; &gt; <br>&gt; &gt; &gt; defaults {<br>&gt; &gt; &gt; &nbsp; &nbsp; polling_interval &nbsp; &nbsp; &nbsp; &nbsp;5<br>&gt; &gt; &gt; &nbsp; &nbsp; #getuid_callout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;"/usr/lib/udev/scsi_id --whitelisted<br>&gt; &gt; &gt; --replace-whitespace --device=/dev/%n"<br>&gt; &gt; &gt; &nbsp; &nbsp; no_path_retry &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; fail<br>&gt; &gt; &gt; &nbsp; &nbsp; user_friendly_names &nbsp; &nbsp; no<br>&gt; &gt; &gt; &nbsp; &nbsp; flush_on_last_del &nbsp; &nbsp; &nbsp; yes<br>&gt; &gt; &gt; &nbsp; &nbsp; fast_io_fail_tmo &nbsp; &nbsp; &nbsp; &nbsp;5<br>&gt; &gt; &gt; &nbsp; &nbsp; dev_loss_tmo &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;30<br>&gt; &gt; &gt; &nbsp; &nbsp; max_fds &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4096<br>&gt; &gt; &gt; }<br>&gt; &gt; <br>&gt; <br>&gt; Regards,<br>&gt; Nir<br>&gt; _______________________________________________<br>&gt; Users mailing list<br>&gt; Users@ovirt.org<br>&gt; http://lists.ovirt.org/mailman/listinfo/users<br>&gt; <br><div><br></div><br>------------------------------<br><div><br></div>_______________________________________________<br>Users mailing list<br>Users@ovirt.org<br>http://lists.ovirt.org/mailman/listinfo/users<br><div><br></div><br>End of Users Digest, Vol 40, Issue 140<br>**************************************<br></div><div><br></div></div></body></html>