<div dir="ltr">Hi all<div><br></div><div>We run four RHEV datacenters, two PROD, one DEV and one TEST/Training.  They are all  working OK but I&#39;d like a definitive answer on how I should be configuring the networking side as I&#39;m pretty sure we&#39;re getting sub-optimal networking performance.</div><div><br></div><div>All datacenters are housed in HP C7000 Blade enclosures.  The PROD datacenters use HP 4730 iSCSI SAN clusters, each datacenter has a cluster of two 4730s. These are configured RAID5 internally with NRAID1. The DEV and TEST datacenters are using P4500 iSCSI SANs and each datacenter has a cluster of three P4500s configured with RAID10 internally and NRAID5.</div><div><br></div><div>The HP C7000 each have two Flex10/10D interconnect modules configured in a redundant ring so that we can upgrade the interconnects without dropping network connectivity to the infrastructure. We use fat RHEL-H 7.2 hypervisors (HP BL460) and these are all configured with six network interfaces:</div><div>- eno1 and eno2 are bond0 which is the rhevm interface</div><div>- eno3 and eno4 are bond1 and all the VM VLANs are trunked over this bond using 802.1q</div><div>- eno5 and eno6 are bond2 and dedicated to iSCSI traffic</div><div><br></div><div>Is this the &quot;correct&quot; way to do this?  If not, what should I be doing instead?</div><div><br></div><div>Thanks</div><div><br></div><div>CC</div></div>