<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body>
<div dir="auto">
<div><br>
<div class="gmail_extra"><br>
<div class="gmail_quote">Den 17 feb. 2017 6:30 em skrev Gianluca Cecchi &lt;gianluca.cecchi@gmail.com&gt;:<br type="attribution">
<blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div>
<div dir="ltr">Hello,
<div>I'm going to setup an environment where I will have 2 hosts and each with 2 adapters to connect to storage domain(s). This will be a test environment, not a production one.</div>
<div>The storage domain(s) will be NFS, provided by a Netapp system.</div>
<div>The hosts have 4 x 1Gb/s adapters and I think to use 2 for ovirtmgmt and VMs (through bonding and VLANs) and to dedicate the other 2 adapters to the NFS domain connectivity.</div>
<div>What would be the best setup to have both HA on the connection and also using the whole 2Gb/s in normal load scenario?&nbsp;</div>
<div>Is it better to make more storage domains (and more svm on Netapp side) or only one?</div>
<div>What would be the suitable bonding mode to put on adapters? I normally use&nbsp;802.3ad provided by the switches, but I'm not sure if in this configuration I can use both the network adapters for the overall load of the different VMs that I would have in place...</div>
<div><br>
</div>
<div>Thanks in advance for every suggestion,</div>
<div><br>
</div>
<div>Gianluca</div>
</div>
</div>
</blockquote>
</div>
<br>
</div>
</div>
<div class="gmail_extra" dir="auto">Hey G!</div>
<div class="gmail_extra" dir="auto"><br>
</div>
<div class="gmail_extra" dir="auto">If it was me doing this, I would make one 4x1Gb/s 802.3ad bond on filer and hosts to KISS. Then, if bandwidth is of concern, I would set up two VLANs for storage interfaces with addresses on separate subnets (10.0.0.1 and
 10.0.1.1 on filer. 10.0.0.(2,3) and 10.0.1.(2,3) on hosts) and then on the filer set up only two NFS exports where you try to as evenly as possible provision your VMs. This way the network load would evenly spread over all interfaces for simplest config and
 best fault tolerance, while keeping storage traffic at max 2Gb/s. You only need one SVM with several addresses to achieve this. We have our VMWare environment set up similar to this towards our NetApp. We also have our oVirt environment set up like this, but
 towards a different NFS storage, with great success.</div>
<div class="gmail_extra" dir="auto"><br>
</div>
<div class="gmail_extra" dir="auto">/K</div>
</div>
</body>
</html>