<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On 27 October 2016 at 10:42,  <span dir="ltr">&lt;<a href="mailto:joost@familiealbers.nl" target="_blank">joost@familiealbers.nl</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi All, i have two ovirt / fakevdsm questions.<br>
<br>
I am using fakevdsm to test my ovirt 4.0.5 engine.<br>
I have a somewhat awkward setup where i have a relatively large amount of dc&#39;s. </blockquote><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
I cannot get nfs master domain to work from the api.<br>
The api code is solid and is used on a ovirt-engine 3.5 production cluster.<br>
<br></blockquote><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
When creating the nfs storage domain i have no issues (it is created as id (00000-00000 more zeros here......) but when i try to attach it to a dc it fails.<br></blockquote><div><br></div><div>please share the logs<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
I am not sure this is an ovirt of fakevdsm issue. When i manually add the nfs storage domain it does get created which is somewhat worrying.<br></blockquote><div><br></div><div>Manually?<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
My real aim would be to run 500 dc&#39;s with 2 hosts and around 5 vms.<br>
<br></blockquote><div><br></div><div>You&#39;d have to have a host per DC, cause every DC has an SPM. You meant cluster or I&#39;m missing something.<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Not being able to use the nfs storage master domain is one of the issues.<br>
<br>
To work around this i decided to try and create 1000 dcs with a single host using local storage.<br>
Allthough this works it looks like the hosts and vms within the dc&#39;s are actually not having their own storage pool.<br>
<br>
In our prod environment we run at a much lower scale serveral dc&#39;s with shared gluster storage (shared between the two hosts in the cluster)<br>
This is considered per dc its own storage pool.<br>
<br>
In my tests when reaching dc,cluster, host 249 things fail, this is likely because of the value of &#39;maxnumberofhostsinstoragepool<wbr>&#39;. I would expect this to be bound to the dcs and not the overall server.<br>
<br>
In short i expect each dc to be able to run 249 hosts as each dc is its own storage pool?<br>
<br></blockquote><div>I&#39;m not sure I understand the question. However, the limitation is soft and can be overridden.<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Similarly when i look at the ovirt ui some hosts actually show they are running the total amount of running vms.<br></blockquote><div><br></div><div>Yes, when running with vdsm fake you must set this config value as well<br><br></div><div>```bash<br></div><div><pre>sudo -i -u postgre
<span class="gmail-pl-k">export</span> ENGINE_DB=dbname
psql <span class="gmail-pl-smi">$ENGINE_DB</span> -c <span class="gmail-pl-s"><span class="gmail-pl-pds">&quot;</span>UPDATE vdc_options set option_value = &#39;true&#39; WHERE option_name = &#39;UseHostNameIdentifier&#39;;<span class="gmail-pl-pds">&quot;</span></span></pre> ```<br><br></div><div>I&#39;ve sent a patch to gerrit for that  <a href="https://gerrit.ovirt.org/65804">https://gerrit.ovirt.org/65804</a><br><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Again i am not sure if i am correct in assuming each dc is its own storage pool.<br>
<br></blockquote><div>Correct. DC = Storage Pool  <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Finally.<br>
As this setup is somewhat awkward i would like to tweak the diverse flags in ovirt engine to be more relaxed about obtaining data from the hosts and storage domains.<br>
<br>
I believe ovirt engine now checks every 3 seconds the host but i am guessing i can live with every 60 seconds for example, the same would apply for the storage part. what i am not sure about though is if there is a golden ratio between these config items.<br>
I.e. there is vdsRefreshRate, if i set this to 60 instead of 3 do i need to also change the vdsTimeout value which is set to 180 by default?<br>
<br></blockquote><div>Change the VdsRefreshRate to 20s - but bare in mind that we have a limitation when starting up a VM - its status will show as up only after the next 20s interval<br></div><div>Please report with your finding on the above tweak<br></div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
sorru for the lenght of this message.<br>
the most critical items are.<br>
Should i worry about not being eable to create an nfs master domain or is this a fakevdsm thing<br>
Why are my dcs, for someone reason related to the main storage pool or am i right in thinking a dc + cluster +host with local storage, is its own storage pool?<br>
<br>
Thanks you so much.<br>
<br>
<br>
<br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/mailman<wbr>/listinfo/users</a><br>
</blockquote></div><br></div></div>