<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Fri, May 5, 2017 at 9:03 PM, Rogério Ceni Coelho <span dir="ltr">&lt;<a href="mailto:rogeriocenicoelho@gmail.com" target="_blank">rogeriocenicoelho@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Yuval,<div><br></div><div>Yes, it is, but every time I need to install a new oVirt node i will need to upgrade ovirt engine at least ?</div></div></blockquote><div><br></div><div>Of course not. You can upgrade the Engine independently from the hosts.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div> And i will need to upgrade ovirt nodes that already exist ? I have 20 ovirt nodes .... So, this means a lot of work.</div></div></blockquote><div><br></div><div>No, you can upgrade each host independently.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div>My enviroment are stable with 4.0.5 and i am happy for now. oVirt is an excellent product. Thanks for that.</div><div><br></div><div>For example, this morning i try to put an export import storage domain in manteinance and an error occur only with my new ovirt node running 4.0.6.1 and yesterday a lost 2 days debbuging another problem with network start with many vlans on 4.0.6.1 ... :-(</div></div></blockquote><div><br></div><div>It&#39;d be great if you can start a different thread about it, or file a bug, with all the details (VDSM and Engine logs attached).</div><div>Y.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><br></div><div><div>StorageDomainDoesNotExist: Storage domain does not exist: (u&#39;f9e051a9-6660-4e49-a3f1-<wbr>354583501610&#39;,)</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,473::check::296::<wbr>storage.check::(_start_<wbr>process) START check &#39;/dev/c58ce4b0-7145-4cd0-900e-<wbr>eeb99177a7de/metadata&#39; cmd=[&#39;/usr/bin/taskset&#39;, &#39;--cpu-list&#39;, &#39;0-31&#39;, &#39;/usr/bin/dd&#39;, &#39;if=/dev/c58ce4b0-7145-4cd0-<wbr>900e-eeb99177a7de/metadata&#39;, &#39;of=/dev/null&#39;, &#39;bs=4096&#39;, &#39;count=1&#39;, &#39;iflag=direct&#39;] delay=0.00</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,524::asyncevent::564:<wbr>:storage.asyncevent::(reap) Process &lt;cpopen.CPopen object at 0x401c790&gt; terminated (count=1)</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,525::check::327::<wbr>storage.check::(_check_<wbr>completed) FINISH check &#39;/dev/c58ce4b0-7145-4cd0-900e-<wbr>eeb99177a7de/metadata&#39; rc=0 err=bytearray(b&#39;1+0 records in\n1+0 records out\n4096 bytes (4.1 kB) copied, 0.000292117 s, 14.0 MB/s\n&#39;) elapsed=0.06</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,886::check::296::<wbr>storage.check::(_start_<wbr>process) START check u&#39;/rhev/data-center/mnt/corot.<wbr>rbs.com.br:_u00_oVirt_PRD_ISO_<wbr>_DOMAIN/7b8c9293-f103-401a-<wbr>93ac-550981837224/dom_md/<wbr>metadata&#39; cmd=[&#39;/usr/bin/taskset&#39;, &#39;--cpu-list&#39;, &#39;0-31&#39;, &#39;/usr/bin/dd&#39;, u&#39;if=/rhev/data-center/mnt/<wbr>corot.rbs.com.br:_u00_oVirt_<wbr>PRD_ISO__DOMAIN/7b8c9293-f103-<wbr>401a-93ac-550981837224/dom_md/<wbr>metadata&#39;, &#39;of=/dev/null&#39;, &#39;bs=4096&#39;, &#39;count=1&#39;, &#39;iflag=direct&#39;] delay=0.00</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,898::check::296::<wbr>storage.check::(_start_<wbr>process) START check u&#39;/rhev/data-center/mnt/<wbr>dd6701.bkp.srvr.rbs.net:_data_<wbr>col1_ovirt__prd/db89d5df-00ac-<wbr>4e58-a7e5-e31272f9ea92/dom_md/<wbr>metadata&#39; cmd=[&#39;/usr/bin/taskset&#39;, &#39;--cpu-list&#39;, &#39;0-31&#39;, &#39;/usr/bin/dd&#39;, u&#39;if=/rhev/data-center/mnt/<wbr>dd6701.bkp.srvr.rbs.net:_data_<wbr>col1_ovirt__prd/db89d5df-00ac-<wbr>4e58-a7e5-e31272f9ea92/dom_md/<wbr>metadata&#39;, &#39;of=/dev/null&#39;, &#39;bs=4096&#39;, &#39;count=1&#39;, &#39;iflag=direct&#39;] delay=0.00</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,906::check::327::<wbr>storage.check::(_check_<wbr>completed) FINISH check u&#39;/rhev/data-center/mnt/corot.<wbr>rbs.com.br:_u00_oVirt_PRD_ISO_<wbr>_DOMAIN/7b8c9293-f103-401a-<wbr>93ac-550981837224/dom_md/<wbr>metadata&#39; rc=0 err=bytearray(b&#39;0+1 records in\n0+1 records out\n386 bytes (386 B) copied, 0.00038325 s, 1.0 MB/s\n&#39;) elapsed=0.02</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,916::check::296::<wbr>storage.check::(_start_<wbr>process) START check u&#39;/rhev/data-center/mnt/vnx01.<wbr>srv.srvr.rbs.net:_fs__ovirt_<wbr>prd__data__domain/fdcf130d-<wbr>53b8-4978-8f97-82f364639b4a/<wbr>dom_md/metadata&#39; cmd=[&#39;/usr/bin/taskset&#39;, &#39;--cpu-list&#39;, &#39;0-31&#39;, &#39;/usr/bin/dd&#39;, u&#39;if=/rhev/data-center/mnt/<wbr>vnx01.srv.srvr.rbs.net:_fs__<wbr>ovirt_prd__data__domain/<wbr>fdcf130d-53b8-4978-8f97-<wbr>82f364639b4a/dom_md/metadata&#39;, &#39;of=/dev/null&#39;, &#39;bs=4096&#39;, &#39;count=1&#39;, &#39;iflag=direct&#39;] delay=0.00</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,930::check::327::<wbr>storage.check::(_check_<wbr>completed) FINISH check u&#39;/rhev/data-center/mnt/<wbr>dd6701.bkp.srvr.rbs.net:_data_<wbr>col1_ovirt__prd/db89d5df-00ac-<wbr>4e58-a7e5-e31272f9ea92/dom_md/<wbr>metadata&#39; rc=0 err=bytearray(b&#39;0+1 records in\n0+1 records out\n360 bytes (360 B) copied, 0.000363751 s, 990 kB/s\n&#39;) elapsed=0.03</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,964::asyncevent::564:<wbr>:storage.asyncevent::(reap) Process &lt;cpopen.CPopen object at 0x3a48950&gt; terminated (count=1)</div><div>Thread-12::DEBUG::2017-05-05 10:39:07,964::check::327::<wbr>storage.check::(_check_<wbr>completed) FINISH check u&#39;/rhev/data-center/mnt/vnx01.<wbr>srv.srvr.rbs.net:_fs__ovirt_<wbr>prd__data__domain/fdcf130d-<wbr>53b8-4978-8f97-82f364639b4a/<wbr>dom_md/metadata&#39; rc=0 err=bytearray(b&#39;0+1 records in\n0+1 records out\n369 bytes (369 B) copied, 0.000319659 s, 1.2 MB/s\n&#39;) elapsed=0.05</div><div>Thread-12::DEBUG::2017-05-05 10:39:09,035::check::296::<wbr>storage.check::(_start_<wbr>process) START check &#39;/dev/1804d02e-7865-4acd-a04f-<wbr>8200ac2d2b84/metadata&#39; cmd=[&#39;/usr/bin/taskset&#39;, &#39;--cpu-list&#39;, &#39;0-31&#39;, &#39;/usr/bin/dd&#39;, &#39;if=/dev/1804d02e-7865-4acd-<wbr>a04f-8200ac2d2b84/metadata&#39;, &#39;of=/dev/null&#39;, &#39;bs=4096&#39;, &#39;count=1&#39;, &#39;iflag=direct&#39;] delay=0.00</div><div>Thread-12::DEBUG::2017-05-05 10:39:09,084::asyncevent::564:<wbr>:storage.asyncevent::(reap) Process &lt;cpopen.CPopen object at 0x383d690&gt; terminated (count=1)</div><div>Thread-12::DEBUG::2017-05-05 10:39:09,085::check::327::<wbr>storage.check::(_check_<wbr>completed) FINISH check &#39;/dev/1804d02e-7865-4acd-a04f-<wbr>8200ac2d2b84/metadata&#39; rc=0 err=bytearray(b&#39;1+0 records in\n1+0 records out\n4096 bytes (4.1 kB) copied, 0.000190859 s, 21.5 MB/s\n&#39;) elapsed=0.05</div><div>Thread-37::DEBUG::2017-05-05 10:39:12,431::monitor::365::<wbr>Storage.Monitor::(_<wbr>produceDomain) Producing domain f9e051a9-6660-4e49-a3f1-<wbr>354583501610</div><div>Thread-37::ERROR::2017-05-05 10:39:12,431::sdc::140::<wbr>Storage.StorageDomainCache::(_<wbr>findDomain) looking for unfetched domain f9e051a9-6660-4e49-a3f1-<wbr>354583501610</div><div>Thread-37::ERROR::2017-05-05 10:39:12,431::sdc::157::<wbr>Storage.StorageDomainCache::(_<wbr>findUnfetchedDomain) looking for domain f9e051a9-6660-4e49-a3f1-<wbr>354583501610</div><div>Thread-37::DEBUG::2017-05-05 10:39:12,432::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) /usr/bin/taskset --cpu-list 0-31 /usr/bin/sudo -n /usr/sbin/lvm vgs --config &#39; devices { preferred_names = [&quot;^/dev/mapper/&quot;] ignore_suspended_devices=1 write_cache_state=0 disable_after_error_count=3 filter = [ &#39;\&#39;&#39;a|/dev/mapper/<wbr>36000144000000010206a1c589de93<wbr>966|/dev/mapper/<wbr>36000144000000010206a1c589de93<wbr>9b1|/dev/mapper/<wbr>36000144000000010206a1c589de93<wbr>a4d|/dev/mapper/<wbr>3600601600f7025006828c2f47c7be<wbr>611|&#39;\&#39;&#39;, &#39;\&#39;&#39;r|.*|&#39;\&#39;&#39; ] }  global {  locking_type=1  prioritise_write_locks=1  wait_for_locks=1  use_lvmetad=0 }  backup {  retain_min = 50  retain_days = 0 } &#39; --noheadings --units b --nosuffix --separator &#39;|&#39; --ignoreskippedcluster -o uuid,name,attr,size,free,<wbr>extent_size,extent_count,free_<wbr>count,tags,vg_mda_size,vg_mda_<wbr>free,lv_count,pv_count,pv_name f9e051a9-6660-4e49-a3f1-<wbr>354583501610 (cwd None)</div><div>Thread-37::DEBUG::2017-05-05 10:39:12,591::lvm::288::<wbr>Storage.Misc.excCmd::(cmd) FAILED: &lt;err&gt; = &#39;  WARNING: Not using lvmetad because config setting use_lvmetad=0.\n  WARNING: To avoid corruption, rescan devices to make changes visible (pvscan --cache).\n  Volume group &quot;f9e051a9-6660-4e49-a3f1-<wbr>354583501610&quot; not found\n  Cannot process volume group f9e051a9-6660-4e49-a3f1-<wbr>354583501610\n&#39;; &lt;rc&gt; = 5</div><div>Thread-37::WARNING::2017-05-05 10:39:12,597::lvm::376::<wbr>Storage.LVM::(_reloadvgs) lvm vgs failed: 5 [] [&#39;  WARNING: Not using lvmetad because config setting use_lvmetad=0.&#39;, &#39;  WARNING: To avoid corruption, rescan devices to make changes visible (pvscan --cache).&#39;, &#39;  Volume group &quot;f9e051a9-6660-4e49-a3f1-<wbr>354583501610&quot; not found&#39;, &#39;  Cannot process volume group f9e051a9-6660-4e49-a3f1-<wbr>354583501610&#39;]</div><div><b>Thread-37::ERROR::2017-05-05 10:39:12,602::sdc::146::<wbr>Storage.StorageDomainCache::(_<wbr>findDomain) domain f9e051a9-6660-4e49-a3f1-<wbr>354583501610 not found</b></div><div>Traceback (most recent call last):</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 144, in _findDomain</div><div>    dom = findMethod(sdUUID)</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 174, in _findUnfetchedDomain</div><div>    raise se.StorageDomainDoesNotExist(<wbr>sdUUID)</div><div>StorageDomainDoesNotExist: Storage domain does not exist: (u&#39;f9e051a9-6660-4e49-a3f1-<wbr>354583501610&#39;,)</div><div>Thread-37::ERROR::2017-05-05 10:39:12,602::monitor::328::<wbr>Storage.Monitor::(_setupLoop) Setting up monitor for f9e051a9-6660-4e49-a3f1-<wbr>354583501610 failed</div><div>Traceback (most recent call last):</div><div>  File &quot;/usr/share/vdsm/storage/<wbr>monitor.py&quot;, line 325, in _setupLoop</div><div>    self._setupMonitor()</div><div>  File &quot;/usr/share/vdsm/storage/<wbr>monitor.py&quot;, line 348, in _setupMonitor</div><div>    self._produceDomain()</div><div>  File &quot;/usr/lib/python2.7/site-<wbr>packages/vdsm/utils.py&quot;, line 405, in wrapper</div><div>    value = meth(self, *a, **kw)</div><div>  File &quot;/usr/share/vdsm/storage/<wbr>monitor.py&quot;, line 366, in _produceDomain</div><div>    self.domain = sdCache.produce(self.sdUUID)</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 101, in produce</div><div>    domain.getRealDomain()</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 53, in getRealDomain</div><div>    return self._cache._realProduce(self.<wbr>_sdUUID)</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 125, in _realProduce</div><div>    domain = self._findDomain(sdUUID)</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 144, in _findDomain</div><div>    dom = findMethod(sdUUID)</div><div>  File &quot;/usr/share/vdsm/storage/sdc.<wbr>py&quot;, line 174, in _findUnfetchedDomain</div><div>    raise se.StorageDomainDoesNotExist(<wbr>sdUUID)</div><div>StorageDomainDoesNotExist: Storage domain does not exist: (u&#39;f9e051a9-6660-4e49-a3f1-<wbr>354583501610&#39;,)</div><div>jsonrpc.Executor/3::DEBUG::<wbr>2017-05-05 10:39:13,057::__init__::530::<wbr>jsonrpc.JsonRpcServer::(_<wbr>handle_request) Calling &#39;Host.getAllVmStats&#39; in bridge with {}</div><div>jsonrpc.Executor/3::DEBUG::<wbr>2017-05-05 10:39:13,081::__init__::555::<wbr>jsonrpc.JsonRpcServer::(_<wbr>handle_request) Return &#39;Host.getAllVmStats&#39; in bridge with (suppressed)</div><div>jsonrpc.Executor/3::INFO::<wbr>2017-05-05 10:39:13,088::__init__::513::<wbr>jsonrpc.JsonRpcServer::(_<wbr>serveRequest) RPC call Host.getAllVmStats succeeded in 0.03 seconds</div></div><div><br></div></div><div class="HOEnZb"><div class="h5"><br><div class="gmail_quote"><div dir="ltr">Em sex, 5 de mai de 2017 às 14:40, Yuval Turgeman &lt;<a href="mailto:yuvalt@redhat.com" target="_blank">yuvalt@redhat.com</a>&gt; escreveu:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">I take it updating everything to 4.0.6 is not an option ?<div dir="auto"><br></div><div dir="auto">Thanks,</div><div dir="auto">Yuval</div></div><div class="gmail_extra"><br><div class="gmail_quote"></div></div><div class="gmail_extra"><div class="gmail_quote">On May 5, 2017 6:16 PM, &quot;Rogério Ceni Coelho&quot; &lt;<a href="mailto:rogeriocenicoelho@gmail.com" target="_blank">rogeriocenicoelho@gmail.com</a>&gt; wrote:<br type="attribution"></div></div><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I can think in two ways. Please let me know if have a change to go ok.<div><br></div><div>First, download ovirt-node-ng-image-<wbr>update and ovirt-node-ng-image from 4.0.5 version and run yum localinstall.</div><div><br></div><div>Second, create a rpm list from other 4.0.5 node, do an diff agains my 4.0.3 node and use the diff to download packages from 4.0.5 version and run yum localintall.</div><div><br></div><div>My concern with this are that i can not upgrade ovirt engine every time i need to install a new ovirt node.</div><div><br></div><div>Thanks.</div></div><br><div class="gmail_quote"><div dir="ltr">Em sex, 5 de mai de 2017 às 11:26, Rogério Ceni Coelho &lt;<a href="mailto:rogeriocenicoelho@gmail.com" target="_blank">rogeriocenicoelho@gmail.com</a>&gt; escreveu:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi oVirt Troopers,<div><br></div><div>I have two segregated oVirt Clusters running 4.0.5 ( DEV and PROD enviroments).</div><div><br></div><div>Now i need to install a new oVirt Node Server (Dell PowerEdge M620), but i see that does not exist an 4.0.5 iso on <a href="http://resources.ovirt.org/pub/ovirt-4.0/iso/ovirt-node-ng-installer/" target="_blank">http://resources.ovirt.org/<wbr>pub/ovirt-4.0/iso/ovirt-node-<wbr>ng-installer/</a> , only 4.0.3 and 4.0.6.</div><div><br></div><div>How can i install this new server and go to the same version of all 20 others ???</div><div><br></div><div>There is a way to install 4.0.3 and update to 4.0.5 only ?</div><div><br></div><div>Thanks in advance.</div></div></blockquote></div>
<br></blockquote></div></div><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
<br></blockquote></div></div>
</blockquote></div>
</div></div><br>______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
<br></blockquote></div><br></div></div>