<div dir="ltr">Hello,<div style>on my oVirt Host configured with F18 and all-in-one and ovirt-nightly as of </div><div style>ovirt-engine-3.2.0-1.20130107.git1a60fea.fc18.noarch<br></div><div style><br></div><div style>I was able to import a CentOS 5.8 VM coming from a CentOS 6.3 host.</div>
<div style><br></div><div style>The oVirt node server is the same where I&#39;m unable to run a newly created WIndows 7 32bit vm...</div><div style>See <a href="http://lists.ovirt.org/pipermail/users/2013-January/011390.html">http://lists.ovirt.org/pipermail/users/2013-January/011390.html</a></div>
<div style><br></div><div style>In this thread I would like to report about successful import phases and some doubts about:</div><div style>1) no password requested during virt-v2v</div><div style>2) no connectivity in guest imported.</div>
<div style><br></div><div style>On CentOS 6.3 host</div><div style><div># virt-v2v -o rhev -osd 10.4.4.59:/EXPORT --network ovirtmgmt c56cr</div><div>c56cr_001: 100% [===================================================================================]D 0h02m17s</div>
<div>virt-v2v: c56cr configured with virtio drivers.</div><div><br></div><div style>---&gt; I would expect to be asked for the password of a privileged user in oVirt infra, instead the export process started without any prompt.</div>
<div style>Is this correct?</div><div style>In my opinion in this case it could be a security concern....</div><div><br></div><div>during virt-v2v command, on oVirt node I see this inside NFS Export domain:</div><div>$ sudo ls -l /EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/v2v.pmbPOGM_/30df5806-6911-41b3-8fef-1fd8d755659f</div>
<div>total 10485764</div><div>-rw-r--r--. 1 vdsm kvm 10737418240 Jan  9 16:05 0d0e8e12-8b35-4034-89fc-8cbd4a7d7d81</div><div><br></div><div>At the end of the process:</div><div>$ sudo ls -l /EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/images/</div>
<div>total 4</div><div>drwxr-xr-x. 2 vdsm kvm 4096 Jan  9 16:05 30df5806-6911-41b3-8fef-1fd8d755659f</div><div><br></div><div>$ sudo ls -lR /EXPORT/</div><div>/EXPORT/:</div><div>total 4</div><div>drwxr-xr-x. 5 vdsm kvm 4096 Jan  9 16:06 b878ad09-602f-47da-87f5-2829d67d3321</div>
<div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321:</div><div>total 12</div><div>drwxr-xr-x. 2 vdsm kvm 4096 Jan  9 16:01 dom_md</div><div>drwxr-xr-x. 3 vdsm kvm 4096 Jan  9 16:06 images</div><div>drwxr-xr-x. 4 vdsm kvm 4096 Jan  9 16:02 master</div>
<div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/dom_md:</div><div>total 8</div><div>-rw-rw----. 1 vdsm kvm   0 Jan  9 16:01 ids</div><div>-rw-rw----. 1 vdsm kvm   0 Jan  9 16:01 inbox</div><div>-rw-rw----. 1 vdsm kvm 512 Jan  9 16:01 leases</div>
<div>-rw-r--r--. 1 vdsm kvm 350 Jan  9 16:01 metadata</div><div>-rw-rw----. 1 vdsm kvm   0 Jan  9 16:01 outbox</div><div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/images:</div><div>total 4</div><div>drwxr-xr-x. 2 vdsm kvm 4096 Jan  9 16:05 30df5806-6911-41b3-8fef-1fd8d755659f</div>
<div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/images/30df5806-6911-41b3-8fef-1fd8d755659f:</div><div>total 10485768</div><div>-rw-r--r--. 1 vdsm kvm 10737418240 Jan  9 16:06 0d0e8e12-8b35-4034-89fc-8cbd4a7d7d81</div>
<div>-rw-r--r--. 1 vdsm kvm         330 Jan  9 16:05 0d0e8e12-8b35-4034-89fc-8cbd4a7d7d81.meta</div><div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/master:</div><div>total 8</div><div>drwxr-xr-x. 2 vdsm kvm 4096 Jan  9 16:02 tasks</div>
<div>drwxr-xr-x. 3 vdsm kvm 4096 Jan  9 16:06 vms</div><div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/master/tasks:</div><div>total 0</div><div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/master/vms:</div>
<div>total 4</div><div>drwxr-xr-x. 2 vdsm kvm 4096 Jan  9 16:06 2398149c-32b9-4bae-b572-134d973a759c</div><div><br></div><div>/EXPORT/b878ad09-602f-47da-87f5-2829d67d3321/master/vms/2398149c-32b9-4bae-b572-134d973a759c:</div>
<div>total 8</div><div>-rw-r--r--. 1 vdsm kvm 4649 Jan  9 16:06 2398149c-32b9-4bae-b572-134d973a759c.ovf</div><div><br></div><div><br></div><div>Then I began the vm import in webadmin:</div><div><br></div><div>Import process has begun for VM(s): c56cr.</div>
<div>You can check import status in the &#39;Events&#39; tab of the specific destination storage domain, or in the main &#39;Events&#39; tab</div><div><br></div><div style>---&gt; regarding the import status, the &quot;specific destination storage domain&quot; would be my DATA domain, correct?</div>
<div style>Because I see nothing in it and nothing in export domain.</div><div style>Instead I correctly see in main events tab of the cluster these two messages</div><div style> </div><div style><div>2013-Jan-09, 16:16 Starting to import Vm c56cr to Data Center Poli, Cluster Poli1</div>
<div>2013-Jan-09, 16:18 Vm c56cr was imported successfully to Data Center Poli, Cluster Poli1</div></div><div><br></div><div style>SO probably the first option should go away....?</div><div><br></div><div style>During the import, on the oVirt host</div>
<div>[g.cecchi@f18aio ~]$ vmstat 3</div><div>procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----</div><div> r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa</div><div>
 1  1      0 1684556 121824 28660956    0    0     8    69   21   66  0  0 99  0</div><div> 1  1      0 1515192 121824 28830112    0    0     0 58749 4468 6068  0  3 85 11</div><div> 0  1      0 1330708 121828 29014320    0    0     0 59415 4135 5149  0  4 85 11</div>
<div><br></div><div>$ sudo iotop -d 3 -P -o -k</div><div>Total DISK READ:       0.33 K/s | Total DISK WRITE:   56564.47 K/s</div><div>  PID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO&gt;    COMMAND                                         </div>
<div>22501 idle vdsm     55451.24 K/s 56459.45 K/s  0.00 % 91.03 % dd if=/rhev/data-center/~count=10240 oflag=direct</div><div>  831 be/4 root        0.00 K/s    0.00 K/s  0.00 %  3.56 % [flush-253:1]</div><div>  576 be/3 root        0.00 K/s   19.69 K/s  0.00 %  0.72 % [jbd2/dm-1-8]</div>
<div>23309 be/3 vdsm        0.33 K/s    0.00 K/s  0.00 %  0.00 % python /usr/share/vdsm/st~moteFileHandler.pyc 49 47</div><div>17057 be/4 apache      0.00 K/s    2.63 K/s  0.00 %  0.00 % httpd -DFOREGROUND</div><div>15524 be/4 root        0.00 K/s    1.31 K/s  0.00 %  0.00 % libvirtd --listen</div>
<div><br></div><div>$ ps -wfp 22501</div><div>UID        PID  PPID  C STIME TTY          TIME CMD</div><div>vdsm     22501 16120  8 16:16 ?        00:00:14 /usr/bin/dd if=/rhev/data-center/89d40d09-5109-4070-b9b0-86f1addce8af/b878ad09-602f-</div>
<div><br></div><div style>I was then able to power on and connect via vnc to the console.</div><div style>But I noticed it has no connectivity with its gateway</div><div style><br></div><div style>Host is on vlan 65</div>
<div style>(em3 + em3.65 cofigured)</div><div style><br></div><div style>host has</div><div style><div>3: em3: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500 qdisc mq master ovirtmgmt state UP qlen 1000</div><div>    link/ether 00:1c:c4:ab:3a:dd brd ff:ff:ff:ff:ff:ff</div>
<div>    inet6 fe80::21c:c4ff:feab:3add/64 scope link </div><div>       valid_lft forever preferred_lft forever</div><div>...<br></div></div><div style><div>6: ovirtmgmt: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500 qdisc noqueue state UP </div>
<div>    link/ether 00:1c:c4:ab:3a:dd brd ff:ff:ff:ff:ff:ff</div><div>    inet6 fe80::21c:c4ff:feab:3add/64 scope link </div><div>       valid_lft forever preferred_lft forever</div><div>7: em3.65@em3: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500 qdisc noqueue state UP </div>
<div>    link/ether 00:1c:c4:ab:3a:dd brd ff:ff:ff:ff:ff:ff</div><div>    inet <a href="http://10.4.4.59/24">10.4.4.59/24</a> brd 10.4.4.255 scope global em3.65</div><div>    inet6 fe80::21c:c4ff:feab:3add/64 scope link </div>
<div>       valid_lft forever preferred_lft forever</div><div>...</div><div>13: vnet0: &lt;BROADCAST,MULTICAST,UP,LOWER_UP&gt; mtu 1500 qdisc pfifo_fast master ovirtmgmt state UNKNOWN qlen 500</div><div>    link/ether fe:54:00:d3:8f:a3 brd ff:ff:ff:ff:ff:ff</div>
<div>    inet6 fe80::fc54:ff:fed3:8fa3/64 scope link </div><div>       valid_lft forever preferred_lft forever</div><div><br></div></div><div style><div>[g.cecchi@f18aio ~]$ ip route list</div><div>default via 10.4.4.250 dev em3.65 </div>
<div><a href="http://10.4.4.0/24">10.4.4.0/24</a> dev em3.65  proto kernel  scope link  src 10.4.4.59 </div><div><br></div><div style>ovirtmgmt is tagged in datacenter Poli1</div></div><div style><br></div><div style>guest is originally configured (and it maintained this) on bridged vlan65 on CentOS 63 host. Its parameters</div>
<div style><br></div><div style>eth0 with</div><div style>ip 10.4.4.53 and gw 10.4.4.250 </div><div style><br></div><div style>from webadmin pov it seems ok. see also this screenshot</div><div style><a href="https://docs.google.com/open?id=0BwoPbcrMv8mvbENvR242VFJ2M1k">https://docs.google.com/open?id=0BwoPbcrMv8mvbENvR242VFJ2M1k</a></div>
<div><br></div><div style>any help will be appreciated.</div><div style>do I have to enable some kind of routing not enabled by default..?</div><div style><br></div><div style>Thanks,</div><div style>Gianluca</div></div></div>