<div dir="ltr"><div><div><div>Gary,<br><br></div>See this wiki page, it explains how to import storage domains :<br><a href="http://www.ovirt.org/develop/release-management/features/storage/importstoragedomain/">http://www.ovirt.org/develop/release-management/features/storage/importstoragedomain/</a><br><br></div>Regards,<br><br></div>Fred<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Feb 15, 2017 at 10:15 PM, Nir Soffer <span dir="ltr">&lt;<a href="mailto:nsoffer@redhat.com" target="_blank">nsoffer@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5">On Wed, Feb 15, 2017 at 9:30 PM, Gary Lloyd &lt;<a href="mailto:g.lloyd@keele.ac.uk">g.lloyd@keele.ac.uk</a>&gt; wrote:<br>
&gt; Hi Nir thanks for the guidance<br>
&gt;<br>
&gt; We started to use ovirt a good few years ago now (version 3.2).<br>
&gt;<br>
&gt; At the time iscsi multipath wasn&#39;t supported, so we made our own<br>
&gt; modifications to vdsm and this worked well with direct lun.<br>
&gt; We decided to go with direct lun in case things didn&#39;t work out with OVirt<br>
&gt; and in that case we would go back to using vanilla kvm / virt-manager.<br>
&gt;<br>
&gt; At the time I don&#39;t believe that you could import iscsi data domains that<br>
&gt; had already been configured into a different installation, so we replicated<br>
&gt; each raw VM volume using the SAN to another server room for DR purposes.<br>
&gt; We use Dell Equallogic and there is a documented limitation of 1024 iscsi<br>
&gt; connections and 256 volume replications. This isn&#39;t a problem at the moment,<br>
&gt; but the more VMs that we have the more conscious I am about us reaching<br>
&gt; those limits (we have around 300 VMs at the moment and we have a vdsm hook<br>
&gt; that closes off iscsi connections if a vm is migrated /powered off).<br>
&gt;<br>
&gt; Moving to storage domains keeps the number of iscsi connections / replicated<br>
&gt; volumes down and we won&#39;t need to make custom changes to vdsm when we<br>
&gt; upgrade.<br>
&gt; We can then use the SAN to replicate the storage domains to another data<br>
&gt; centre and bring that online with a different install of OVirt (we will have<br>
&gt; to use these arrays for at least the next 3 years).<br>
&gt;<br>
&gt; I didn&#39;t realise that each storage domain contained the configuration<br>
&gt; details/metadata for the VMs.<br>
&gt; This to me is an extra win as we can recover VMs faster than we can now if<br>
&gt; we have to move them to a different data centre in the event of a disaster.<br>
&gt;<br>
&gt;<br>
&gt; Are there any maximum size / vm limits or recommendations for each storage<br>
&gt; domain ?<br>
<br>
</div></div>The recommended limit in rhel 6 was 350 lvs per storage domain. We believe this<br>
limit is not correct for rhel 7 and recent ovirt versions. We are<br>
testing currently<br>
1000 lvs per storage domain, but we did not finish testing yet, so I cannot say<br>
what is the recommended limit yet.<br>
<br>
Preallocated disk has one lv, if you have thin disk, you have one lv<br>
per snapshot.<br>
<br>
There is no practical limit to the size of a storage domain.<br>
<span class=""><br>
&gt; Does Ovirt support moving VM&#39;s between different storage domain type e.g.<br>
&gt; ISCSI to gluster ?<br>
<br>
</span>Sure, you can move vm disks from any storage domain to any storage domain<br>
(except ceph).<br>
<div class="HOEnZb"><div class="h5"><br>
&gt;<br>
&gt;<br>
&gt; Many Thanks<br>
&gt;<br>
&gt; Gary Lloyd<br>
&gt; ______________________________<wbr>__________________<br>
&gt; I.T. Systems:Keele University<br>
&gt; Finance &amp; IT Directorate<br>
&gt; Keele:Staffs:IC1 Building:ST5 5NB:UK<br>
&gt; <a href="tel:%2B44%201782%20733063" value="+441782733063">+44 1782 733063</a><br>
&gt; ______________________________<wbr>__________________<br>
&gt;<br>
&gt; On 15 February 2017 at 18:56, Nir Soffer &lt;<a href="mailto:nsoffer@redhat.com">nsoffer@redhat.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Feb 15, 2017 at 2:32 PM, Gary Lloyd &lt;<a href="mailto:g.lloyd@keele.ac.uk">g.lloyd@keele.ac.uk</a>&gt; wrote:<br>
&gt;&gt; &gt; Hi<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; We currently use direct lun for our virtual machines and I would like to<br>
&gt;&gt; &gt; move away from doing this and move onto storage domains.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; At the moment we are using an ISCSI SAN and we use on replicas created<br>
&gt;&gt; &gt; on<br>
&gt;&gt; &gt; the SAN for disaster recovery.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; As a test I thought I would replicate an existing storage domain&#39;s<br>
&gt;&gt; &gt; volume<br>
&gt;&gt; &gt; (via the SAN) and try to mount again as a separate storage domain (This<br>
&gt;&gt; &gt; is<br>
&gt;&gt; &gt; with ovirt 4.06 (cluster mode 3.6))<br>
&gt;&gt;<br>
&gt;&gt; Why do want to replicate a storage domain and connect to it?<br>
&gt;&gt;<br>
&gt;&gt; &gt; I can log into the iscsi disk but then nothing gets listed under Storage<br>
&gt;&gt; &gt; Name / Storage ID (VG Name)<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Should this be possible or will it not work due the the uids being<br>
&gt;&gt; &gt; identical<br>
&gt;&gt; &gt; ?<br>
&gt;&gt;<br>
&gt;&gt; Connecting 2 storage domains with same uid will not work. You can use<br>
&gt;&gt; either<br>
&gt;&gt; the old or the new, but not both at the same time.<br>
&gt;&gt;<br>
&gt;&gt; Can you explain how replicating the storage domain volume is related to<br>
&gt;&gt; moving from direct luns to storage domains?<br>
&gt;&gt;<br>
&gt;&gt; If you want to move from direct lun to storage domain, you need to create<br>
&gt;&gt; a new disk on the storage domain, and copy the direct lun data to the new<br>
&gt;&gt; disk.<br>
&gt;&gt;<br>
&gt;&gt; We don&#39;t support this yet, but you can copy manually like this:<br>
&gt;&gt;<br>
&gt;&gt; 1. Find the lv of the new disk<br>
&gt;&gt;<br>
&gt;&gt;     lvs -o name --select &quot;{IU_&lt;new-disk-uuid&gt;} = lv_tags&quot; vg-name<br>
&gt;&gt;<br>
&gt;&gt; 2. Activate the lv<br>
&gt;&gt;<br>
&gt;&gt;     lvchange -ay vg-name/lv-name<br>
&gt;&gt;<br>
&gt;&gt; 3. Copy the data from the lun<br>
&gt;&gt;<br>
&gt;&gt;     qemu-img convert -p -f raw -O raw -t none -T none<br>
&gt;&gt; /dev/mapper/xxxyyy /dev/vg-name/lv-name<br>
&gt;&gt;<br>
&gt;&gt; 4. Deactivate the disk<br>
&gt;&gt;<br>
&gt;&gt;     lvchange -an vg-name/lv-name<br>
&gt;&gt;<br>
&gt;&gt; Nir<br>
&gt;<br>
&gt;<br>
</div></div><div class="HOEnZb"><div class="h5">______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org">Users@ovirt.org</a><br>
<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
</div></div></blockquote></div><br></div>