<div class="xam_msg_class">
<div style="font: normal 13px Arial; color:rgb(31, 28, 27);"><br>you can use flashcache under centos6, it's stable and give you a boost for read/write, but I never user with gluster:<br><br>https://github.com/facebook/flashcache/<br><br>under fedora you have more choice: flashcache, bcache, dm-cache<br><br>regards<br>a<br><br>Date: Wed, 8 Jan 2014 21:44:35 -0600<br>From: Darrell Budic &lt;darrell.budic@zenfire.com&gt;<br>To: Russell Purinton &lt;russ@sonicbx.com&gt;<br>Cc: "users@ovirt.org" &lt;users@ovirt.org&gt;<br>Subject: Re: [Users] SSD Caching<br>Message-ID: &lt;A45059D4-B00D-4573-81E7-F00B2B9FA4AA@zenfire.com&gt;<br>Content-Type: text/plain; charset="windows-1252"<br><br>Stick
 your bricks on ZFS and let it do it for you. Works well, although I 
haven?t done much benchmarking of it. My test setup is described in the 
thread under [Users] Creation of preallocated disk with Gluster 
replication. I?ve seen some blog posts here and there about gluster on 
ZFS for this reason too.<br><br> -Darrell<br><br>On Jan 7, 2014, at 9:56 PM, Russell Purinton &lt;russ@sonicbx.com&gt; wrote:<br><br>&gt; [20:42] &lt;sonicrose&gt; is anybody out there using a good RAM+SSD caching system ahead of gluster storage?<br>&gt; [20:42] &lt;sonicrose&gt; sorry if that came through twice<br>&gt;
 [20:44] &lt;sonicrose&gt; im thinking about making the SSD one giant 
swap file then creating a very large ramdisk in virtual memory and using
 that as a block level cache for parts and pieces of virtual machine 
disk images<br>&gt; [20:44] &lt;sonicrose&gt; then i think the memory 
managers would inherently play the role of storage tiering ie: keeping 
the hottest data in memory and the coldest data on swap<br>&gt; [20:45] 
&lt;sonicrose&gt; everything i have seen today has been setup as   
"consumer"  ===&gt;  network ====&gt; SSD cache ====&gt; real disks<br>&gt; [20:45] &lt;sonicrose&gt; but i'd like to actually do "consumer" ===&gt; RAM+SSD cache ===&gt;  network ===&gt; real disks<br>&gt;
 [20:46] &lt;sonicrose&gt; i realize doing a virtual memory disk means 
the cache will be cleared on every reboot, and I'm ok with that<br>&gt; 
[20:47] &lt;sonicrose&gt; i know this can be done with NFS and 
cachefilesd(fscache), but how could something be integrated into the 
native gluster clients?<br>&gt; [20:47] &lt;sonicrose&gt; i'd prefer not to have to access gluster via NFS<br>&gt;
 [20:49] &lt;sonicrose&gt; any feedback from this room is greatly 
appreciated, getting someone started to build managed HA cloud hosting<br>&gt;<br><br><br><br><br><br><br><br><br><br><br><br><br>
<div><span style="font-family:Arial; font-size:11px; color:#5F5F5F;">Da</span><span style="font-family:Arial; font-size:12px; color:#5F5F5F; padding-left:5px;">: users-bounces@ovirt.org</span></div>
<div><span style="font-family:Arial; font-size:11px; color:#5F5F5F;">A</span><span style="font-family:Arial; font-size:12px; color:#5F5F5F; padding-left:5px;">: users@ovirt.org</span></div>
<div><span style="font-family:Arial; font-size:11px; color:#5F5F5F;">Cc</span><span style="font-family:Arial; font-size:12px; color:#5F5F5F; padding-left:5px;">: </span></div>
<div><span style="font-family:Arial; font-size:11px; color:#5F5F5F;">Data</span><span style="font-family:Arial; font-size:12px; color:#5F5F5F; padding-left:5px;">: Thu, 09 Jan 2014 02:34:48 -0500</span></div>
<div><span style="font-family:Arial; font-size:11px; color:#5F5F5F;">Oggetto</span><span style="font-family:Arial; font-size:12px; color:#5F5F5F; padding-left:5px;">: Users Digest, Vol 28, Issue 61</span></div>
<br>
<div>&gt; Send Users mailing list submissions to</div><div>&gt;         users@ovirt.org</div><div>&gt; </div><div>&gt; To subscribe or unsubscribe via the World Wide Web, visit</div><div>&gt;         http://lists.ovirt.org/mailman/listinfo/users</div><div>&gt; or, via email, send a message with subject or body 'help' to</div><div>&gt;         users-request@ovirt.org</div><div>&gt; </div><div>&gt; You can reach the person managing the list at</div><div>&gt;         users-owner@ovirt.org</div><div>&gt; </div><div>&gt; When replying, please edit your Subject line so it is more specific</div><div>&gt; than "Re: Contents of Users digest..."</div><div>&gt; </div><div>&gt; </div><div>&gt; Today's Topics:</div><div>&gt; </div><div>&gt;    1. Re: SSD Caching (Darrell Budic)</div><div>&gt;    2. Re: Ovirt DR setup (Hans Emmanuel)</div><div>&gt;    3. Re: Experience with low cost NFS-Storage as VM-Storage?</div><div>&gt;       (Markus Stockhausen)</div><div>&gt;    4. Re: Experience with low cost NFS-Storage as VM-Storage?</div><div>&gt;       (Karli Sj?berg)</div><div>&gt;    5. Re: Experience with low cost NFS-Storage as VM-Storage? (squadra)</div><div>&gt; </div><div>&gt; </div><div>&gt; ----------------------------------------------------------------------</div><div>&gt; </div><div>&gt; Message: 1</div><div>&gt; Date: Wed, 8 Jan 2014 21:44:35 -0600</div><div>&gt; From: Darrell Budic <darrell.budic@zenfire.com></darrell.budic@zenfire.com></div><div>&gt; To: Russell Purinton <russ@sonicbx.com></russ@sonicbx.com></div><div>&gt; Cc: "users@ovirt.org" <users@ovirt.org></users@ovirt.org></div><div>&gt; Subject: Re: [Users] SSD Caching</div><div>&gt; Message-ID: <a45059d4-b00d-4573-81e7-f00b2b9fa4aa@zenfire.com></a45059d4-b00d-4573-81e7-f00b2b9fa4aa@zenfire.com></div><div>&gt; Content-Type: text/plain; charset="windows-1252"</div><div>&gt; </div><div>&gt; Stick your bricks on ZFS and let it do it for you. Works well, although I haven?t done much benchmarking of it. My test setup is described in the thread under [Users] Creation of preallocated disk with Gluster replication. I?ve seen some blog posts here and there about gluster on ZFS for this reason too.</div><div>&gt; </div><div>&gt;  -Darrell</div><div>&gt; </div><div>&gt; On Jan 7, 2014, at 9:56 PM, Russell Purinton <russ@sonicbx.com> wrote:</russ@sonicbx.com></div><div>&gt; </div><div>&gt; &gt; [20:42] <sonicrose> is anybody out there using a good RAM+SSD caching system ahead of gluster storage?</sonicrose></div><div>&gt; &gt; [20:42] <sonicrose> sorry if that came through twice</sonicrose></div><div>&gt; &gt; [20:44] <sonicrose> im thinking about making the SSD one giant swap file then creating a very large ramdisk in virtual memory and using that as a block level cache for parts and pieces of virtual machine disk images</sonicrose></div><div>&gt; &gt; [20:44] <sonicrose> then i think the memory managers would inherently play the role of storage tiering ie: keeping the hottest data in memory and the coldest data on swap</sonicrose></div><div>&gt; &gt; [20:45] <sonicrose> everything i have seen today has been setup as   "consumer"  ===&gt;  network ====&gt; SSD cache ====&gt; real disks</sonicrose></div><div>&gt; &gt; [20:45] <sonicrose> but i'd like to actually do "consumer" ===&gt; RAM+SSD cache ===&gt;  network ===&gt; real disks</sonicrose></div><div>&gt; &gt; [20:46] <sonicrose> i realize doing a virtual memory disk means the cache will be cleared on every reboot, and I'm ok with that</sonicrose></div><div>&gt; &gt; [20:47] <sonicrose> i know this can be done with NFS and cachefilesd(fscache), but how could something be integrated into the native gluster clients?</sonicrose></div><div>&gt; &gt; [20:47] <sonicrose> i'd prefer not to have to access gluster via NFS</sonicrose></div><div>&gt; &gt; [20:49] <sonicrose> any feedback from this room is greatly appreciated, getting someone started to build managed HA cloud hosting</sonicrose></div><div>&gt; &gt; _______________________________________________</div><div>&gt; &gt; Users mailing list</div><div>&gt; &gt; Users@ovirt.org</div><div>&gt; &gt; http://lists.ovirt.org/mailman/listinfo/users</div><div>&gt; </div><div>&gt; -------------- next part --------------</div><div>&gt; An HTML attachment was scrubbed...</div><div>&gt; URL: <http: lists.ovirt.org="" pipermail="" users="" attachments="" 20140108="" 21aef6d2="" attachment-0001.html=""></http:></div><div>&gt; </div><div>&gt; ------------------------------</div><div>&gt; </div><div>&gt; Message: 2</div><div>&gt; Date: Thu, 9 Jan 2014 10:34:26 +0530</div><div>&gt; From: Hans Emmanuel <hansemmanuel@gmail.com></hansemmanuel@gmail.com></div><div>&gt; To: users@ovirt.org</div><div>&gt; Subject: Re: [Users] Ovirt DR setup</div><div>&gt; Message-ID:</div><div>&gt;         <cakym+td8o3g+zfsfgybzegnnk+hxq=9tj9j9r1ky_thyemcxwa@mail.gmail.com></cakym+td8o3g+zfsfgybzegnnk+hxq=9tj9j9r1ky_thyemcxwa@mail.gmail.com></div><div>&gt; Content-Type: text/plain; charset="iso-8859-1"</div><div>&gt; </div><div>&gt; Could any one please give me some suggestions ?</div><div>&gt; </div><div>&gt; </div><div>&gt; On Wed, Jan 8, 2014 at 11:39 AM, Hans Emmanuel <hansemmanuel@gmail.com>wrote:</hansemmanuel@gmail.com></div><div>&gt; </div><div>&gt; &gt; Hi all ,</div><div>&gt; &gt;</div><div>&gt; &gt; I would like to know about the possibility of setup Disaster Recovery Site</div><div>&gt; &gt; (DR) for an Ovirt cluster . i.e if site 1 goes down I need to trigger the</div><div>&gt; &gt; site 2 to come in to action with the minimal down time .</div><div>&gt; &gt;</div><div>&gt; &gt; I am open to use NFS shared storage or local storage for data storage</div><div>&gt; &gt; domain . I know we need to replicate the storage domain and Ovirt confs and</div><div>&gt; &gt; DB across the sites  , but couldn't find any doc for the same , isn't that</div><div>&gt; &gt; possible with Ovirt ?</div><div>&gt; &gt;</div><div>&gt; &gt;  *Hans Emmanuel*</div><div>&gt; &gt;</div><div>&gt; &gt;</div><div>&gt; &gt; *NOthing to FEAR but something to FEEL......*</div><div>&gt; &gt;</div><div>&gt; &gt;</div><div>&gt; </div><div>&gt; </div><div>&gt; -- </div><div>&gt; *Hans Emmanuel*</div><div>&gt; </div><div>&gt; *NOthing to FEAR but something to FEEL......*</div><div>&gt; -------------- next part --------------</div><div>&gt; An HTML attachment was scrubbed...</div><div>&gt; URL: <http: lists.ovirt.org="" pipermail="" users="" attachments="" 20140109="" ae9bb53c="" attachment-0001.html=""></http:></div><div>&gt; </div><div>&gt; ------------------------------</div><div>&gt; </div><div>&gt; Message: 3</div><div>&gt; Date: Thu, 9 Jan 2014 07:10:07 +0000</div><div>&gt; From: Markus Stockhausen <stockhausen@collogia.de></stockhausen@collogia.de></div><div>&gt; To: squadra <squadra@gmail.com>, "users@ovirt.org" <users@ovirt.org></users@ovirt.org></squadra@gmail.com></div><div>&gt; Subject: Re: [Users] Experience with low cost NFS-Storage as</div><div>&gt;         VM-Storage?</div><div>&gt; Message-ID:</div><div>&gt;         &lt;12EF8D94C6F8734FB2FF37B9FBEDD173585B991E@EXCHANGE.collogia.de&gt;</div><div>&gt; Content-Type: text/plain; charset="us-ascii"</div><div>&gt; </div><div>&gt; &gt; Von: users-bounces@ovirt.org [users-bounces@ovirt.org]" im Auftrag von "squadra [squadra@gmail.com]</div><div>&gt; &gt; Gesendet: Mittwoch, 8. Januar 2014 17:15</div><div>&gt; &gt; An: users@ovirt.org</div><div>&gt; &gt; Betreff: Re: [Users] Experience with low cost NFS-Storage as VM-Storage?</div><div>&gt; &gt;</div><div>&gt; &gt; better go for iscsi or something else... i whould avoid nfs for vm hosting</div><div>&gt; &gt; Freebsd10 delivers kernel iscsitarget now, which works great so far. or go with omnios to get comstar iscsi, which is a rocksolid solution</div><div>&gt; &gt;</div><div>&gt; &gt; Cheers,</div><div>&gt; &gt; </div><div>&gt; &gt; Juergen</div><div>&gt; </div><div>&gt; That is usually a matter of taste and the available environment. </div><div>&gt; The minimal differences in performance usually only show up</div><div>&gt; if you drive the storage to its limits. I guess you could help Sven </div><div>&gt; better if you had some hard facts why to favour ISCSI. </div><div>&gt; </div><div>&gt; Best regards.</div><div>&gt; </div><div>&gt; Markus</div><div>&gt; -------------- next part --------------</div><div>&gt; An embedded and charset-unspecified text was scrubbed...</div><div>&gt; Name: InterScan_Disclaimer.txt</div><div>&gt; URL: <http: lists.ovirt.org="" pipermail="" users="" attachments="" 20140109="" 3dfd362d="" attachment-0001.txt=""></http:></div><div>&gt; </div><div>&gt; ------------------------------</div><div>&gt; </div><div>&gt; Message: 4</div><div>&gt; Date: Thu, 9 Jan 2014 07:30:56 +0000</div><div>&gt; From: Karli Sj?berg <karli.sjoberg@slu.se></karli.sjoberg@slu.se></div><div>&gt; To: "stockhausen@collogia.de" <stockhausen@collogia.de></stockhausen@collogia.de></div><div>&gt; Cc: "squadra@gmail.com" <squadra@gmail.com>,        "users@ovirt.org"</squadra@gmail.com></div><div>&gt;         <users@ovirt.org></users@ovirt.org></div><div>&gt; Subject: Re: [Users] Experience with low cost NFS-Storage as</div><div>&gt;         VM-Storage?</div><div>&gt; Message-ID: &lt;5F9E965F5A80BC468BE5F40576769F095AFE3369@exchange2-1&gt;</div><div>&gt; Content-Type: text/plain; charset="utf-8"</div><div>&gt; </div><div>&gt; On Thu, 2014-01-09 at 07:10 +0000, Markus Stockhausen wrote:</div><div>&gt; &gt; &gt; Von: users-bounces@ovirt.org [users-bounces@ovirt.org]" im Auftrag von "squadra [squadra@gmail.com]</div><div>&gt; &gt; &gt; Gesendet: Mittwoch, 8. Januar 2014 17:15</div><div>&gt; &gt; &gt; An: users@ovirt.org</div><div>&gt; &gt; &gt; Betreff: Re: [Users] Experience with low cost NFS-Storage as VM-Storage?</div><div>&gt; &gt; &gt;</div><div>&gt; &gt; &gt; better go for iscsi or something else... i whould avoid nfs for vm hosting</div><div>&gt; &gt; &gt; Freebsd10 delivers kernel iscsitarget now, which works great so far. or go with omnios to get comstar iscsi, which is a rocksolid solution</div><div>&gt; &gt; &gt;</div><div>&gt; &gt; &gt; Cheers,</div><div>&gt; &gt; &gt; </div><div>&gt; &gt; &gt; Juergen</div><div>&gt; &gt; </div><div>&gt; &gt; That is usually a matter of taste and the available environment. </div><div>&gt; &gt; The minimal differences in performance usually only show up</div><div>&gt; &gt; if you drive the storage to its limits. I guess you could help Sven </div><div>&gt; &gt; better if you had some hard facts why to favour ISCSI. </div><div>&gt; &gt; </div><div>&gt; &gt; Best regards.</div><div>&gt; &gt; </div><div>&gt; &gt; Markus</div><div>&gt; </div><div>&gt; Only technical difference I can think of is the iSCSI-level</div><div>&gt; load-balancing. With NFS you set up the network with LACP and let that</div><div>&gt; load-balance for you (and you should probably do that with iSCSI as well</div><div>&gt; but you don?t strictly have to). I think it has to do with a chance of</div><div>&gt; trying to go beyond the capacity of 1 network interface at the same</div><div>&gt; time, from one Host (higher bandwidth) that makes people try iSCSI</div><div>&gt; instead of plain NFS. I have tried that but was never able to achieve</div><div>&gt; that effect, so in our situation, there?s no difference. In comparing</div><div>&gt; them both in benchmarks, there was no performance difference at all, at</div><div>&gt; least for our storage systems that are based on FreeBSD.</div><div>&gt; </div><div>&gt; /K</div><div>&gt; </div><div>&gt; ------------------------------</div><div>&gt; </div><div>&gt; Message: 5</div><div>&gt; Date: Thu, 9 Jan 2014 08:34:44 +0100</div><div>&gt; From: squadra <squadra@gmail.com></squadra@gmail.com></div><div>&gt; To: Markus Stockhausen <stockhausen@collogia.de></stockhausen@collogia.de></div><div>&gt; Cc: users@ovirt.org</div><div>&gt; Subject: Re: [Users] Experience with low cost NFS-Storage as</div><div>&gt;         VM-Storage?</div><div>&gt; Message-ID:</div><div>&gt;         <cabx==a33=tq=xzsbyssyfgxsycfheab7sxhgu8bx7fmhksj5aa@mail.gmail.com></cabx==a33=tq=xzsbyssyfgxsycfheab7sxhgu8bx7fmhksj5aa@mail.gmail.com></div><div>&gt; Content-Type: text/plain; charset="utf-8"</div><div>&gt; </div><div>&gt; There's are already enaugh articles on the web about NFS problems related</div><div>&gt; locking, latency, etc.... Eh stacking a protocol onto another to fix</div><div>&gt; problem and then maybe one more to glue them together.</div><div>&gt; </div><div>&gt; Google for the suse PDF " why NFS sucks", I don't agree with the whole</div><div>&gt; sheet.. NFS got his place,too. But not as production filer for VM.</div><div>&gt; </div><div>&gt; Cheers,</div><div>&gt; </div><div>&gt; Juergen, the NFS lover</div><div>&gt; On Jan 9, 2014 8:10 AM, "Markus Stockhausen" <stockhausen@collogia.de></stockhausen@collogia.de></div><div>&gt; wrote:</div><div>&gt; </div><div>&gt; &gt; &gt; Von: users-bounces@ovirt.org [users-bounces@ovirt.org]" im Auftrag von</div><div>&gt; &gt; "squadra [squadra@gmail.com]</div><div>&gt; &gt; &gt; Gesendet: Mittwoch, 8. Januar 2014 17:15</div><div>&gt; &gt; &gt; An: users@ovirt.org</div><div>&gt; &gt; &gt; Betreff: Re: [Users] Experience with low cost NFS-Storage as VM-Storage?</div><div>&gt; &gt; &gt;</div><div>&gt; &gt; &gt; better go for iscsi or something else... i whould avoid nfs for vm</div><div>&gt; &gt; hosting</div><div>&gt; &gt; &gt; Freebsd10 delivers kernel iscsitarget now, which works great so far. or</div><div>&gt; &gt; go with omnios to get comstar iscsi, which is a rocksolid solution</div><div>&gt; &gt; &gt;</div><div>&gt; &gt; &gt; Cheers,</div><div>&gt; &gt; &gt;</div><div>&gt; &gt; &gt; Juergen</div><div>&gt; &gt;</div><div>&gt; &gt; That is usually a matter of taste and the available environment.</div><div>&gt; &gt; The minimal differences in performance usually only show up</div><div>&gt; &gt; if you drive the storage to its limits. I guess you could help Sven</div><div>&gt; &gt; better if you had some hard facts why to favour ISCSI.</div><div>&gt; &gt;</div><div>&gt; &gt; Best regards.</div><div>&gt; &gt;</div><div>&gt; &gt; Markus</div><div>&gt; -------------- next part --------------</div><div>&gt; An HTML attachment was scrubbed...</div><div>&gt; URL: <http: lists.ovirt.org="" pipermail="" users="" attachments="" 20140109="" 3b206609="" attachment.html=""></http:></div><div>&gt; </div><div>&gt; ------------------------------</div><div>&gt; </div><div>&gt; _______________________________________________</div><div>&gt; Users mailing list</div><div>&gt; Users@ovirt.org</div><div>&gt; http://lists.ovirt.org/mailman/listinfo/users</div><div>&gt; </div><div>&gt; </div><div>&gt; End of Users Digest, Vol 28, Issue 61</div><div>&gt; *************************************</div></div>
</div>