At least one OpenStack distro (piston cloud) is doing deployments for clients with ceph. They are using xfs, rather than btrfs and are backing it with ssds, though.<span></span><br><br>On Friday, September 14, 2012, Daniel Friesen  wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I'm blissfully awaiting the day that Ceph is declared stable.<br>
<br>
~Daniel Friesen (Dantman, Nadir-Seen-Fire) [<a href="http://daniel.friesen.name" target="_blank">http://daniel.friesen.name</a>]<br>
<br>
On 12-09-14 12:24 AM, Petr Bena wrote:<br>
> Actually, there are issues with gluster which isn't much better, so<br>
> any alternative to gluster or nfs would be nice<br>
><br>
> On Thu, Sep 13, 2012 at 8:33 PM, Damian Zaremba<br>
> <<a href="javascript:;" onclick="_e(event, 'cvml', 'damian@damianzaremba.co.uk')">damian@damianzaremba.co.uk</a>> wrote:<br>
>> As seen on a few instances today;<br>
>> [  825.247230] svc: failed to register lockdv1 RPC service (errno 97).<br>
>> [463494.148261] svc: failed to register lockdv1 RPC service (errno 97).<br>
>> [1442873.402458] svc: failed to register lockdv1 RPC service (errno 97).<br>
>><br>
>> Logins also seem to be rather laggy, ganglia shows spiky cpu on the nfs<br>
>> instance.<br>
>><br>
>> Any chance of moving home dirs over to the same cluster as project storage<br>
>> any time soon?<br>
>><br>
>> NFS isn't really scalable in the current state and is rather laggy randomly,<br>
>> also if that instance where to die everyone would be screwed.<br>
>><br>
>> Considering that opening up registration also potentially increases active<br>
>> users, it might be an idea to solve the issue before it seriously becomes<br>
>> one and we have a whole gluster like downtime.<br>
>><br>
>> TL;DR NFS should DIAF and we should use gluster/ceph for user data.<br>
>><br>
>> Damian<br>
>> --<br>
>> Damian Zaremba<br>
>> <a href="http://about.me/damianzaremba" target="_blank">http://about.me/damianzaremba</a><br>
>><br>
>><br>
>> _______________________________________________<br>
>> Labs-l mailing list<br>
>> <a href="javascript:;" onclick="_e(event, 'cvml', 'Labs-l@lists.wikimedia.org')">Labs-l@lists.wikimedia.org</a><br>
>> <a href="https://lists.wikimedia.org/mailman/listinfo/labs-l" target="_blank">https://lists.wikimedia.org/mailman/listinfo/labs-l</a><br>
> _______________________________________________<br>
> Labs-l mailing list<br>
> <a href="javascript:;" onclick="_e(event, 'cvml', 'Labs-l@lists.wikimedia.org')">Labs-l@lists.wikimedia.org</a><br>
> <a href="https://lists.wikimedia.org/mailman/listinfo/labs-l" target="_blank">https://lists.wikimedia.org/mailman/listinfo/labs-l</a><br>
<br>
<br>
_______________________________________________<br>
Labs-l mailing list<br>
<a href="javascript:;" onclick="_e(event, 'cvml', 'Labs-l@lists.wikimedia.org')">Labs-l@lists.wikimedia.org</a><br>
<a href="https://lists.wikimedia.org/mailman/listinfo/labs-l" target="_blank">https://lists.wikimedia.org/mailman/listinfo/labs-l</a><br>
</blockquote>