<div dir="ltr">Maybe I'm wrong, but wasn't Tool Labs working on something where you could get access to slave replicas of working databases? If so, maybe an import isn't even necessary (maybe we can get an answer on this before the 3.5 days is up ;) ).</div>

<div class="gmail_extra"><br clear="all"><div><div dir="ltr"><div><b>-- </b></div><b>Tyler Romeo</b><div>Stevens Institute of Technology, Class of 2016</div><div>Major in Computer Science</div><div><a href="http://www.whizkidztech.com/" target="_blank">www.whizkidztech.com</a> | <a href="mailto:tylerromeo@gmail.com" target="_blank">tylerromeo@gmail.com</a>
</div></div></div>
<br><br><div class="gmail_quote">On Thu, Jun 13, 2013 at 2:09 AM, Paul Tarjan <span dir="ltr"><<a href="mailto:pt@fb.com" target="_blank">pt@fb.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

I've started an import of the database dump. I had to move the db from<br>
/var/lib/mysql to /home/mysql since we only have 10 gigs of storage on /.<br>
The import seems like it will take 3.5 days at 112 pages per second with<br>
30M pages, if it stays steady.<br>
<br>
Here is the command I'm running:<br>
<br>
bzcat ~/dump/enwiki-20130503-pages-articles.xml.bz2 | perl ~/bin/mwimport<br>
| mysql -f -u<user> -p<pass> --default-character-set=utf8 my_wiki<br>
<br>
<br>
_______________________________________________<br>
HipHop mailing list<br>
<a href="mailto:HipHop@lists.wikimedia.org">HipHop@lists.wikimedia.org</a><br>
<a href="https://lists.wikimedia.org/mailman/listinfo/hiphop" target="_blank">https://lists.wikimedia.org/mailman/listinfo/hiphop</a><br>
</blockquote></div><br></div>