<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=ISO-8859-1" http-equiv="Content-Type">
  <title></title>
</head>
<body bgcolor="#ffffff" text="#000000">
Michael Dale wrote:
<blockquote cite="mid:49A42F56.3030006@wikimedia.org" type="cite">
  <pre wrap="">*snip*
  </pre>
  <blockquote type="cite">
    <pre wrap="">Yes, it's been filed before and WONTFIXed because parsing dozens or 
hundreds of pages in one request is kind of scary performance-wise
    </pre>
  </blockquote>
  <pre wrap=""><!---->
but clearly it would be more resource efficient than issuing 30 separate 
additional requests... maybe we could enable it with a low row return 
count say 30 ? It should be able to grab the output from the parse cache 
no?

With my use case of returning search result descriptions...it does not 
really need html it just needs striped wikitext or even a striped 
segment of wikitext.

So here are a few possible ways forward:

* I can switch on 30 extra requests if we need to highlight the problem....
* I could try and use one of the javascript wikitext -&gt; html converters
* Maybe we could support the output striped wikitext (really what we 
want for search results) ...

It appears Lucene and the internal mysql store the index in striped form 
if we could add access to that from the api that would be ideal way 
forward I think.

--michael

  </pre>
</blockquote>
As you only want to display a small amount of text from each page you
could get just the text you need from each page and send them all
together with some sort of separator to<br>
<a class="moz-txt-link-freetext" href="http://en.wikipedia.org/w/api.php?action=parse&format=xml&text=This">http://en.wikipedia.org/w/api.php?action=parse&amp;format=xml&amp;text=This</a>
is some [[text]] to parse<br>
Of course this turns "[[text]]" into an html anchor tag and expands
templates. If this is not what you want, stripping the text yourself
would probably be the best.<br>
<br>
Ben aka Humbug<br>
</body>
</html>