Dear Daniel, <br><br>I believe you are saying that:<br><ol><li>The trust coloring rightly colored orange (low-trust) some unreliable content, <br></li><li>and the Wikipedia people were quick in reverting it. <br></li></ol>
Right? <br><br>About 1, I am delighted our methods worked in this case.&nbsp; Note that we also highlight as low trust text that is by anonymous contributors.&nbsp; The text will then gain trust as it is revised.&nbsp; Also, we color the whole article history, so if you want to see how things evolve, you can look at that. 
<br><br>About 2, I am very glad that bad edits are quickly reverted; this is the whole reason Wikipedia has worked up to now. <br>Still, it might be easier for editors to find content to check via the coloring, rather than by staring at diffs.&nbsp; 
<br>Other uses, as you point out, are: <br><ul><li>Burning the content on DVDs / Flash memory (wikisticks?)<br></li><li>Making feeds of high-quality revisions for elementary schools, etc</li><li>Generally giving readers (who unlike editors do not do diffs) that warm fuzzy feeling that &quot;the text has been around awhile&quot; (can this help answer those critics who mumble that the wikipedia is &quot;unreliable&quot;?)
<br></li><li>Finding when flagged revisions are out of date (there may be a new high-trust version later)</li></ul>BTW, as the method is language-independent, we look forward to doing the same for wikipedias in other languages. 
<br><br>Luca<br><br><br><div class="gmail_quote">On Dec 19, 2007 3:32 PM, Daniel Arnold &lt;<a href="mailto:arnomane@gmx.de">arnomane@gmx.de</a>&gt; wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Am Mittwoch, 19. Dezember 2007 22:36:37 schrieb Luca de Alfaro:<br><div class="Ih2E3d">&gt; we have a demo at <a href="http://wiki-trust.cse.ucsc.edu/" target="_blank">http://wiki-trust.cse.ucsc.edu/</a> that features the whole
<br>&gt; English Wikipedia, as of its February 6, 2007 snapshot, colored according<br>&gt; to text trust.<br><br></div>I looked at the demo at <a href="http://wiki-trust.cse.ucsc.edu:80/index.php/Moon" target="_blank">http://wiki-trust.cse.ucsc.edu:80/index.php/Moon
</a>. Most<br>remarkably in this example is a whole section with a private original<br>research theory on &quot;Binary planet systems&quot;. So sadly (or luckily? ;-) the<br>latest version in your snapshot contains a bad edit; compare it also to the
<br>relevant edit in Wikipedia:<br><a href="http://en.wikipedia.org/w/index.php?title=Moon&amp;diff=prev&amp;oldid=107099473" target="_blank">http://en.wikipedia.org/w/index.php?title=Moon&amp;diff=prev&amp;oldid=107099473
</a><br><br>So your algorithm highlighted the wrong content. The problematic part is a bad<br>summary of an older origin of moon theory which is beeing described here<br>overly simplified with some ad-hoc-erisms and thus is made even more wrong by
<br>the author of these lines (OT: I probably know the author of these lines from<br>de.wikipedia: he tried to post this and other private theories in several<br>astronomy articles).<br><br>Ok. How did Wikipedia work out in that case? It took a little more than an
<br>hour to revert this. So Wikipedia was able to resolve this problem with the<br>current tools rather quickly. :-)<br><br>This doesn&#39;t mean we don&#39;t need your stuff. Quite the contrary. I come to some<br>very promising and interesting (and maybe non-obvious) use cases:
<br><br>1) The (German) Wikipedia DVD.<br>The basis of the Wikipedia DVD is a database dump. The first Wikipedia CD and<br>DVD contained an &quot;as is&quot; snapshot transformed to the Digibib reader format of<br>Directmedia Publishing GmbH
<br>(<a href="http://en.wikipedia.org/wiki/Directmedia_Publishing" target="_blank">http://en.wikipedia.org/wiki/Directmedia_Publishing</a>). However these<br>snapshots had the above problem with short lived nonsense content that
<br>happened to be in the snapshot. For the DVD&#39;s up to now different trust<br>metrices were used in order to find the &quot;latest acceptable article version&quot;<br>out of a given snapshot. One metric was the &quot;latest version of a trusted
<br>user&quot;. The current DVD from November 2007 uses a &quot;user karma system&quot; in order<br>to find the latest acceptable version (see<br><a href="http://en.wikipedia.org/wiki/Directmedia_Publishing" target="_blank">
http://en.wikipedia.org/wiki/Directmedia_Publishing</a> if you can read German,<br>however the karma system doesn&#39;t get described there). So I think<br>that &quot;offline Wikipedias&quot; such as the Wikipedia DVD and Wikipedia read only
<br>mirrors would benefit a lot from your effort in order to know which most<br>recent version of a given article is the one they should provide to their<br>readers.<br><br>2) A combination with the reviewed article version.
<br>Several people pointed out that they fear the reviewed article version need a<br>lot of checks depending on configuration mode if latest flagged or current<br>version is shown by default. Furthermore there are different opinions which
<br>one of both modes is the best.<br>How about this third &quot;middle ground&quot; mode: If the karma of a given article<br>(according to your algorithm) version falls below a certain karma threshold,<br>the latest version above this theshold is shown by default to anon readers if
<br>there is no newer version flagged as reviewed.<br>That way anon people usually see the most recent article version and we always<br>can overrule the alorithm which is a good thing (TM) as you never should<br>blindly trust algorithms (you know otherwise people will try to trick the
<br>algorithm, see Google PageRank).<br><br>The drop below a certain karma threshold could be highlighted via a simple<br>automatically added &quot;veto&quot; flag, which can be undone by people that can set<br>quality flags.
<br><br>That way we would have three flags (in my favourite system): &quot;veto&quot;, &quot;sighted&quot;<br>and &quot;reviewed&quot;. The veto flags makes only little sense for manual application<br>cause a human can and should (!) do a revert but it would be very useful for
<br>automatic things (automatic reverts are evil).<br><br>Cheers,<br>Arnomane<br></blockquote></div><br>