<div dir="ltr"><div><div>There is an initiative within the WMF to figure out how much time/effort teams spend on "new functionality" vs. "maintenance". As a pilot project, I have been tracking that in our Discovery Cirrus project[1] for a couple months. <br><br></div>As shown on this graph[2], we have been spending somewhere between 25% and 50% of our time on "maintenance". Note that this should not be considered at all scientific. For starters, there are several glaring issues with this graph: <br><ul><li>Because we are not doing point estimation, this graph is based on task counts, not actual effort. <br></li><li>Data around Oct 1 is missing/funky due to the offsite. <br></li><li>The bars are pure percentages, so 50% of 2 tasks completed would look the same as 50% of 40 tasks completed. That 100% bar, in particular, is misleading because I believe it is based on a single task being resolved that week.<br></li><li>The counts are based on my snap decision for each task, 
whether to add the #worktype-new-functionality or the 
#worktype-maintenance tag. <br></li></ul>Still, it's a higher fraction than I would have guessed.<br><br></div><div>Is it worth my time (or someone else's) to continue to track this data? <br></div><div><br></div><div><div><br>[1] <a href="https://phabricator.wikimedia.org/tag/search-and-discovery-cirrus-sprint/">https://phabricator.wikimedia.org/tag/search-and-discovery-cirrus-sprint/</a><br>[2] <a href="http://phlogiston.wmflabs.org/discir_maint_count_frac.png">http://phlogiston.wmflabs.org/discir_maint_count_frac.png</a><br><br clear="all"><div><div><div class="gmail_signature"><div><div><div><div><div><div><div><span><font color="#888888">Kevin Smith<br>Agile Coach, Wikimedia Foundation<br></font></span><font><font><i><font color="#888888"><br></font></i></font></font></div></div></div></div></div></div></div></div></div>
</div></div></div></div>