<div dir="ltr"><div>Can you clarify your goals a bit more? What do you want to know?</div><div><br></div><div>If your goal is to measure cross team perception at a given point in time, a survey would work. However this is just a static report. It won't necessarily tell you how teams should interact with each other. </div><div><br></div><div>If you are looking to develop a healthy working relationship, a focused retrospective might be better. If your retrospectives has a very clear goal like, "How do we all get better at releasing stable code" you get really clear next steps that everyone is bought into.</div><div><br></div><div> </div><div><br></div><div><br></div><div><div><br></div></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Aug 10, 2015 at 3:45 PM, Joel Aufrecht <span dir="ltr"><<a href="mailto:jaufrecht@wikimedia.org" target="_blank">jaufrecht@wikimedia.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><font size="2">Hi,<br><br>Review of the VisualEditor team process uncovered some challenges, including <a href="http://goog_28420014" target="_blank"><br></a><font color="#888888"><a href="https://www.mediawiki.org/wiki/VisualEditor/2015_Process_Review#.281.29_Consulting_stakeholders_have_difficulty_engaging_with_VE.E2.80.99s_development." target="_blank">Consulting stakeholders have difficulty engaging with VE’s development</a><br></font></font></div><span style="color:rgb(0,0,0)">The team is experimenting with addressing this via "<a href="https://www.mediawiki.org/wiki/VisualEditor/2015_Process_Review#Recommendation:_Negotiate_Service_Level_Understandings_between_stakeholders.2C_use_this_discussion_to_uncover_conflicting_commitments.2C_and_facilitate_trade-off_decisions." target="_blank">Service Level Understanding discussions</a>.  <br><br>My question is, how can we measure what affect these discussions have?  Arthur suggested a survey.  I would welcome any input into how best to measure this, whether through a survey or other means.  Also, how would we isolate any changes due to the intervention, compared to changes due to the observation effect or to other factors?  I'm not looking for strong statistical validity, just some indication worth the cost of measurement.  If it's a survey, I could put together something but if there are Foundation people with professional experience in evaluation I would certainly love to get a bit of help from you or anyone you can suggest.<br><br></span></div><div><span style="color:rgb(0,0,0)">Thanks,<b><br></b></span><br><div><div><div><div dir="ltr"><div><div dir="ltr"><font color="#888888"><div><b>Joel Aufrecht<br></b></div><div>Team Practices Group<b><br></b></div><div>Wikimedia Foundation<br></div></font></div></div></div></div></div>
</div></div></div></div>
<br>_______________________________________________<br>
teampractices mailing list<br>
<a href="mailto:teampractices@lists.wikimedia.org">teampractices@lists.wikimedia.org</a><br>
<a href="https://lists.wikimedia.org/mailman/listinfo/teampractices" rel="noreferrer" target="_blank">https://lists.wikimedia.org/mailman/listinfo/teampractices</a><br>
<br></blockquote></div><br></div>