<div dir="ltr">One thing that could be done is to keep a hash or version number on the server of the current combination of repos that are responsible for puppet runs. Whenever one of them changes, the version changes too. The clients can check in with the server to see if they've already run the version on the server. If not, just don't do a run. That would likely cut back on the vast majority of all runs.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Nov 1, 2014 at 11:01 AM, Marc A. Pelletier <span dir="ltr"><<a href="mailto:marc@uberbox.org" target="_blank">marc@uberbox.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 10/31/2014 01:04 PM, Andrew Bogott wrote:<br>
> delays in the client run shouldn't really make a difference to anyone<br>
> who isn't actively debugging puppet and running things over and over by hand<br>
<br>
</span>No, but a quick look at every graph of every instance shows significant<br>
spikes in resource usage every 20 minutes on the dot; it may not be<br>
currently harmful or problematic, but it's certainly a waste.<br>
<span class="HOEnZb"><font color="#888888"><br>
-- Marc<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
_______________________________________________<br>
Labs-l mailing list<br>
<a href="mailto:Labs-l@lists.wikimedia.org">Labs-l@lists.wikimedia.org</a><br>
<a href="https://lists.wikimedia.org/mailman/listinfo/labs-l" target="_blank">https://lists.wikimedia.org/mailman/listinfo/labs-l</a><br>
</div></div></blockquote></div><br></div>