chiark / gitweb /
routesearch: concurrency limit
[ypp-sc-tools.db-live.git] / yarrg / web / query_routesearch
index b9b734806968750d406d0f52eb4a5735e3ecbc1b..8937f285e9f9c77e6f3a77585b5471b6bd3de44e 100644 (file)
@@ -54,6 +54,7 @@ my @islandids;
 
 my $maxmaxdist=35;
 my $maxcpu=90;
+my $concur_lim=5;
 
 my $qa= \%ARGS;
 my $routeparams= { EmsgRef => \$emsg, SayRequiredCapacity => 1 };
@@ -125,7 +126,8 @@ my $isleinfo = sub {
 
 #---------- compute the results ----------
 
-my @rsargs= qw(-DN);
+my @rsargs= ($concur_lim, '-DN');
+my $concur_fail;
 
 foreach my $k (qw(MaxMass MaxVolume MaxCapital)) {
        my $v= $routeparams->{$k};
@@ -144,8 +146,13 @@ if ($qa->{'debug'}) {
 <%perl>
 }
 
-unshift @rsargs, sourcebasedir().'/yarrg/routesearch',
-       '-d', dbw_filename($qa->{'Ocean'});
+unshift @rsargs,
+       sourcebasedir().'/yarrg/routesearch',
+       '-d', dbw_filename($qa->{'Ocean'}),
+       '-C', webdatadir().'/_concur.', '.lock';
+
+# touch _concur.0{0,1,2,3,4}.lock
+# really chgrp www-data _concur.0?.lock
 
 my %results; # $results{$ap}{"5 6 9 10"} = { stuff }
 
@@ -166,7 +173,12 @@ while (<$fh>) {
 <% $_ |h %>
 <%perl>
        }
-       next unless m/^ \@ *\d+ ([ap])\# *\d+ \|.*\| *(\d+)lg *\| *\d+ +(\d+) +(\d+) *\| ([0-9 ]+)$/;
+       next unless m/^\s*\@/;
+       if (m/^\@\@\@ concurrency limit exceeded/) {
+               $concur_fail= 1;
+               last;
+       }
+       die unless m/^ \@ *\d+ ([ap])\# *\d+ \|.*\| *(\d+)lg *\| *\d+ +(\d+) +(\d+) *\| ([0-9 ]+)$/;
        my ($ap,$isles) = (uc $1,$5);
        next if $results{$ap} && %{$results{$ap}} >= $maxcountea;
        my $item= { A => $3, P => $4, Leagues => $2 };
@@ -192,12 +204,36 @@ if ($qa->{'debug'}) {
        print "</pre>\n";
 }
 
+if ($concur_fail) {
+</%perl>
+<h2>Server too busy</h2>
+
+Sorry, but there are already <% $concur_lim |h %> route searches
+running.  We limit the number which can run at once to avoid
+overloading the server system and to make sure that the rest of the
+YARRG website still runs quickly.
+<p>
+
+If you submitted several searches and gave up on them (eg by hitting
+`back' or `stop' in your browser), be aware that that doesn't
+generally stop the search process at the server end.  So it's best to
+avoid asking for large searches that you're not sure about.
+
+<p>
+Otherwise, please try later.  Searches are limited to <% $maxcpu |h %>
+seconds of CPU time so more processing resources should be available soon.
+
+<%perl>
+       return;
+}
+
 </%perl>
 % foreach my $ap (qw(A P)) {
 <h2>ap=<% $ap %></h2>
 <table rules=groups>
 <colgroup span=2>
 <colgroup span=1>
+<colgroup span=1>
 <colgroup span=3>
 <tbody>
 <tr>