]> matita.cs.unibo.it Git - helm.git/blobdiff - helm/http_getter/http_getter.pl.in
tmpdir ==> tmp_dir, minor fixes waiting for the stable version
[helm.git] / helm / http_getter / http_getter.pl.in
index b1ec80aeb972c3a0dc7941f8da67a2b0574deb68..85ed00a55e684786b2bb85a92788b3a83d9eccb4 100755 (executable)
@@ -23,6 +23,8 @@
 # For details, see the HELM World-Wide-Web page,
 # http://cs.unibo.it/helm/.
 
+my $VERSION = "@VERSION@";
+
 # First of all, let's load HELM configuration
 use Env;
 my $HELM_LIB_DIR = $ENV{"HELM_LIB_DIR"};
@@ -34,10 +36,6 @@ if (defined ($HELM_LIB_DIR)) {
    $HELM_LIB_PATH = $DEFAULT_HELM_LIB_DIR."/configuration.pl";
 }
 
-# Let's override the configuration file
-$styles_dir = $ENV{"HELM_STYLE_DIR"} if (defined ($ENV{"HELM_STYLE_DIR"}));
-$dtd_dir = $ENV{"HELM_DTD_DIR"} if (defined ($ENV{"HELM_DTD_DIR"}));
-
 # <ZACK>: TODO temporary, move this setting to configuration file
 # set the cache mode, may be "gzipped" or "normal"
 my $cachemode = $ENV{'HTTP_GETTER_CACHE_MODE'} || 'gzipped';
@@ -50,6 +48,10 @@ if (($cachemode ne 'gzipped') and ($cachemode ne 'normal')) {
 # next require defines: $helm_dir, $html_link, $dtd_dir, $uris_dbm
 require $HELM_LIB_PATH;
 
+# Let's override the configuration file
+$style_dir = $ENV{"HELM_STYLE_DIR"} if (defined ($ENV{"HELM_STYLE_DIR"}));
+$dtd_dir = $ENV{"HELM_DTD_DIR"} if (defined ($ENV{"HELM_DTD_DIR"}));
+
 use HTTP::Daemon;
 use HTTP::Status;
 use HTTP::Request;
@@ -62,9 +64,20 @@ use Compress::Zlib;
 #CSC: altra roba da sistemare segnata con CSC
 
 my $d = new HTTP::Daemon LocalPort => 8081;
+my $myownurl = $d->url;
+
+# Let's patch the returned URL
+$myownurl =~ s/\/$//; # chop the final slash
+my $myownport = $myownurl;
+$myownport =~ s/http:\/\/(.*):(.*)/$2/;
+$myownurl  =~ s/http:\/\/(.*):(.*)/$1/;
+($myownurl) = gethostbyname($myownurl);
+$myownurl = "http://".$myownurl.":".$myownport;
+
 tie(%map, 'DB_File', $uris_dbm.".db", O_RDONLY, 0664);
-print "Please contact me at: <URL:", $d->url, ">\n";
+print "Please contact me at: <URL:", $myownurl."/", ">\n";
 print "helm_dir: $helm_dir\n";
+print "style_dir: $style_dir\n";
 print "dtd_dir: $dtd_dir\n";
 print "urls_of_uris.db: $uris_dbm.db\n";
 print "cache mode: $cachemode\n";
@@ -220,21 +233,47 @@ EOT
                print "Using local copy\n";
                open(FD, $filename) or die "Cannot open $filename\n";
                $cont = "";
-               while(<FD>) { $cont .= $_; }
+               while(<FD>) {
+                # Vary bad heuristic for substituion of absolute URLs
+                # for relative ones
+               s/ENTITY (.*) SYSTEM\s+"/ENTITY $1 SYSTEM "$myownurl\/getdtd?uri=/g;
+               $cont .= $_;
+              }
                close(FD);
                answer($c,$cont);
             } else {
                die "Could not find DTD!";
             }
-         } elsif ($http_method eq 'GET' and $http_path eq "/getxslt") {
+        } elsif ($http_method eq 'GET' and $http_path eq "/getstyleconf") {
             my $filename = $inputuri;
-            $filename = $styles_dir."/".$filename;
+            $filename = $style_dir."/config/".$filename;
+            if (stat($filename)) {
+               open(FD, $filename) or die "Cannot open $filename\n";
+               $cont = "";
+               while(<FD>) {
+               s/DOCTYPE (.*) SYSTEM\s+"/DOCTYPE $1 SYSTEM "$myownurl\/getstyleconf?uri=/g;
+               $cont .= $_;
+              }
+               close(FD);
+               answer($c,$cont);
+            } else {
+               die "Could not find Style Configuration File!";
+            }
+        } elsif ($http_method eq 'GET' and $http_path eq "/getxslt") {
+            my $filename = $inputuri;
+            $filename = $style_dir."/".$filename;
             print "XSLT: $inputuri ==> ($filename)\n";
             if (stat($filename)) {
                print "Using local copy\n";
                open(FD, $filename) or die "Cannot open $filename\n";
                $cont = "";
-               while(<FD>) { $cont .= $_; }
+               while(<FD>) {
+                # Vary bad heuristic for substituion of absolute URLs
+                # for relative ones
+                s/xsl:import\s+href="/xsl:import href="$myownurl\/getxslt?uri=/g ;
+                s/xsl:include\s+href="/xsl:include href="$myownurl\/getxslt?uri=/g ;
+                $cont .= $_;
+               }
                close(FD);
                answer($c,$cont);
             } else {
@@ -251,11 +290,14 @@ EOT
            $cont = "<?xml version=\"1.0\"?><html_link>$quoted_html_link</html_link>";
             answer($c,$cont);
         } elsif ($http_method eq 'GET' and $http_path eq "/update") {
-           print "Update requested...";
-           update();
-           kill(USR1,getppid());
+           print "Update requested...\n";
+           mk_urls_of_uris();
+           kill(USR1,getppid()); # signal changes to parent
            print " done\n";
            answer($c,"<html><body><h1>Update done</h1></body></html>");
+       } elsif ($http_method eq 'GET' and $http_path eq "/version") {
+          print "Version requested!";
+           answer($c,"<html><body><h1>HTTP Getter Version ".$VERSION."</h1></body></html>");
         } else {
             print "\nINVALID REQUEST!!!!!\n";
             $c->send_error(RC_FORBIDDEN)
@@ -422,7 +464,75 @@ sub answer
  $c->send_response($res);
 }
 
+sub helm_wget {
+#ported from helm_wget executable, TODO: rewrite without wget.
+#retrieve a file from an url and write it to a temp dir
+#used for retrieve resource indexe from servers
+ my ($prefix, $URL) = @_;
+ if ($URL =~ /^file:\//) {
+  $URL =~ s/^file:\///;
+  my $command = "mkdir -p $prefix ; cp $URL $prefix";
+  print "$command\n";
+  system($command) == 0
+   or die "\"$command\" error";
+ } else {
+  my $command = "wget -c -P $prefix $URL";
+  system($command) == 0
+   or die "\"$command\" error";
+ }
+}
+
 sub update {
  untie %map;
  tie(%map, 'DB_File', $uris_dbm.".db", O_RDONLY, 0664);
 }
+
+sub mk_urls_of_uris {
+#rebuild $uris_dbm.db fetching resource indexes from servers
+ my (
+  $server, $idxfile, $uri, $url, $comp, $line,
+  @servers,
+  %urls_of_uris
+ );
+
+ untie %map;
+ if (stat $uris_dbm.".db") { # remove old db file
+  unlink($uris_dbm.".db") or
+   die "cannot unlink old db file: $uris_dbm.db\n";
+ }
+ tie(%urls_of_uris, 'DB_File', $uris_dbm.".db", O_RDWR|O_CREAT, 0664);
+
+ open (SRVS, "< $servers_file") or
+  die "cannot open servers file: $servers_file\n";
+ @servers = <SRVS>;
+ close (SRVS);
+ while ($server = pop @servers) { #cicle on servers in reverse order
+  print "processing server: $server ...\n";
+  chomp $server;
+  $debugserver = "http://dalamar.krynn.it/helm"; # FOR DEBUG ONLY: REMOVE ME !!
+  helm_wget($tmp_dir, $server."/".$indexname); #get index
+  $idxfile = $tmp_dir."/".$indexname;
+  open (INDEX, "< $idxfile") or
+   die "cannot open temporary index file: $idxfile\n";
+  while ($line = <INDEX>) { #parse index and add entry to urls_of_uris
+   chomp $line;
+   ($uri,$comp) = split /[ \t]+/, $line;
+             # build url:
+   if ($comp =~ /gz/) { 
+    $url = $uri . ".xml" . ".gz";
+   } else {
+    $url = $uri . ".xml";
+   }
+   $url =~ s/cic:/$server/;
+   $url =~ s/theory:/$server/;
+   $urls_of_uris{$uri} = $url;
+  }
+  close INDEX;
+  die "cannot unlink temporary file: $idxfile\n"
+   if (unlink $idxfile) != 1;
+ }
+
+ untie(%urls_of_uris);
+ tie(%map, 'DB_File', $uris_dbm.".db", O_RDONLY, 0664);
+}
+