]> matita.cs.unibo.it Git - helm.git/blobdiff - helm/ocaml/getter/http_getter.ml
ocaml 3.09 transition
[helm.git] / helm / ocaml / getter / http_getter.ml
index a4bbb1172b6ad84c454298b2f48ae9d28376eaa1..191117a20e38c182d3af6a43824cf8c27af198af 100644 (file)
@@ -1,29 +1,26 @@
-(*
- * Copyright (C) 2003-2004:
- *    Stefano Zacchiroli <zack@cs.unibo.it>
- *    for the HELM Team http://helm.cs.unibo.it/
+(* Copyright (C) 2005, HELM Team.
+ * 
+ * This file is part of HELM, an Hypertextual, Electronic
+ * Library of Mathematics, developed at the Computer Science
+ * Department, University of Bologna, Italy.
+ * 
+ * HELM is free software; you can redistribute it and/or
+ * modify it under the terms of the GNU General Public License
+ * as published by the Free Software Foundation; either version 2
+ * of the License, or (at your option) any later version.
+ * 
+ * HELM is distributed in the hope that it will be useful,
+ * but WITHOUT ANY WARRANTY; without even the implied warranty of
+ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+ * GNU General Public License for more details.
  *
- *  This file is part of HELM, an Hypertextual, Electronic
- *  Library of Mathematics, developed at the Computer Science
- *  Department, University of Bologna, Italy.
- *
- *  HELM is free software; you can redistribute it and/or
- *  modify it under the terms of the GNU General Public License
- *  as published by the Free Software Foundation; either version 2
- *  of the License, or (at your option) any later version.
- *
- *  HELM is distributed in the hope that it will be useful,
- *  but WITHOUT ANY WARRANTY; without even the implied warranty of
- *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
- *  GNU General Public License for more details.
- *
- *  You should have received a copy of the GNU General Public License
- *  along with HELM; if not, write to the Free Software
- *  Foundation, Inc., 59 Temple Place - Suite 330, Boston,
- *  MA  02111-1307, USA.
- *
- *  For details, see the HELM World-Wide-Web page,
- *  http://helm.cs.unibo.it/
+ * You should have received a copy of the GNU General Public License
+ * along with HELM; if not, write to the Free Software
+ * Foundation, Inc., 59 Temple Place - Suite 330, Boston,
+ * MA  02111-1307, USA.
+ * 
+ * For details, see the HELM World-Wide-Web page,
+ * http://helm.cs.unibo.it/
  *)
 
 open Printf
@@ -51,201 +48,48 @@ let index_sep_RE          = Pcre.regexp "\r\n|\r|\n"
 let trailing_types_RE     = Pcre.regexp "\\.types$"
 let heading_cic_RE        = Pcre.regexp "^cic:"
 let heading_theory_RE     = Pcre.regexp "^theory:"
-let heading_nuprl_RE,     = Pcre.regexp "^nuprl:"
-let heading_rdf_cic_RE    = Pcre.regexp "^helm:rdf.*//cic:"
-let heading_rdf_theory_RE = Pcre.regexp "^helm:rdf.*//theory:"
+let heading_nuprl_RE      = Pcre.regexp "^nuprl:"
+let types_RE              = Pcre.regexp "\\.types$"
+let types_ann_RE          = Pcre.regexp "\\.types\\.ann$"
+let body_RE               = Pcre.regexp "\\.body$"
+let body_ann_RE           = Pcre.regexp "\\.body\\.ann$"
+let proof_tree_RE         = Pcre.regexp "\\.proof_tree$"
+let proof_tree_ann_RE     = Pcre.regexp "\\.proof_tree\\.ann$"
+let theory_RE             = Pcre.regexp "\\.theory$"
+let basepart_RE           = Pcre.regexp
+  "^([^.]*\\.[^.]*)((\\.body)|(\\.proof_tree)|(\\.types))?(\\.ann)?$"
+let slash_RE              = Pcre.regexp "/"
+let pipe_RE               = Pcre.regexp "\\|"
+let til_slash_RE          = Pcre.regexp "^.*/"
+let no_slashes_RE         = Pcre.regexp "^[^/]*$"
+let fix_regexp_RE         = Pcre.regexp ("^" ^ (Pcre.quote "(cic|theory)"))
+let showable_file_RE      =
+  Pcre.regexp "(\\.con|\\.ind|\\.var|\\.body|\\.types|\\.proof_tree)$"
+
+let xml_suffix = ".xml"
+let theory_suffix = ".theory"
 
   (* global maps, shared by all threads *)
 
-let cic_map =
-  lazy (new Http_getter_map.map (Lazy.force Http_getter_env.cic_dbm))
-let nuprl_map =
-  lazy (new Http_getter_map.map (Lazy.force Http_getter_env.nuprl_dbm))
-let rdf_map =
-  lazy (new Http_getter_map.map (Lazy.force Http_getter_env.rdf_dbm))
-let xsl_map =
-  lazy (new Http_getter_map.map (Lazy.force Http_getter_env.xsl_dbm))
-
-let uri_tree = ref None
-let deref_if_some r = 
-  match !r with
-  | None -> assert false 
-  | Some x -> x
-let is_prefetch_on () =
-  match !uri_tree with None -> false | Some _ -> true
-  
-let dump_tree () =
-  let path = Lazy.force Http_getter_env.dump_file in
-  Tree.save_to_disk path (deref_if_some uri_tree);
-  Http_getter_md5.create_hash [
-      (Lazy.force Http_getter_env.cic_dbm_real);
-      path ] 
-  
-let load_tree () = 
-  if not (Http_getter_md5.check_hash ()) then
-    assert false
-  else
-    uri_tree := Some (Tree.load_from_disk 
-      (Lazy.force Http_getter_env.dump_file))
-
-let sync_with_map () =    
-  if not (Http_getter_md5.check_hash ()) then begin
-    let tree = ref (Some Tree.empty_tree) in
-    Http_getter_logger.log "Updating cic map dump...";
-    let t = Unix.time () in
-    (Lazy.force cic_map)#iter
-      (fun k _ ->
-        tree := Some (Tree.add_uri k (deref_if_some tree)));
-    uri_tree := !tree;
-    Http_getter_logger.log
-      (sprintf "done in %.0f sec" (Unix.time () -. t));
-      dump_tree ()
-  end else begin
-    Http_getter_logger.log "Cic map dump is up to date!";
-    load_tree ()  (* XXX TASSI: race condition here *)
-  end
-  
-let maps = [ cic_map; nuprl_map; rdf_map; xsl_map ]
-let close_maps () = List.iter (fun m -> (Lazy.force m) # close) maps
-let clear_maps () = List.iter (fun m -> (Lazy.force m) # clear) maps
-let sync_maps  () = 
-  List.iter (fun m -> (Lazy.force m) # sync) maps;
-  sync_with_map ()
-
-let map_of_uri = function
-  | uri when is_cic_uri uri -> Lazy.force cic_map
-  | uri when is_nuprl_uri uri -> Lazy.force nuprl_map
-  | uri when is_rdf_uri uri -> Lazy.force rdf_map
-  | uri when is_xsl_uri uri -> Lazy.force xsl_map
-  | uri -> raise (Unresolvable_URI uri)
-
-let update_from_server logger server_url = (* use global maps *)
-  Http_getter_logger.log ("Updating information from " ^ server_url);
-  let xml_url_of_uri = function
-      (* TODO missing sanity checks on server_url, e.g. it can contains $1 *)
-    | uri when (Pcre.pmatch ~rex:heading_cic_RE uri) ->
-        Pcre.replace ~rex:heading_cic_RE ~templ:server_url uri
-    | uri when (Pcre.pmatch ~rex:heading_theory_RE uri) ->
-        Pcre.replace ~rex:heading_theory_RE ~templ:server_url uri
-    | uri when (Pcre.pmatch ~rex:heading_nuprl_RE uri) ->
-        Pcre.replace ~rex:heading_nuprl_RE ~templ:server_url uri
-    | uri -> raise (Invalid_URI uri)
-  in
-  let rdf_url_of_uri = function (* TODO as above *)
-    | uri when (Pcre.pmatch ~rex:heading_rdf_cic_RE uri) ->
-        Pcre.replace ~rex:heading_rdf_cic_RE ~templ:server_url uri
-    | uri when (Pcre.pmatch ~rex:heading_rdf_theory_RE uri) ->
-        Pcre.replace ~rex:heading_rdf_theory_RE ~templ:server_url uri
-    | uri -> raise (Invalid_URI uri)
-  in
-  logger (`T ("Processing server: " ^ server_url));
-  logger `BR;
-  let (xml_index, rdf_index, xsl_index) =
-    (* TODO keeps index in memory, is better to keep them on temp files? *)
-    (http_get (server_url ^ "/" ^ (Lazy.force Http_getter_env.xml_index)),
-     http_get (server_url ^ "/" ^ (Lazy.force Http_getter_env.rdf_index)),
-     http_get (server_url ^ "/" ^ (Lazy.force Http_getter_env.xsl_index)))
-  in
-  if (xml_index = None && rdf_index = None && xsl_index = None) then
-    Http_getter_logger.log (sprintf "Warning: useless server %s" server_url);
-  (match xml_index with
-  | Some xml_index ->
-      logger (`T "- Updating XML db ...");
-(*       logger `BR; *)
-      List.iter
-        (function
-          | l when is_blank_line l -> ()  (* skip blank and commented lines *)
-          | l ->
-              (try
-                (match Pcre.split ~rex:index_line_sep_RE l with
-                | [uri; "gz"] ->
-                   assert (is_cic_uri uri || is_nuprl_uri uri) ;
-                   (map_of_uri uri)#replace
-                    uri ((xml_url_of_uri uri) ^ ".xml.gz")
-                | [uri] ->
-                   assert (is_cic_uri uri || is_nuprl_uri uri) ;
-                   (map_of_uri uri)#replace
-                    uri ((xml_url_of_uri uri) ^ ".xml")
-                | _ ->
-                    logger (`T ("Ignoring invalid line: '" ^ l));
-                    logger `BR)
-              with Invalid_URI uri ->
-                logger (`T ("Ignoring invalid XML URI: '" ^ l));
-                logger `BR))
-        (Pcre.split ~rex:index_sep_RE xml_index); (* xml_index lines *)
-      logger (`T "All done");
-      logger `BR
-  | None -> ());
-  (match rdf_index with
-  | Some rdf_index ->
-      logger (`T "- Updating RDF db ...");
-(*       logger `BR; *)
-      List.iter
-        (fun l ->
-          try
-            (match Pcre.split ~rex:index_line_sep_RE l with
-            | [uri; "gz"] ->
-                (Lazy.force rdf_map) # replace uri
-                  ((rdf_url_of_uri uri) ^ ".xml.gz")
-            | [uri] ->
-                (Lazy.force rdf_map) # replace uri
-                  ((rdf_url_of_uri uri) ^ ".xml")
-            | _ ->
-                logger (`T ("Ignoring invalid line: '" ^ l));
-                logger `BR)
-          with Invalid_URI uri ->
-            logger (`T ("Ignoring invalid RDF URI: '" ^ l));
-            logger `BR)
-        (Pcre.split ~rex:index_sep_RE rdf_index); (* rdf_index lines *)
-      logger (`T "All done");
-      logger `BR
-  | None -> ());
-  (match xsl_index with
-  | Some xsl_index ->
-      logger (`T "- Updating XSLT db ...");
-(*       logger `BR; *)
-      List.iter
-        (fun l -> (Lazy.force xsl_map) # replace l (server_url ^ "/" ^ l))
-        (Pcre.split ~rex:index_sep_RE xsl_index);
-      logger (`T "All done");
-      logger `BR
-  | None -> ());
-  Http_getter_logger.log "done with this server"
-
-let update_from_all_servers logger () =  (* use global maps *)
-  clear_maps ();
-  List.iter
-    (update_from_server logger)
-      (* reverse order: 1st server is the most important one *)
-    (List.map snd (List.rev (Http_getter_env.servers ())));
-  sync_maps ()
-
-let update_from_one_server ?(logger = fun _ -> ()) server_url =
-  update_from_server logger server_url
-
-let temp_file_of_uri uri =
-  let flat_string s s' c =
-    let cs = String.copy s in
-    for i = 0 to (String.length s) - 1 do
-      if String.contains s' s.[i] then cs.[i] <- c
-    done;
-    cs
-  in
-  let user = try Unix.getlogin () with _ -> "" in
-  Filename.open_temp_file (user ^ flat_string uri ".-=:;!?/&" '_') ""
+let ends_with_slash s =
+  try
+    s.[String.length s - 1] = '/'
+  with Invalid_argument _ -> false
 
   (* should we use a remote getter or not *)
 let remote () =
   try
     Helm_registry.get "getter.mode" = "remote"
   with Helm_registry.Key_not_found _ -> false
+
 let getter_url () = Helm_registry.get "getter.url"
 
 (* Remote interface: getter methods implemented using a remote getter *)
 
   (* <TODO> *)
-let getxslt_remote ~patch_dtd uri = not_implemented "getxslt_remote"
-let getdtd_remote ~patch_dtd uri = not_implemented "getdtd_remote"
+let getxml_remote uri = not_implemented "getxml_remote"
+let getxslt_remote uri = not_implemented "getxslt_remote"
+let getdtd_remote uri = not_implemented "getdtd_remote"
 let clean_cache_remote () = not_implemented "clean_cache_remote"
 let list_servers_remote () = not_implemented "list_servers_remote"
 let add_server_remote ~logger ~position name =
@@ -253,8 +97,8 @@ let add_server_remote ~logger ~position name =
 let remove_server_remote ~logger position =
   not_implemented "remove_server_remote"
 let getalluris_remote () = not_implemented "getalluris_remote"
-let getallrdfuris_remote () = not_implemented "getallrdfuris_remote"
 let ls_remote lsuri = not_implemented "ls_remote"
+let exists_remote uri = not_implemented "exists_remote"
   (* </TODO> *)
 
 let resolve_remote uri =
@@ -285,99 +129,53 @@ let resolve_remote uri =
   | Exception e -> raise e
   | Resolved url -> url
 
-let register_remote ~uri ~url =
-  Http_getter_wget.send
-    (sprintf "%sregister?uri=%s&url=%s" (getter_url ()) uri url)
-
-let unregister_remote uri =
-  Http_getter_wget.send (sprintf "%sunregister?uri=%s" (getter_url ()) uri)
-
-let update_remote logger  () =
-  let answer = Http_getter_wget.get (getter_url () ^ "update") in
-  logger (`T answer);
-  logger `BR
-
-let getxml_remote ~format ~patch_dtd uri =
-  let uri =
-    sprintf "%sgetxml?uri=%s&format=%s&patch_dtd=%s"
-      (getter_url ()) uri
-      (match format with `Normal -> "normal" | `Gzipped -> "gz")
-      (match patch_dtd with true -> "yes" | false -> "no")
-  in
-  Http_getter_wget.get_and_save_to_tmp uri
+let deref_index_theory uri =
+ if Http_getter_storage.exists (uri ^ xml_suffix) then uri
+ else if is_theory_uri uri && Filename.basename uri = "index.theory" then
+    strip_trailing_slash (Filename.dirname uri) ^ theory_suffix
+ else
+    uri
 
 (* API *)
 
 let help () = Http_getter_const.usage_string (Http_getter_env.env_to_string ())
 
-let resolve uri =
+let exists uri =
+(*   prerr_endline ("Http_getter.exists " ^ uri); *)
   if remote () then
-    resolve_remote uri
+    exists_remote uri
   else
-    (map_of_uri uri)#resolve uri
+   let uri = deref_index_theory uri in
+    Http_getter_storage.exists (uri ^ xml_suffix)
        
-let register ~uri ~url =
-  if remote () then
-    register_remote ~uri ~url
-  else
-    begin
-    (map_of_uri uri)#add uri url;
-    if is_prefetch_on () then
-      uri_tree := Some (Tree.add_uri uri (deref_if_some uri_tree))
-    end
-
-let unregister uri =
+let resolve uri =
   if remote () then
-    unregister_remote uri
+    resolve_remote uri
   else
+   let uri = deref_index_theory uri in
     try
-      begin
-      (map_of_uri uri)#remove uri;
-      if is_prefetch_on () then 
-        uri_tree := Some (Tree.remove_uri uri (deref_if_some uri_tree))
-      end
-    with Key_not_found _ -> ()
-
-let update ?(logger = fun _ -> ()) () =
-  if remote () then
-    update_remote logger ()
-  else
-    update_from_all_servers logger ()
+      Http_getter_storage.resolve (uri ^ xml_suffix)
+    with Http_getter_storage.Resource_not_found _ -> raise (Key_not_found uri)
 
-let getxml ?(format = `Gzipped) ?(patch_dtd = false) uri =
-  if remote () then
-    getxml_remote ~format ~patch_dtd uri
+let getxml uri =
+  if remote () then getxml_remote uri
   else begin
-    Http_getter_logger.log ~level:2 ("getxml: " ^ uri);
-    let url = resolve uri in
-    Http_getter_logger.log ~level:2 ("resolved_uri: " ^ url) ;
-    let (fname, outchan) = temp_file_of_uri uri in
-    Http_getter_cache.respond_xml ~via_http:false ~enc:format ~patch:patch_dtd
-      ~uri ~url outchan;
-    close_out outchan;
-    fname
+    let uri' = deref_index_theory uri in
+    (try
+      Http_getter_storage.filename (uri' ^ xml_suffix)
+    with Http_getter_storage.Resource_not_found _ -> raise (Key_not_found uri))
   end
 
-let getxslt ?(patch_dtd = true) uri =
-  if remote () then
-    getxslt_remote ~patch_dtd uri
-  else begin
-    
-    let url = resolve uri in
-    let (fname, outchan) = temp_file_of_uri uri in
-    Http_getter_cache.respond_xsl ~via_http:false ~url ~patch:patch_dtd outchan;
-    close_out outchan;
-    fname
-  end
+let getxslt uri =
+  if remote () then getxslt_remote uri
+  else Http_getter_storage.filename ~find:true ("xslt:/" ^ uri)
 
-let getdtd ?(patch_dtd = true) uri =
+let getdtd uri =
   if remote () then
-    getdtd_remote ~patch_dtd uri
+    getdtd_remote uri
   else begin
-    let url = Lazy.force Http_getter_env.dtd_dir ^ "/" ^ uri in
-    let (fname, outchan) = temp_file_of_uri uri in
-    Http_getter_cache.respond_dtd ~via_http:false ~url ~patch:patch_dtd outchan;
-    close_out outchan;
+    let fname = Lazy.force Http_getter_env.dtd_dir ^ "/" ^ uri in
+    if not (Sys.file_exists fname) then raise (Dtd_not_found uri);
     fname
   end
 
@@ -385,71 +183,7 @@ let clean_cache () =
   if remote () then
     clean_cache_remote ()
   else
-    Http_getter_cache.clean ()
-
-let list_servers () =
-  if remote () then
-    list_servers_remote ()
-  else
-    Http_getter_env.servers ()
-
-let add_server ?(logger = fun _ -> ()) ?(position = 0) name =
-  if remote () then
-    add_server_remote ~logger ~position name
-  else begin
-    if position = 0 then begin
-      Http_getter_env.add_server ~position:0 name;
-      update_from_one_server ~logger name (* quick update (new server only) *)
-    end else if position > 0 then begin
-      Http_getter_env.add_server ~position name;
-      update ~logger ()
-    end else  (* already checked by parse_position *)
-      assert false
-  end
-
-let has_server position = List.mem_assoc position (Http_getter_env.servers ())
-
-let remove_server ?(logger = fun _ -> ()) position =
-  if remote () then
-    remove_server_remote ~logger ()
-  else begin
-    let server_name =
-      try
-        List.assoc position (Http_getter_env.servers ())
-      with Not_found ->
-        raise (Invalid_argument (sprintf "no server with position %d" position))
-    in
-    Http_getter_env.remove_server position;
-    update ~logger ()
-  end
-
-let return_uris map filter =
-  let uris = ref [] in
-  map#iter (fun uri _ -> if filter uri then uris := uri :: !uris);
-  List.rev !uris
-
-let getalluris () =
-  if remote () then
-    getalluris_remote ()
-  else
-    let filter uri =
-      (Pcre.pmatch ~rex:heading_cic_RE uri)
-(*       && not (Pcre.pmatch ~rex:trailing_types_RE uri) *)
-    in
-    return_uris (Lazy.force cic_map) filter
-
-let getallrdfuris classs =
-  if remote () then
-    getallrdfuris_remote ()
-  else
-    let filter =
-      let base = "^helm:rdf:www\\.cs\\.unibo\\.it/helm/rdf/" in
-      match classs with
-      | `Forward -> (fun uri -> Pcre.pmatch ~pat:(base ^ "forward") uri)
-      | `Backward -> (fun uri -> Pcre.pmatch ~pat:(base ^ "backward") uri)
-    in
-    return_uris (Lazy.force rdf_map) filter
-
+    Http_getter_storage.clean_cache ()
 
 let (++) (oldann, oldtypes, oldbody, oldtree)
          (newann, newtypes, newbody, newtree) =
@@ -458,213 +192,170 @@ let (++) (oldann, oldtypes, oldbody, oldtree)
    (if newbody  > oldbody   then newbody  else oldbody),
    (if newtree  > oldtree   then newtree  else oldtree))
     
-let (types_RE, types_ann_RE, body_RE, body_ann_RE,
-     proof_tree_RE, proof_tree_ann_RE, trailing_slash_RE, theory_RE) =
-  (Pcre.regexp "\\.types$", Pcre.regexp "\\.types\\.ann$",
-   Pcre.regexp "\\.body$", Pcre.regexp "\\.body\\.ann$",
-   Pcre.regexp "\\.proof_tree$", Pcre.regexp "\\.proof_tree\\.ann$",
-   Pcre.regexp "/$", Pcre.regexp "\\.theory$")
-  
-let basepart_RE =
-  Pcre.regexp
-    "^([^.]*\\.[^.]*)((\\.body)|(\\.proof_tree)|(\\.types))?(\\.ann)?$"
-    
-let (slash_RE, til_slash_RE, no_slashes_RE) =
-  (Pcre.regexp "/", Pcre.regexp "^.*/", Pcre.regexp "^[^/]*$")
-let fix_regexp_RE = Pcre.regexp ("^" ^ (Pcre.quote "(cic|theory)"))
-  
-let ls regexp =
-  if remote () then
-    ls_remote regexp
-  else begin
-    let looking_for_dir = Pcre.pmatch ~rex:trailing_slash_RE regexp in
-    let pat = Pcre.replace ~rex:trailing_slash_RE ("^" ^ regexp) in
-    let (dir_RE, dir_local_RE, obj_RE, first_comp_RE) =
-      Pcre.regexp (pat ^ "/"), Pcre.regexp "[^/]+/[^/]*",
-      Pcre.regexp (pat ^ "(\\.|$)"), Pcre.regexp "/.*"
-    in
-    let exists_theory regexp =
-      let theory =
-        Pcre.replace ~rex:fix_regexp_RE ~templ:"theory" regexp ^ "index.theory"
-      in
+let store_obj tbl o =
+(*   prerr_endline ("Http_getter.store_obj " ^ o); *)
+  if Pcre.pmatch ~rex:showable_file_RE o then begin
+    let basepart = Pcre.replace ~rex:basepart_RE ~templ:"$1" o in
+    let no_flags = false, No, No, No in
+    let oldflags =
       try
-        ignore (resolve theory);
-        true
-      with Key_not_found _ -> false
+        Hashtbl.find tbl basepart
+      with Not_found -> (* no ann, no types, no body, no proof tree *)
+        no_flags
     in
-    let toplevel_theory =
-      match List.rev (Pcre.split ~rex:slash_RE pat) with
-      | dir :: _ -> Some (dir ^ ".theory")
-      | _ -> None
+    let newflags =
+      match o with
+      | s when Pcre.pmatch ~rex:types_RE s          -> (false, Yes, No, No)
+      | s when Pcre.pmatch ~rex:types_ann_RE s      -> (true,  Ann, No, No)
+      | s when Pcre.pmatch ~rex:body_RE s           -> (false, No, Yes, No)
+      | s when Pcre.pmatch ~rex:body_ann_RE s       -> (true,  No, Ann, No)
+      | s when Pcre.pmatch ~rex:proof_tree_RE s     -> (false, No, No, Yes)
+      | s when Pcre.pmatch ~rex:proof_tree_ann_RE s -> (true,  No, No, Ann)
+      | s -> no_flags
     in
+    Hashtbl.replace tbl basepart (oldflags ++ newflags)
+  end
+  
+let store_dir set_ref d =
+  set_ref := StringSet.add (List.hd (Pcre.split ~rex:slash_RE d)) !set_ref
+
+let collect_ls_items dirs_set objs_tbl =
+  let items = ref [] in
+  StringSet.iter (fun dir -> items := Ls_section dir :: !items) dirs_set;
+  Http_getter_misc.hashtbl_sorted_iter
+    (fun uri (annflag, typesflag, bodyflag, treeflag) ->
+      items :=
+        Ls_object {
+          uri = uri; ann = annflag;
+          types = typesflag; body = bodyflag; proof_tree = treeflag
+        } :: !items)
+    objs_tbl;
+  List.rev !items
+
+let contains_object = (<>) []
+
+  (** non regexp-aware version of ls *)
+let rec dumb_ls uri_prefix =
+(*   prerr_endline ("Http_getter.dumb_ls " ^ uri_prefix); *)
+  if is_cic_obj_uri uri_prefix then begin
     let dirs = ref StringSet.empty in
     let objs = Hashtbl.create 17 in
-    let store_dir d =
-      dirs := StringSet.add (List.hd (Pcre.split ~rex:slash_RE d)) !dirs
+    List.iter
+      (fun fname ->
+        if ends_with_slash fname then
+          store_dir dirs fname
+        else
+          try
+            store_obj objs (strip_suffix ~suffix:xml_suffix fname)
+          with Invalid_argument _ -> ())
+      (Http_getter_storage.ls uri_prefix);
+    collect_ls_items !dirs objs
+  end else if is_theory_uri uri_prefix then begin
+    let items = ref [] in
+    let add_theory fname =
+      items :=
+        Ls_object {
+          uri = fname; ann = false; types = No; body = No; proof_tree = No }
+        :: !items
     in
-    let store_obj o =
-      let basepart = Pcre.replace ~rex:basepart_RE ~templ:"$1" o in
-      let no_flags = false, No, No, No in
-      let oldflags =
-        try
-          Hashtbl.find objs basepart
-        with Not_found -> (* no ann, no types, no body, no proof tree *)
-          no_flags
-      in
-      let newflags =
-        match o with
-        | s when Pcre.pmatch ~rex:types_RE s          -> (false, Yes, No, No)
-        | s when Pcre.pmatch ~rex:types_ann_RE s      -> (true,  Ann, No, No)
-        | s when Pcre.pmatch ~rex:body_RE s           -> (false, No, Yes, No)
-        | s when Pcre.pmatch ~rex:body_ann_RE s       -> (true,  No, Ann, No)
-        | s when Pcre.pmatch ~rex:proof_tree_RE s     -> (false, No, No, Yes)
-        | s when Pcre.pmatch ~rex:proof_tree_ann_RE s -> (true,  No, No, Ann)
-        | s -> no_flags
-      in
-      Hashtbl.replace objs basepart (oldflags ++ newflags)
+    let cic_uri_prefix =
+      Pcre.replace_first ~rex:heading_theory_RE ~templ:"cic:" uri_prefix
     in
-    (* Variables used in backward compatibility code to map
-       theory:/path/t.theory into theory:/path/t/index.theory
-       when cic:/path/t/ exists *)
-    let the_candidate_for_remapping =
-     (* CSC: Here I am making a strong assumption: the pattern
-        can be only of the form  [^:]*:/path where path is
-        NOT a regular expression *)
-     "theory:" ^ Pcre.replace ~rex:(Pcre.regexp "[^:]*:") pat
+    List.iter
+      (fun fname ->
+        if ends_with_slash fname then
+          items := Ls_section (strip_trailing_slash fname) :: !items
+        else
+          try
+            let fname = strip_suffix ~suffix:xml_suffix fname in
+            let theory_name = strip_suffix ~suffix:theory_suffix fname in
+            let sub_theory = normalize_dir cic_uri_prefix ^ theory_name ^ "/" in
+            if is_empty_theory sub_theory then add_theory fname
+          with Invalid_argument _ -> ())
+      (Http_getter_storage.ls uri_prefix);
+    (try
+      if contains_object (dumb_ls cic_uri_prefix)
+        && exists (strip_trailing_slash uri_prefix ^ theory_suffix)
+      then
+        add_theory "index.theory";
+    with Unresolvable_URI _ -> ());
+    !items
+  end else
+    raise (Invalid_URI uri_prefix)
+
+and is_empty_theory uri_prefix =
+(*   prerr_endline ("is_empty_theory " ^ uri_prefix); *)
+  not (contains_object (dumb_ls uri_prefix))
+
+  (* handle simple regular expressions of the form "...(..|..|..)..." on cic
+   * uris, not meant to be a real implementation of regexp. The only we use is
+   * "(cic|theory):/..." *)
+let explode_ls_regexp regexp =
+  try
+    let len = String.length regexp in
+    let lparen_idx = String.index regexp '(' in
+    let rparen_idx = String.index_from regexp lparen_idx ')' in
+    let choices_str = (* substring between parens, parens excluded *)
+      String.sub regexp (lparen_idx + 1) (rparen_idx - lparen_idx - 1)
     in
-    let index_not_generated_yet = ref true in
-    let valid_candidates = ref [] in
-    let candidates_found = ref [] in
-    
-    (*(Lazy.force cic_map) # iter*)
+    let choices = Pcre.split ~rex:pipe_RE choices_str in
+    let prefix = String.sub regexp 0 lparen_idx in
+    let suffix = String.sub regexp (rparen_idx + 1) (len - (rparen_idx + 1)) in
+    List.map (fun choice -> prefix ^ choice ^ suffix) choices
+  with Not_found -> [regexp]
+
+let merge_results results =
+  let rec aux objects_acc dirs_acc = function
+    | [] -> dirs_acc @ objects_acc
+    | Ls_object _ as obj :: tl -> aux (obj :: objects_acc) dirs_acc tl
+    | Ls_section _ as dir :: tl ->
+        if List.mem dir dirs_acc then (* filters out dir duplicates *)
+          aux objects_acc dirs_acc tl
+        else
+          aux objects_acc (dir :: dirs_acc) tl
+  in
+  aux [] [] (List.concat results)
 
-    (* depending on prefetch *)
-    let if_prefetch if_is if_not = 
-      if is_prefetch_on() then if_is else if_not 
-    in
-    
-    let iter_on_right_thing = if_prefetch
-      (fun f -> List.iter (fun k -> f k "") 
-      (Tree.ls_path regexp (deref_if_some uri_tree)))
-      (fun f -> (Lazy.force cic_map) # iter f)
-    in
-    let calculate_localpart = if_prefetch 
-        (fun uri -> uri)
-        (fun uri -> Pcre.replace ~rex:dir_RE uri)
-    in
-    let check_if_x_RE = if_prefetch
-        (fun x_RE uri -> true)
-        (fun x_RE uri -> Pcre.pmatch ~rex:x_RE uri)
-    in
-    let check_if_dir_RE = check_if_x_RE dir_RE in
-    let check_if_obj_RE = check_if_x_RE obj_RE in
-
-    iter_on_right_thing
-      (fun key _ ->
-        (* we work in two ways:
-         * 1 iteration on the whole map
-         * 2 tree visit
-         *
-         * Since in the first case 'key' is a complete uri, while
-         * in the second case it is only the subtree rooted in the
-         * query regex, we must relay only on the localpath.
-         *
-         * example:
-         *   query::= cic:/aaa/bbb/
-         *
-         *   answer1 ::= the whole map
-         *
-         *   aswer2  ::= [ "ccc/"; "c1.something"] where 
-         *     cic:/aaa/bbb/ccc/ and cic:/aaa/bbb/c1.something
-         *     are the (partials) uri that matched query
-         *     
-         * after the localpath extracion we have more uris in the first case,
-         * but at least the are all rooted in the same node.
-         *
-         * the Tree.get_frontier may be changed to return the same stuff as 
-         * the map iteration+localpath extraction does, but I hope it is not
-         * necessary
-         *)
-        match key with
-        | uri when looking_for_dir && check_if_dir_RE uri ->
-            (* directory hit *)
-            let localpart = calculate_localpart uri in
-            if Pcre.pmatch ~rex:no_slashes_RE localpart then
-             begin
-              (* Backward compatibility code to map
-                 theory:/path/t.theory into theory:/path/t/index.theory
-                 when cic:/path/t/ exists *)
-              if Pcre.pmatch ~rex:theory_RE localpart then
-               candidates_found := localpart :: !candidates_found
-              else
-               store_obj localpart
-             end
-            else
-             begin
-             store_dir localpart ;
-             if Pcre.pmatch localpart ~rex:dir_local_RE then 
-               begin
-               let valid = 
-                 Pcre.replace ~rex:first_comp_RE localpart ^ ".theory"
-               in
-               if not (List.mem valid !valid_candidates) then
-                 valid_candidates := valid::!valid_candidates
-               end
-             end
-        | uri when (not looking_for_dir) && check_if_obj_RE uri ->
-            (* file hit *)
-            store_obj (Pcre.replace ~rex:til_slash_RE uri)
-        | uri -> ());
-(*
-                   (* miss *)
-           if !index_not_generated_yet &&
-              Pcre.pmatch ~rex:orig_theory_RE uri
-           then
-            (index_not_generated_yet := false ;
-             store_obj "index.theory"));
- *)
-    if exists_theory regexp then store_obj "index.theory";
-    List.iter
-     (fun localpart ->
-       if not (List.mem localpart !valid_candidates) then
-        store_obj localpart
-     ) !candidates_found ;
-    let ls_items = ref [] in
-    StringSet.iter (fun dir -> ls_items := Ls_section dir :: !ls_items) !dirs;
-    Http_getter_misc.hashtbl_sorted_iter
-      (fun uri (annflag, typesflag, bodyflag, treeflag) ->
-        ls_items :=
-          Ls_object {
-            uri = uri; ann = annflag;
-            types = typesflag; body = bodyflag; proof_tree = treeflag
-          } :: !ls_items)
-      objs;
-    List.rev !ls_items
-  end
+let ls regexp =
+  if remote () then
+    ls_remote regexp
+  else
+    let prefixes = explode_ls_regexp regexp in
+    merge_results (List.map dumb_ls prefixes)
+
+let getalluris () =
+  let rec aux acc = function
+    | [] -> acc
+    | dir :: todo ->
+        let acc', todo' =
+          List.fold_left
+            (fun (acc, subdirs) result ->
+              match result with
+              | Ls_object obj -> (dir ^ obj.uri) :: acc, subdirs
+              | Ls_section sect -> acc, (dir ^ sect ^ "/") :: subdirs)
+            (acc, todo)
+            (dumb_ls dir)
+        in
+        aux acc' todo'
+  in
+  aux [] ["cic:/"] (* trailing slash required *)
 
 (* Shorthands from now on *)
 
 let getxml' uri = getxml (UriManager.string_of_uri uri)
 let resolve' uri = resolve (UriManager.string_of_uri uri)
-let register' uri url = register ~uri:(UriManager.string_of_uri uri) ~url
-let unregister' uri = unregister (UriManager.string_of_uri uri)
+let exists' uri = exists (UriManager.string_of_uri uri)
+
+let tilde_expand_key k =
+  try
+    Helm_registry.set k (HExtlib.tilde_expand (Helm_registry.get k))
+  with Helm_registry.Key_not_found _ -> ()
 
-let sync_dump_file () =
-  if is_prefetch_on () then
-    dump_tree ()
-  
 let init () =
+  List.iter tilde_expand_key ["getter.cache_dir"; "getter.dtd_dir"];
   Http_getter_logger.set_log_level
     (Helm_registry.get_opt_default Helm_registry.int ~default:1
       "getter.log_level");
   Http_getter_logger.set_log_file
-    (Helm_registry.get_opt Helm_registry.string "getter.log_file");
-  Http_getter_env.reload ();
-  let is_prefetch_set = 
-    Helm_registry.get_opt_default Helm_registry.bool ~default:false
-      "getter.prefetch"
-  in
-  if is_prefetch_set then
-    (* ignore (Thread.create sync_with_map ()) *)
-    sync_with_map ()
+    (Helm_registry.get_opt Helm_registry.string "getter.log_file")