]> matita.cs.unibo.it Git - helm.git/blob - helm/ocaml/cic_disambiguation/cicTextualLexer2.ml
21f0205203aea6e410b54d283a8ed60f1a92bf1f
[helm.git] / helm / ocaml / cic_disambiguation / cicTextualLexer2.ml
1 (* Copyright (C) 2004, HELM Team.
2  * 
3  * This file is part of HELM, an Hypertextual, Electronic
4  * Library of Mathematics, developed at the Computer Science
5  * Department, University of Bologna, Italy.
6  * 
7  * HELM is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU General Public License
9  * as published by the Free Software Foundation; either version 2
10  * of the License, or (at your option) any later version.
11  * 
12  * HELM is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15  * GNU General Public License for more details.
16  *
17  * You should have received a copy of the GNU General Public License
18  * along with HELM; if not, write to the Free Software
19  * Foundation, Inc., 59 Temple Place - Suite 330, Boston,
20  * MA  02111-1307, USA.
21  * 
22  * For details, see the HELM World-Wide-Web page,
23  * http://helm.cs.unibo.it/
24  *)
25
26 exception Error of int * int * string
27
28 exception Not_an_extended_ident
29
30 let regexp alpha = [ 'a' - 'z' 'A' - 'Z' ]
31 let regexp digit = [ '0' - '9' ]
32 let regexp blank = [ ' ' '\t' '\n' ]
33
34 let regexp blanks = blank+
35 let regexp num = digit+
36 let regexp tex_token = '\\' alpha+
37 let regexp symbol = [^ 'a' - 'z' 'A' - 'Z' '0' - '9' ' ' '\t' '\n' ]
38 let regexp ident_cont = alpha | num | '_'
39 let regexp ident_cont' = ident_cont | tex_token
40 let regexp ident = (alpha ident_cont*) | ('_' ident_cont+)
41 let regexp ident' = ((alpha | tex_token) ident_cont'*) | ('_' ident_cont'+)
42 let regexp paren = [ '(' '[' '{' ')' ']' '}' ]
43 let regexp meta = '?' num
44 (* let regexp catchall = .* *)
45
46 let keywords = Hashtbl.create 17
47 let _ =
48   List.iter (fun keyword -> Hashtbl.add keywords keyword ("", keyword))
49     [ "Prop"; "Type"; "Set"; "let"; "rec"; "using"; "match"; "with" ]
50
51 let error lexbuf msg =
52   raise (Error (Ulexing.lexeme_start lexbuf, Ulexing.lexeme_end lexbuf, msg))
53 let error_at_end lexbuf msg =
54   raise (Error (Ulexing.lexeme_end lexbuf, Ulexing.lexeme_end lexbuf, msg))
55
56 let return lexbuf token = (token, Ulexing.loc lexbuf)
57
58 (*
59 let parse_ext_ident ident =
60   let len = String.length ident in
61   let buf = Buffer.create len in
62   let in_tex_token = ref false in
63   let tex_token = Buffer.create 10 in
64   try
65     for i = 0 to len - 1 do
66       match ident.[i] with
67       | '\' when not !in_tex_token ->
68           if i < len - 1 &&
69           in_tex_token := true
70     done
71   with Invalid_argument -> assert false
72
73 let rec token' = lexer
74   | ident' ->
75       (try
76         let ident = parse_ext_ident (Ulexing.utf8_lexeme lexbuf) in
77         return lexbuf ("IDENT'", ident)
78       with Not_an_extended_ident ->
79         Ulexing.rollback lexbuf;
80         token lexbuf)
81   | _ ->
82       Ulexing.rollback lexbuf;
83       token lexbuf
84
85 and token = lexer
86 *)
87 let rec token = lexer
88   | blanks -> token lexbuf
89   | ident ->
90       let lexeme = Ulexing.utf8_lexeme lexbuf in
91       (try
92         return lexbuf (Hashtbl.find keywords lexeme)
93       with Not_found -> return lexbuf ("IDENT", lexeme))
94   | num -> return lexbuf ("NUM", Ulexing.utf8_lexeme lexbuf)
95   | paren -> return lexbuf ("PAREN", Ulexing.utf8_lexeme lexbuf)
96   | meta -> return lexbuf ("META", Ulexing.utf8_lexeme lexbuf)
97   | symbol -> return lexbuf ("SYMBOL", Ulexing.utf8_lexeme lexbuf)
98   | tex_token ->
99       let macro =
100         Ulexing.utf8_sub_lexeme lexbuf 1 (Ulexing.lexeme_length lexbuf - 1)
101       in
102       (try
103         return lexbuf ("SYMBOL", Macro.expand macro)
104       with Macro.Macro_not_found _ ->
105         return lexbuf ("SYMBOL", Ulexing.utf8_lexeme lexbuf))
106   | eof -> return lexbuf ("EOI", "")
107   | _ -> error lexbuf "Invalid character"
108
109 let tok_func stream =
110   let lexbuf = Ulexing.from_utf8_stream stream in
111   Token.make_stream_and_location
112     (fun () ->
113       try
114         token lexbuf
115       with
116       | Ulexing.Error -> error_at_end lexbuf "Unexpected character"
117       | Ulexing.InvalidCodepoint i -> error_at_end lexbuf "Invalid code point")
118
119 let lex =
120   { 
121     Token.tok_func = tok_func;
122     Token.tok_using = (fun _ -> ());
123     Token.tok_removing = (fun _ -> ()); 
124     Token.tok_match = Token.default_match;
125     Token.tok_text = Token.lexer_text;
126     Token.tok_comm = None;
127   }