]> matita.cs.unibo.it Git - helm.git/blob - helm/ocaml/cic_notation/cicNotationLexer.ml
ligature expansion now considers also tex macros
[helm.git] / helm / ocaml / cic_notation / cicNotationLexer.ml
1 (* Copyright (C) 2005, HELM Team.
2  * 
3  * This file is part of HELM, an Hypertextual, Electronic
4  * Library of Mathematics, developed at the Computer Science
5  * Department, University of Bologna, Italy.
6  * 
7  * HELM is free software; you can redistribute it and/or
8  * modify it under the terms of the GNU General Public License
9  * as published by the Free Software Foundation; either version 2
10  * of the License, or (at your option) any later version.
11  * 
12  * HELM is distributed in the hope that it will be useful,
13  * but WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15  * GNU General Public License for more details.
16  *
17  * You should have received a copy of the GNU General Public License
18  * along with HELM; if not, write to the Free Software
19  * Foundation, Inc., 59 Temple Place - Suite 330, Boston,
20  * MA  02111-1307, USA.
21  * 
22  * For details, see the HELM World-Wide-Web page,
23  * http://helm.cs.unibo.it/
24  *)
25
26 open Printf
27
28 exception Error of int * int * string
29
30 let regexp number = xml_digit+
31
32   (* ZACK: breaks unicode's binder followed by an ascii letter without blank *)
33 (* let regexp ident_letter = xml_letter *)
34
35 let regexp ident_letter = [ 'a' - 'z' 'A' - 'Z' ]
36
37   (* must be in sync with "is_ligature_char" below *)
38 let regexp ligature_char = [ "'`~!?@*()[]<>-+=|:;.,/\"" ]
39 let regexp ligature = ligature_char ligature_char+
40
41 let is_ligature_char =
42   (* must be in sync with "regexp ligature_char" above *)
43   let chars = "'`~!?@*()[]<>-+=|:;.,/\"" in
44   (fun char ->
45     (try
46       ignore (String.index chars char);
47       true
48     with Not_found -> false))
49
50 let regexp ident_decoration = '\'' | '?' | '`'
51 let regexp ident_cont = ident_letter | xml_digit | '_'
52 let regexp ident = ident_letter ident_cont* ident_decoration*
53
54 let regexp tex_token = '\\' ident
55
56 let regexp delim_begin = "\\["
57 let regexp delim_end = "\\]"
58
59 let regexp qkeyword = "'" ident "'"
60
61 let regexp implicit = '?'
62 let regexp placeholder = '%'
63 let regexp meta = implicit number
64
65 let regexp csymbol = '\'' ident
66
67 let regexp begin_group = "@{" | "${"
68 let regexp end_group = '}'
69 let regexp wildcard = "$_"
70 let regexp ast_ident = "@" ident
71 let regexp ast_csymbol = "@" csymbol
72 let regexp meta_ident = "$" ident
73 let regexp meta_anonymous = "$_"
74 let regexp qstring = '"' [^ '"']* '"'
75
76 let regexp begincomment = "(**" xml_blank
77 let regexp beginnote = "(*"
78 let regexp endcomment = "*)"
79 (* let regexp comment_char = [^'*'] | '*'[^')']
80 let regexp note = "|+" ([^'*'] | "**") comment_char* "+|" *)
81
82 let level1_layouts = 
83   [ "sub"; "sup";
84     "below"; "above";
85     "over"; "atop"; "frac";
86     "sqrt"; "root"
87   ]
88
89 let level1_keywords =
90   [ "hbox"; "hvbox"; "hovbox"; "vbox";
91     "break";
92     "list0"; "list1"; "sep";
93     "opt";
94     "term"; "ident"; "number"
95   ] @ level1_layouts
96
97 let level2_meta_keywords =
98   [ "if"; "then"; "else";
99     "fold"; "left"; "right"; "rec";
100     "fail";
101     "default";
102     "anonymous"; "ident"; "number"; "term"; "fresh"
103   ]
104
105   (* (string, unit) Hashtbl.t, to exploit multiple bindings *)
106 let level2_ast_keywords = Hashtbl.create 23
107 let _ =
108   List.iter (fun k -> Hashtbl.add level2_ast_keywords k ())
109   [ "CProp"; "Prop"; "Type"; "Set"; "let"; "rec"; "corec"; "match";
110     "with"; "in"; "and"; "to"; "as"; "on" ]
111
112 let add_level2_ast_keyword k = Hashtbl.add level2_ast_keywords k ()
113 let remove_level2_ast_keyword k = Hashtbl.remove level2_ast_keywords k
114
115   (* (string, int) Hashtbl.t, with multiple bindings.
116    * int is the unicode codepoint *)
117 let ligatures = Hashtbl.create 23
118 let _ =
119   List.iter
120     (fun (ligature, symbol) -> Hashtbl.add ligatures ligature symbol)
121     [ ("->", <:unicode<to>>);   ("=>", <:unicode<Rightarrow>>);
122       ("<=", <:unicode<leq>>);  (">=", <:unicode<geq>>);
123       ("<>", <:unicode<neq>>);  (":=", <:unicode<def>>);
124     ]
125
126 let regexp uri =
127   ("cic:/" | "theory:/")              (* schema *)
128   ident ('/' ident)*                  (* path *)
129   ('.' ident)+                        (* ext *)
130   ("#xpointer(" number ('/' number)+ ")")?  (* xpointer *)
131
132 let error lexbuf msg =
133   let begin_cnum, end_cnum = Ulexing.loc lexbuf in
134   raise (Error (begin_cnum, end_cnum, msg))
135 let error_at_end lexbuf msg =
136   let begin_cnum, end_cnum = Ulexing.loc lexbuf in
137   raise (Error (begin_cnum, end_cnum, msg))
138
139 let return_with_loc token begin_cnum end_cnum =
140   (* TODO handle line/column numbers *)
141   let flocation_begin =
142     { Lexing.pos_fname = "";
143       Lexing.pos_lnum = -1; Lexing.pos_bol = -1;
144       Lexing.pos_cnum = begin_cnum }
145   in
146   let flocation_end = { flocation_begin with Lexing.pos_cnum = end_cnum } in
147   (token, (flocation_begin, flocation_end))
148
149 let return lexbuf token =
150   let begin_cnum, end_cnum = Ulexing.loc lexbuf in
151     return_with_loc token begin_cnum end_cnum
152
153 let return_lexeme lexbuf name = return lexbuf (name, Ulexing.utf8_lexeme lexbuf)
154
155 let return_symbol lexbuf s = return lexbuf ("SYMBOL", s)
156 let return_eoi lexbuf = return lexbuf ("EOI", "")
157
158 let remove_quotes s = String.sub s 1 (String.length s - 2)
159
160 let mk_lexer token =
161   let tok_func stream =
162 (*     let lexbuf = Ulexing.from_utf8_stream stream in *)
163 (** XXX Obj.magic rationale.
164  * The problem.
165  *  camlp4 constraints the tok_func field of Token.glexer to have type:
166  *    Stream.t char -> (Stream.t 'te * flocation_function)
167  *  In order to use ulex we have (in theory) to instantiate a new lexbuf each
168  *  time a char Stream.t is passed, destroying the previous lexbuf which may
169  *  have consumed a character from the old stream which is lost forever :-(
170  * The "solution".
171  *  Instead of passing to camlp4 a char Stream.t we pass a lexbuf, casting it to
172  *  char Stream.t with Obj.magic where needed.
173  *)
174     let lexbuf = Obj.magic stream in
175     Token.make_stream_and_flocation
176       (fun () ->
177         try
178           token lexbuf
179         with
180         | Ulexing.Error -> error_at_end lexbuf "Unexpected character"
181         | Ulexing.InvalidCodepoint p ->
182             error_at_end lexbuf (sprintf "Invalid code point: %d" p))
183   in
184   {
185     Token.tok_func = tok_func;
186     Token.tok_using = (fun _ -> ());
187     Token.tok_removing = (fun _ -> ()); 
188     Token.tok_match = Token.default_match;
189     Token.tok_text = Token.lexer_text;
190     Token.tok_comm = None;
191   }
192
193 let expand_macro lexbuf =
194   let macro =
195     Ulexing.utf8_sub_lexeme lexbuf 1 (Ulexing.lexeme_length lexbuf - 1)
196   in
197   try
198     ("SYMBOL", Utf8Macro.expand macro)
199   with Utf8Macro.Macro_not_found _ -> "SYMBOL", Ulexing.utf8_lexeme lexbuf
200
201 let remove_quotes s = String.sub s 1 (String.length s - 2)
202 let remove_left_quote s = String.sub s 1 (String.length s - 1)
203
204 let rec level2_pattern_token_group counter buffer =
205   lexer
206   | end_group -> 
207       if (counter > 0) then
208         Buffer.add_string buffer (Ulexing.utf8_lexeme lexbuf) ;
209       snd (Ulexing.loc lexbuf)
210   | begin_group -> 
211       Buffer.add_string buffer (Ulexing.utf8_lexeme lexbuf) ;
212       ignore (level2_pattern_token_group (counter + 1) buffer lexbuf) ;
213       level2_pattern_token_group counter buffer lexbuf
214   | _ -> 
215       Buffer.add_string buffer (Ulexing.utf8_lexeme lexbuf) ;
216       level2_pattern_token_group counter buffer lexbuf
217
218 let read_unparsed_group token_name lexbuf =
219   let buffer = Buffer.create 16 in
220   let begin_cnum, _ = Ulexing.loc lexbuf in
221   let end_cnum = level2_pattern_token_group 0 buffer lexbuf in
222     return_with_loc (token_name, Buffer.contents buffer) begin_cnum end_cnum
223
224 let rec level2_meta_token =
225   lexer
226   | xml_blank+ -> level2_meta_token lexbuf
227   | ident ->
228       let s = Ulexing.utf8_lexeme lexbuf in
229         begin
230           if List.mem s level2_meta_keywords then
231             return lexbuf ("", s)
232           else
233             return lexbuf ("IDENT", s)
234         end
235   | "@{" -> read_unparsed_group "UNPARSED_AST" lexbuf
236   | ast_ident ->
237       return lexbuf ("UNPARSED_AST",
238         remove_left_quote (Ulexing.utf8_lexeme lexbuf))
239   | ast_csymbol ->
240       return lexbuf ("UNPARSED_AST",
241         remove_left_quote (Ulexing.utf8_lexeme lexbuf))
242   | eof -> return_eoi lexbuf
243
244 let rec comment_token acc depth =
245   lexer
246   | beginnote ->
247       let acc = acc ^ Ulexing.utf8_lexeme lexbuf in
248       comment_token acc (depth + 1) lexbuf
249   | endcomment ->
250       let acc = acc ^ Ulexing.utf8_lexeme lexbuf in
251       if depth = 0
252       then acc
253       else comment_token acc (depth - 1) lexbuf
254   | _ ->
255       let acc = acc ^ Ulexing.utf8_lexeme lexbuf in
256       comment_token acc depth lexbuf
257
258   (** @param k continuation to be invoked when no ligature has been found *)
259 let rec ligatures_token k =
260   lexer
261   | ligature ->
262       let lexeme = Ulexing.utf8_lexeme lexbuf in
263       (match List.rev (Hashtbl.find_all ligatures lexeme) with
264       | [] -> (* ligature not found, rollback and try default lexer *)
265           Ulexing.rollback lexbuf;
266           k lexbuf
267       | default_lig :: _ -> (* ligatures found, use the default one *)
268           return_symbol lexbuf default_lig)
269   | eof -> return_eoi lexbuf
270   | _ ->  (* not a ligature, rollback and try default lexer *)
271       Ulexing.rollback lexbuf;
272       k lexbuf
273
274 and level2_ast_token =
275   lexer
276   | xml_blank+ -> ligatures_token level2_ast_token lexbuf
277   | meta -> return lexbuf ("META", Ulexing.utf8_lexeme lexbuf)
278   | implicit -> return lexbuf ("IMPLICIT", "")
279   | placeholder -> return lexbuf ("PLACEHOLDER", "")
280   | ident ->
281       let lexeme = Ulexing.utf8_lexeme lexbuf in
282       if Hashtbl.mem level2_ast_keywords lexeme then
283         return lexbuf ("", lexeme)
284       else
285         return lexbuf ("IDENT", lexeme)
286   | number -> return lexbuf ("NUMBER", Ulexing.utf8_lexeme lexbuf)
287   | tex_token -> return lexbuf (expand_macro lexbuf)
288   | uri -> return lexbuf ("URI", Ulexing.utf8_lexeme lexbuf)
289   | qstring ->
290       return lexbuf ("QSTRING", remove_quotes (Ulexing.utf8_lexeme lexbuf))
291   | csymbol ->
292       return lexbuf ("CSYMBOL", remove_left_quote (Ulexing.utf8_lexeme lexbuf))
293   | "${" -> read_unparsed_group "UNPARSED_META" lexbuf
294   | "@{" -> read_unparsed_group "UNPARSED_AST" lexbuf
295   | '(' -> return lexbuf ("LPAREN", "")
296   | ')' -> return lexbuf ("RPAREN", "")
297   | meta_ident ->
298       return lexbuf ("UNPARSED_META",
299         remove_left_quote (Ulexing.utf8_lexeme lexbuf))
300   | meta_anonymous -> return lexbuf ("UNPARSED_META", "anonymous")
301   | beginnote -> 
302       let comment = comment_token (Ulexing.utf8_lexeme lexbuf) 0 lexbuf in
303 (*       let comment =
304         Ulexing.utf8_sub_lexeme lexbuf 2 (Ulexing.lexeme_length lexbuf - 4)
305       in
306       return lexbuf ("NOTE", comment) *)
307       ligatures_token level2_ast_token lexbuf
308   | begincomment -> return lexbuf ("BEGINCOMMENT","")
309   | endcomment -> return lexbuf ("ENDCOMMENT","")
310   | eof -> return_eoi lexbuf
311   | _ -> return_symbol lexbuf (Ulexing.utf8_lexeme lexbuf)
312
313 and level1_pattern_token =
314   lexer
315   | xml_blank+ -> ligatures_token level1_pattern_token lexbuf
316   | number -> return lexbuf ("NUMBER", Ulexing.utf8_lexeme lexbuf)
317   | ident ->
318       let s = Ulexing.utf8_lexeme lexbuf in
319         begin
320           if List.mem s level1_keywords then
321             return lexbuf ("", s)
322           else
323             return lexbuf ("IDENT", s)
324         end
325   | tex_token -> return lexbuf (expand_macro lexbuf)
326   | qkeyword ->
327       return lexbuf ("QKEYWORD", remove_quotes (Ulexing.utf8_lexeme lexbuf))
328   | '(' -> return lexbuf ("LPAREN", "")
329   | ')' -> return lexbuf ("RPAREN", "")
330   | eof -> return_eoi lexbuf
331   | _ -> return_symbol lexbuf (Ulexing.utf8_lexeme lexbuf)
332
333 let level1_pattern_token = ligatures_token level1_pattern_token
334 let level2_ast_token = ligatures_token level2_ast_token
335
336 (* API implementation *)
337
338 let level1_pattern_lexer = mk_lexer level1_pattern_token
339 let level2_ast_lexer = mk_lexer level2_ast_token
340 let level2_meta_lexer = mk_lexer level2_meta_token
341
342 let lookup_ligatures lexeme =
343   try
344     if lexeme.[0] = '\\'
345     then [ Utf8Macro.expand (String.sub lexeme 1 (String.length lexeme - 1)) ]
346     else List.rev (Hashtbl.find_all ligatures lexeme)
347   with Invalid_argument _ | Utf8Macro.Macro_not_found _ as exn -> []
348