]> matita.cs.unibo.it Git - helm.git/blobdiff - helm/ocaml/mathql/mQueryTLexer.mll
- the mathql interpreter is not helm-dependent any more
[helm.git] / helm / ocaml / mathql / mQueryTLexer.mll
index 5dbb3d1b9641aa44c02ab43c89b40a0c0dd69adb..abccb46264d2053927ded64beec8bb60169eefd5 100644 (file)
  * http://cs.unibo.it/helm/.
  *)
 
-(******************************************************************************)
-(*                                                                            *)
-(*                               PROJECT HELM                                 *)
-(*                                                                            *)
-(*                     Ferruccio Guidi <fguidi@cs.unibo.it>                   *)
-(*                                 23/05/2002                                 *)
-(*                                                                            *)
-(*                                                                            *)
-(******************************************************************************)
+(*  AUTOR: Ferruccio Guidi <fguidi@cs.unibo.it>
+ *)
 
 { 
    open MQueryTParser
    
-   let debug = true
+   let debug = false
    
    let out s = if debug then prerr_endline s
 }
 
 let SPC   = [' ' '\t' '\n']+
-let ALPHA = ['A'-'Z' 'a'-'z']
+let ALPHA = ['A'-'Z' 'a'-'z' '_']
 let NUM   = ['0'-'9']
 let IDEN  = ALPHA (NUM | ALPHA)*
 let QSTR  = [^ '"' '\\']+
 
 rule comm_token = parse
-   | "*)"        { query_token lexbuf }
-   | [^ '*']*    { comm_token lexbuf }
+   | "(*"         { comm_token lexbuf; comm_token lexbuf }
+   | "*)"         { () }
+   | ['*' '(']    { comm_token lexbuf }
+   | [^ '*' '(']* { comm_token lexbuf }  
 and string_token = parse
    | '"'         { DQ  }
    | '\\' _      { STR (String.sub (Lexing.lexeme lexbuf) 1 1) }
-   | QSTR        { prerr_endline "STR"; STR (Lexing.lexeme lexbuf) }
+   | QSTR        { STR (Lexing.lexeme lexbuf) }
    | eof         { EOF }
 and query_token = parse
-   | "(*"        { comm_token lexbuf }
+   | "(*"        { comm_token lexbuf; query_token lexbuf }
    | SPC         { query_token lexbuf }
    | '"'         { let str = qstr string_token lexbuf in
                    out ("STR " ^ str); STR str }
@@ -69,39 +64,64 @@ and query_token = parse
    | '$'         { out "DL"; DL }
    | '.'         { out "FS"; FS }
    | ','         { out "CM"; CM }
+   | ';'         { out "SC"; SC }
    | '/'         { out "SL"; SL }
-   | "<-"        { out "GETS"  ; GETS   }
+   | "add"       { out "ADD"   ; ADD    }
+   | "align"     { out "ALIGN" ; ALIGN  }
+   | "allbut"    { out "BUT"   ; BUT    }
    | "and"       { out "AND"   ; AND    }
+   | "as"        { out "AS"    ; AS     }
    | "attr"      { out "ATTR"  ; ATTR   }
    | "be"        { out "BE"    ; BE     }
+   | "count"     { out "COUNT" ; COUNT  }
    | "diff"      { out "DIFF"  ; DIFF   }
+   | "distr"     { out "DISTR" ; DISTR  }
+   | "else"      { out "ELSE"  ; ELSE   }
+   | "empty"     { out "EMPTY" ; EMPTY  }
    | "eq"        { out "EQ"    ; EQ     }
    | "ex"        { out "EX"    ; EX     }
    | "false"     { out "FALSE" ; FALSE  }
-   | "fun"       { out "FUN"   ; FUN    }
+   | "for"       { out "FOR"   ; FOR    }
+   | "from"      { out "FROM"  ; FROM   }
+   | "if"        { out "IF"    ; IF     }
    | "in"        { out "IN"    ; IN     }
+   | "inf"       { out "INF"   ; INF    }   
    | "intersect" { out "INTER" ; INTER  }
-   | "inverse"   { out "INV"   ; INV    }
+   | "inverse"   { out "INV"   ; INV    }   
+   | "istrue"    { out "IST"   ; IST    }
+   | "isfalse"   { out "ISF"   ; ISF    }
+   | "keep"      { out "KEEP"  ; KEEP   }
+   | "le"        { out "LE"    ; LE     }
    | "let"       { out "LET"   ; LET    }
+   | "log"       { out "LOG"   ; LOG    }
+   | "lt"        { out "LT"    ; LT     }
+   | "main"      { out "MAIN"  ; MAIN   }
+   | "match"     { out "MATCH" ; MATCH  }
    | "meet"      { out "MEET"  ; MEET   }
    | "not"       { out "NOT"   ; NOT    }
+   | "of"        { out "OF"    ; OF     }
    | "or"        { out "OR"    ; OR     }
    | "pattern"   { out "PAT"   ; PAT    }
-   | "ptoperty"  { out "PROP"  ; PROP   }
-   | "ref"       { out "REF"   ; REF    }
-   | "refof"     { out "REFOF" ; REFOF  }
-   | "relation"  { out "REL"   ; REL    }
+   | "proj"      { out "PROJ"  ; PROJ   }
+   | "property"  { out "PROP"  ; PROP   }
    | "select"    { out "SELECT"; SELECT }
+   | "source"    { out "SOURCE"; SOURCE }
+   | "stat"      { out "STAT"  ; STAT   }
    | "sub"       { out "SUB"   ; SUB    }
+   | "subj"      { out "SUBJ"  ; SUBJ   }
+   | "sup"       { out "SUP"   ; SUP    }
    | "super"     { out "SUPER" ; SUPER  }
+   | "then"      { out "THEN"  ; THEN   }
    | "true"      { out "TRUE"  ; TRUE   }
    | "union"     { out "UNION" ; UNION  }
    | "where"     { out "WHERE" ; WHERE  }
+   | "xor"       { out "XOR"   ; XOR    }
    | IDEN        { let id = Lexing.lexeme lexbuf in 
                    out ("ID " ^ id); ID id }
    | eof         { out "EOF"   ; EOF    }
 and result_token = parse
    | SPC         { result_token lexbuf }
+   | "(*"        { comm_token lexbuf; result_token lexbuf }
    | '"'         { STR (qstr string_token lexbuf) }
    | '{'         { LC }
    | '}'         { RC }