Added a ton more token kinds
This commit is contained in:
parent
64de897de5
commit
a0ce033c27
@ -36,9 +36,9 @@ func (lexer *LexingOperation) tokenize () (err error) {
|
||||
number := lexer.char >= '0' && lexer.char <= '9'
|
||||
|
||||
if number {
|
||||
// TODO: tokenize number
|
||||
// TODO: tokenize number begin
|
||||
} else if lowercase || uppercase {
|
||||
// TODO: tokenize multi
|
||||
// TODO: tokenize alpha begin
|
||||
} else {
|
||||
err = lexer.tokenizeSymbolBeginning()
|
||||
if err != nil { return err }
|
||||
@ -51,6 +51,7 @@ func (lexer *LexingOperation) tokenize () (err error) {
|
||||
}
|
||||
|
||||
func (lexer *LexingOperation) tokenizeSymbolBeginning () (err error) {
|
||||
// TODO: ignore comments
|
||||
switch lexer.char {
|
||||
case '\t':
|
||||
for lexer.char == '\t' {
|
||||
@ -59,6 +60,7 @@ func (lexer *LexingOperation) tokenizeSymbolBeginning () (err error) {
|
||||
})
|
||||
lexer.nextRune()
|
||||
}
|
||||
// TODO: newline
|
||||
case '"':
|
||||
// TODO: tokenize string literal
|
||||
lexer.nextRune()
|
||||
@ -95,6 +97,43 @@ func (lexer *LexingOperation) tokenizeSymbolBeginning () (err error) {
|
||||
kind: TokenKindRBrace,
|
||||
})
|
||||
lexer.nextRune()
|
||||
case '+':
|
||||
// TODO: tokenize plus
|
||||
lexer.nextRune()
|
||||
case '-':
|
||||
// TODO: tokenize dash begin
|
||||
lexer.nextRune()
|
||||
case '*':
|
||||
// TODO: tokenize asterisk
|
||||
lexer.nextRune()
|
||||
case '/':
|
||||
// TODO: tokenize slash
|
||||
lexer.nextRune()
|
||||
case '@':
|
||||
// TODO: tokenize @
|
||||
lexer.nextRune()
|
||||
case '!':
|
||||
// TODO: tokenize exclamation mark
|
||||
lexer.nextRune()
|
||||
case '%':
|
||||
// TODO: tokenize percent
|
||||
lexer.nextRune()
|
||||
case '~':
|
||||
// TODO: tokenize tilde
|
||||
lexer.nextRune()
|
||||
case '<':
|
||||
// TODO: tokenize less than begin
|
||||
lexer.nextRune()
|
||||
case '>':
|
||||
// TODO: tokenize greater than begin
|
||||
lexer.nextRune()
|
||||
case '|':
|
||||
// TODO: tokenize bar begin
|
||||
lexer.nextRune()
|
||||
case '&':
|
||||
// TODO: tokenize and begin
|
||||
lexer.nextRune()
|
||||
|
||||
// TODO: add more for things like math symbols, return
|
||||
// direction operators, indentation, etc
|
||||
default:
|
||||
|
@ -11,6 +11,7 @@ const (
|
||||
|
||||
TokenKindSeparator
|
||||
TokenKindPermission
|
||||
TokenKindReturnDirection
|
||||
|
||||
TokenKindInt
|
||||
TokenKindFloat
|
||||
@ -27,6 +28,25 @@ const (
|
||||
TokenKindRBracket
|
||||
TokenKindLBrace
|
||||
TokenKindRBrace
|
||||
|
||||
TokenKindPlus
|
||||
TokenKindMinus
|
||||
TokenKindAsterisk
|
||||
TokenKindSlash
|
||||
|
||||
TokenKindAt
|
||||
TokenKindExclamation
|
||||
TokenKindPercent
|
||||
TokenKindTilde
|
||||
|
||||
TokenKindLessThan
|
||||
TokenKindLShift
|
||||
TokenKindGreaterThan
|
||||
TokenKindRShift
|
||||
TokenKindBinaryOr
|
||||
TokenKindLogicalOr
|
||||
TokenKindBinaryAnd
|
||||
TokenKindLogicalAnd
|
||||
)
|
||||
|
||||
// Token represents a single token. It holds its location in the file, as well
|
||||
|
Reference in New Issue
Block a user