mirror of
https://github.com/Noratrieb/dilaria.git
synced 2026-01-16 02:15:01 +01:00
lex string literals, with bug
This commit is contained in:
parent
52d740af9e
commit
70a35e2a10
3 changed files with 47 additions and 3 deletions
48
src/lex.rs
48
src/lex.rs
|
|
@ -182,7 +182,7 @@ impl<'code> Iterator for Lexer<'code> {
|
||||||
kind: TokenType::BangEqual,
|
kind: TokenType::BangEqual,
|
||||||
};
|
};
|
||||||
} else {
|
} else {
|
||||||
return Some(Err(LexError));
|
return Some(Err(LexError("Expected '=' after '!'".to_string())));
|
||||||
};
|
};
|
||||||
}
|
}
|
||||||
'>' => {
|
'>' => {
|
||||||
|
|
@ -201,10 +201,30 @@ impl<'code> Iterator for Lexer<'code> {
|
||||||
start,
|
start,
|
||||||
);
|
);
|
||||||
}
|
}
|
||||||
|
'"' => {
|
||||||
|
let mut escaped = false;
|
||||||
|
let end = loop {
|
||||||
|
match self.code.next() {
|
||||||
|
Some((end, '"')) if !escaped => break end,
|
||||||
|
Some((_, '\\')) if !escaped => escaped = true,
|
||||||
|
Some((_, _)) => escaped = false,
|
||||||
|
None => {
|
||||||
|
return Some(Err(LexError(
|
||||||
|
"reached EOF expecting '\"'".to_string(),
|
||||||
|
)))
|
||||||
|
}
|
||||||
|
}
|
||||||
|
};
|
||||||
|
break Token::new(
|
||||||
|
Span::new(start, end - start),
|
||||||
|
TokenType::String(&self.src[start + 1..end]),
|
||||||
|
);
|
||||||
|
}
|
||||||
char => {
|
char => {
|
||||||
if char.is_ascii_digit() {
|
if char.is_ascii_digit() {
|
||||||
let mut had_dot = false;
|
let mut had_dot = false;
|
||||||
let end = loop {
|
let end = loop {
|
||||||
|
// peek here because the character signaling the end should not be consumed
|
||||||
match self.code.peek() {
|
match self.code.peek() {
|
||||||
Some((_, '.')) if !had_dot => {
|
Some((_, '.')) if !had_dot => {
|
||||||
let _ = self.code.next();
|
let _ = self.code.next();
|
||||||
|
|
@ -218,7 +238,9 @@ impl<'code> Iterator for Lexer<'code> {
|
||||||
}
|
}
|
||||||
};
|
};
|
||||||
let number_str = &self.src[start..end];
|
let number_str = &self.src[start..end];
|
||||||
let number = number_str.parse().map_err(|_| LexError);
|
let number = number_str
|
||||||
|
.parse::<f64>()
|
||||||
|
.map_err(|err| LexError(err.to_string()));
|
||||||
match number {
|
match number {
|
||||||
Ok(number) => {
|
Ok(number) => {
|
||||||
break Token::new(
|
break Token::new(
|
||||||
|
|
@ -246,7 +268,7 @@ fn is_valid_ident_start(char: char) -> bool {
|
||||||
}
|
}
|
||||||
|
|
||||||
#[derive(Debug)]
|
#[derive(Debug)]
|
||||||
pub struct LexError;
|
pub struct LexError(String);
|
||||||
|
|
||||||
#[cfg(test)]
|
#[cfg(test)]
|
||||||
mod test {
|
mod test {
|
||||||
|
|
@ -353,4 +375,24 @@ mod test {
|
||||||
],
|
],
|
||||||
)
|
)
|
||||||
}
|
}
|
||||||
|
|
||||||
|
#[test]
|
||||||
|
fn string() {
|
||||||
|
lex_test(r#""uwu""#, vec![String("uwu")])
|
||||||
|
}
|
||||||
|
|
||||||
|
#[test]
|
||||||
|
fn strings() {
|
||||||
|
lex_test(
|
||||||
|
r#"( "hi" "uwu" "\"uwu\"" "no \\ u" )"#,
|
||||||
|
vec![
|
||||||
|
ParenO,
|
||||||
|
String("hi"),
|
||||||
|
String("uwu"),
|
||||||
|
String("\"uwu\""),
|
||||||
|
String("no \\ u"),
|
||||||
|
ParenC,
|
||||||
|
],
|
||||||
|
)
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
|
||||||
|
|
@ -1,5 +1,6 @@
|
||||||
mod lex;
|
mod lex;
|
||||||
mod parse;
|
mod parse;
|
||||||
|
mod string;
|
||||||
|
|
||||||
pub fn run_program(program: &str) {
|
pub fn run_program(program: &str) {
|
||||||
let lexer = lex::Lexer::lex(program);
|
let lexer = lex::Lexer::lex(program);
|
||||||
|
|
|
||||||
1
src/string.rs
Normal file
1
src/string.rs
Normal file
|
|
@ -0,0 +1 @@
|
||||||
|
pub struct StringInterner;
|
||||||
Loading…
Add table
Add a link
Reference in a new issue