diff --git a/src/parser.rs b/src/parser.rs index 63bbc8ff..2a5361d8 100644 --- a/src/parser.rs +++ b/src/parser.rs @@ -379,7 +379,7 @@ impl<'a> Parser<'a> { while self.consume_token(&Token::Period) { match self.next_token() { Token::Word(w) => id_parts.push(w.to_ident()), - Token::Mult => { + Token::Mul => { ends_with_wildcard = true; break; } @@ -401,7 +401,7 @@ impl<'a> Parser<'a> { _ => Ok(Expr::Identifier(w.to_ident())), }, }, // End of Token::Word - Token::Mult => Ok(Expr::Wildcard), + Token::Mul => Ok(Expr::Wildcard), tok @ Token::Minus | tok @ Token::Plus => { let op = if tok == Token::Plus { UnaryOperator::Plus @@ -864,7 +864,7 @@ impl<'a> Parser<'a> { Token::LtEq => Some(BinaryOperator::LtEq), Token::Plus => Some(BinaryOperator::Plus), Token::Minus => Some(BinaryOperator::Minus), - Token::Mult => Some(BinaryOperator::Multiply), + Token::Mul => Some(BinaryOperator::Multiply), Token::Mod => Some(BinaryOperator::Modulo), Token::StringConcat => Some(BinaryOperator::StringConcat), Token::Pipe => Some(BinaryOperator::BitwiseOr), @@ -1051,7 +1051,7 @@ impl<'a> Parser<'a> { Token::Caret | Token::Sharp | Token::ShiftRight | Token::ShiftLeft => Ok(22), Token::Ampersand => Ok(23), Token::Plus | Token::Minus => Ok(Self::PLUS_MINUS_PREC), - Token::Mult | Token::Div | Token::Mod | Token::StringConcat => Ok(40), + Token::Mul | Token::Div | Token::Mod | Token::StringConcat => Ok(40), Token::DoubleColon => Ok(50), Token::ExclamationMark => Ok(50), Token::LBracket | Token::RBracket => Ok(10), diff --git a/src/tokenizer.rs b/src/tokenizer.rs index c453eba2..62a21e53 100644 --- a/src/tokenizer.rs +++ b/src/tokenizer.rs @@ -78,7 +78,7 @@ pub enum Token { /// Minus operator `-` Minus, /// Multiplication operator `*` - Mult, + Mul, /// Division operator `/` Div, /// Modulo Operator `%` @@ -163,7 +163,7 @@ impl fmt::Display for Token { Token::GtEq => f.write_str(">="), Token::Plus => f.write_str("+"), Token::Minus => f.write_str("-"), - Token::Mult => f.write_str("*"), + Token::Mul => f.write_str("*"), Token::Div => f.write_str("/"), Token::StringConcat => f.write_str("||"), Token::Mod => f.write_str("%"), @@ -501,7 +501,7 @@ impl<'a> Tokenizer<'a> { } } '+' => self.consume_and_return(chars, Token::Plus), - '*' => self.consume_and_return(chars, Token::Mult), + '*' => self.consume_and_return(chars, Token::Mul), '%' => self.consume_and_return(chars, Token::Mod), '|' => { chars.next(); // consume the '|' @@ -838,7 +838,7 @@ mod tests { let expected = vec![ Token::make_keyword("SELECT"), Token::Whitespace(Whitespace::Space), - Token::Mult, + Token::Mul, Token::Whitespace(Whitespace::Space), Token::make_keyword("FROM"), Token::Whitespace(Whitespace::Space), @@ -872,7 +872,7 @@ mod tests { Token::Whitespace(Whitespace::Space), Token::make_keyword("SELECT"), Token::Whitespace(Whitespace::Space), - Token::Mult, + Token::Mul, Token::Whitespace(Whitespace::Space), Token::make_keyword("FROM"), Token::Whitespace(Whitespace::Space), @@ -904,7 +904,7 @@ mod tests { Token::Whitespace(Whitespace::Space), Token::make_keyword("SELECT"), Token::Whitespace(Whitespace::Space), - Token::Mult, + Token::Mul, Token::Whitespace(Whitespace::Space), Token::make_keyword("FROM"), Token::Whitespace(Whitespace::Space), @@ -932,7 +932,7 @@ mod tests { let expected = vec![ Token::make_keyword("SELECT"), Token::Whitespace(Whitespace::Space), - Token::Mult, + Token::Mul, Token::Whitespace(Whitespace::Space), Token::make_keyword("FROM"), Token::Whitespace(Whitespace::Space), @@ -1010,7 +1010,7 @@ mod tests { Token::Whitespace(Whitespace::Newline), Token::make_keyword("SELECT"), Token::Whitespace(Whitespace::Space), - Token::Mult, + Token::Mul, Token::Whitespace(Whitespace::Space), Token::make_keyword("FROM"), Token::Whitespace(Whitespace::Space),