From fcb28cc03f93a4b00ec181a8492432dfa0e5fa11 Mon Sep 17 00:00:00 2001
From: Ferenc Szontágh <szf@fsociety.hu>
Date: Fri, 18 Apr 2025 06:00:25 +0000
Subject: [PATCH] replace hungarian comment to english
---
src/Parser/Parser.hpp | 76 ++++++++++++++++++-------------------
1 files changed, 37 insertions(+), 39 deletions(-)
diff --git a/src/Parser/Parser.hpp b/src/Parser/Parser.hpp
index 92461bb..5996bab 100644
--- a/src/Parser/Parser.hpp
+++ b/src/Parser/Parser.hpp
@@ -32,7 +32,7 @@
formattedMessage_ = formatMessage();
}
- Exception(const std::string & msg, std::string & expected, int line, int col) {
+ Exception(const std::string & msg, const std::string & expected, int line, int col) {
rawMessage_ = msg;
if (expected.empty() == false) {
rawMessage_ += " (expected: " + expected + ")";
@@ -56,23 +56,23 @@
size_t current_token_index_;
std::string current_filename_;
- // Token Stream Kezelő és Hibakezelő segédfüggvények (változatlanok)
+ // Token stream handling and error-reporting helper functions (unchanged)
const Lexer::Tokens::Token & currentToken() const {
if (isAtEnd()) {
- // Technikailag itt már nem kellene lennünk, ha a parseProgram ciklus jól van megírva
- // De biztonsági ellenőrzésként jó lehet
+ // Technically we should never reach this if parseScript's loop is correct
+ // But it's useful as a safety check
if (!tokens_.empty() && tokens_.back().type == Lexer::Tokens::Type::END_OF_FILE) {
- return tokens_.back(); // Visszaadjuk az EOF tokent
+ return tokens_.back(); // return the EOF token
}
throw std::runtime_error("Unexpected end of token stream reached.");
}
return tokens_[current_token_index_];
}
- // Előre néz a token stream-ben
+ // Look ahead in the token stream
const Lexer::Tokens::Token & peekToken(size_t offset = 1) const {
if (current_token_index_ + offset >= tokens_.size()) {
- // EOF vagy azon túl vagyunk, adjuk vissza az utolsó tokent (ami EOF kell legyen)
+ // If at or beyond EOF, return the last token (should be EOF)
if (!tokens_.empty()) {
return tokens_.back();
}
@@ -81,7 +81,7 @@
return tokens_[current_token_index_ + offset];
}
- // Elfogyasztja (lépteti az indexet) az aktuális tokent és visszaadja azt
+ // Consume (advance past) the current token and return it
Lexer::Tokens::Token consumeToken() {
if (isAtEnd()) {
throw std::runtime_error("Cannot consume token at end of stream.");
@@ -89,8 +89,8 @@
return tokens_[current_token_index_++];
}
- // Ellenőrzi, hogy az aktuális token típusa megegyezik-e a várttal.
- // Ha igen, elfogyasztja és true-t ad vissza. Ha nem, false-t ad vissza.
+ // Check if current token type matches the expected type
+ // If so, consume it and return true; otherwise return false
bool match(Lexer::Tokens::Type expected_type) {
if (isAtEnd()) {
return false;
@@ -102,8 +102,8 @@
return false;
}
- // Ellenőrzi, hogy az aktuális token típusa és értéke megegyezik-e a várttal.
- // Csak OPERATOR és PUNCTUATION esetén érdemes használni az érték ellenőrzést.
+ // Check if current token type and value match the expected ones
+ // Only use value checking for operators and punctuation
bool match(Lexer::Tokens::Type expected_type, const std::string & expected_value) {
if (isAtEnd()) {
return false;
@@ -125,11 +125,11 @@
return consumeToken();
}
reportError("Expected token type " + Lexer::Tokens::TypeToString(expected_type));
- // A reportError dob, ez a return sosem fut le, de a fordító kedvéért kellhet:
- return token; // Vagy dobjon a reportError
+ // reportError throws; this return is never reached, but may satisfy the compiler
+ return token; // or let reportError throw
}
- // Mint az expect, de az értékét is ellenőrzi.
+ // Like expect, but also checks the token's value
Lexer::Tokens::Token expect(Lexer::Tokens::Type expected_type, const std::string & expected_value) {
if (isAtEnd()) {
reportError("Unexpected end of file, expected token: " + Lexer::Tokens::TypeToString(expected_type) +
@@ -141,18 +141,18 @@
}
reportError("Expected token " + Lexer::Tokens::TypeToString(expected_type) + " with value '" + expected_value +
"'");
- return token; // reportError dob
+ return token; // reportError throws
}
- // Ellenőrzi, hogy a releváns tokenek végére értünk-e (az EOF előtti utolsó tokenen vagyunk-e)
+ // Check if we've reached the end of relevant tokens (just before EOF)
bool isAtEnd() const {
- // Akkor vagyunk a végén, ha az index a tokenek méretével egyenlő,
- // vagy ha már csak az EOF token van hátra (ha az a lista utolsó eleme).
+ // We're at the end if the index equals the number of tokens,
+ // or if only the EOF token remains (as the last element)
return current_token_index_ >= tokens_.size() ||
(current_token_index_ == tokens_.size() - 1 && tokens_.back().type == Lexer::Tokens::Type::END_OF_FILE);
}
- [[noreturn]] void reportError(const std::string & message, const std::string expected = "") {
+ [[noreturn]] void reportError(const std::string & message, const std::string& expected = "") {
if (current_token_index_ < tokens_.size()) {
throw Exception(message, expected, tokens_[current_token_index_]);
}
@@ -161,7 +161,7 @@
throw Exception(message, expected, line, col);
}
- // parseStatement (változatlan)
+ // parseStatement (unchanged)
void parseStatement() {
const auto & token_type = currentToken().type;
@@ -170,11 +170,10 @@
return;
}
- for (const auto & _type : Parser::Parser::variable_types) {
- if (token_type == _type.first) {
- parseVariableDefinition();
- return;
- }
+ // Variable definition if leading token matches a type keyword
+ if (Parser::variable_types.find(token_type) != Parser::variable_types.end()) {
+ parseVariableDefinition();
+ return;
}
reportError("Unexpected token at beginning of statement");
@@ -183,19 +182,18 @@
void parseVariableDefinition();
void parseFunctionDefinition();
- // --- Elemzési Segédfüggvények ---
+ // --- Parsing helper functions ---
// type : KEYWORD_STRING | KEYWORD_INT | KEYWORD_DOUBLE
- // Visszaadja a megfelelő Symbols::Variables::Type enum értéket és elfogyasztja a tokent.
+ // Returns the corresponding Symbols::Variables::Type enum and consumes the token
Symbols::Variables::Type parseType() {
const auto & token = currentToken();
- for (const auto & _type : Parser::variable_types) {
- if (token.type == _type.first) {
- consumeToken();
- return _type.second;
- }
+ // Direct lookup for type keyword
+ auto it = Parser::variable_types.find(token.type);
+ if (it != Parser::variable_types.end()) {
+ consumeToken();
+ return it->second;
}
-
reportError("Expected type keyword (string, int, double, float)");
}
@@ -203,15 +201,15 @@
Lexer::Tokens::Token token = currentToken();
bool is_negative = false;
- // Előjel kezelése
+ // Handle unary sign
if (token.type == Lexer::Tokens::Type::OPERATOR_ARITHMETIC && (token.lexeme == "-" || token.lexeme == "+") &&
peekToken().type == Lexer::Tokens::Type::NUMBER) {
is_negative = (token.lexeme == "-");
token = peekToken();
- consumeToken(); // előjelet elfogyasztottuk
+ consumeToken(); // consumed the sign
}
- // STRING típus
+ // STRING type
if (expected_var_type == Symbols::Variables::Type::STRING) {
if (token.type == Lexer::Tokens::Type::STRING_LITERAL) {
consumeToken();
@@ -220,7 +218,7 @@
reportError("Expected string literal value");
}
- // BOOLEAN típus
+ // BOOLEAN type
if (expected_var_type == Symbols::Variables::Type::BOOLEAN) {
if (token.type == Lexer::Tokens::Type::KEYWORD && (token.value == "true" || token.value == "false")) {
consumeToken();
@@ -229,7 +227,7 @@
reportError("Expected boolean literal value (true or false)");
}
- // NUMERIC típusok
+ // NUMERIC types
if (expected_var_type == Symbols::Variables::Type::INTEGER ||
expected_var_type == Symbols::Variables::Type::DOUBLE ||
expected_var_type == Symbols::Variables::Type::FLOAT) {
--
Gitblit v1.9.3