Você está na página 1de 1

ANÁLISE LÉXICA E SINTÁTICA

Análise léxica na ciência da computação é o processo de converter uma


sequência de caracteres que são programas de computador ou página da
web em um tokens. O programa que faz este tipo de conversão pode ser
denominado de lexer, tokenizer, ou escanner. Um lexer é combiado com
um analisador, que juntos analisa a sintax da linguagem que está sendo
programada.
PRIMEIRO ESTADO DA ANÁLISE
A primeira etapa ocorre quando lê a entrada de caractere, um de cada vez,
mudando o estado de caractere que se encontram. Quando o analisador
encontra um caractere que não esteja correto, ele trata como “estado
morto” então, ele volta a última análise que foi aceita e tem comprimento
léxico validado.
Um léxico forma uma lista de caractere do tipo correto. Para construir um
símbolo, o analisador léxico necessita de um segundo estado.
SEGUNDO ESTADO DA ANÁLISE
São repassados os caracteres do léxico para produzir um valor. O tipo léxico
combinado com seu valor é o que adequadamente constitui um símbolo,
que pode ser dado a um parser.
O paser em vez de acumular ele renomeia seus caracteres individualmente.
O paser passa a preocupar com questões sintáticas. Isto leva a eficiência de
programação, e não eficiência de execução.

ANÁLISE SINTÁTICA
O objetivo da análise sintática é verificar se uma determinada gramática
com sequência de números e símbolos está correta. O analisador sintático
reconhece a forma da frase, caso a frase são esteja de acorda com as
normas estabelecidas o analisador irá verificar e apontar um erro de
sintaxe.

Você também pode gostar