Analisis leksikal

Dalam sains komputer, analisis leksikal merupakan proses menukarkan urutan aksara (seperti dalam program komputer atau laman web) ke dalam urutan token (rentetan dengan yang ditugaskan dan makna yang dikenal pasti). Satu program yang menjalankan analisis leksikal boleh disebut sebagai lexer, tokenizer,[1] atau pengimbas, walaupun pengimbas juga merupakan istilah untuk tahap pertama lexer. Lekser biasanya digabungkan dengan parser, yang bersama-sama menganalisis sintaks bahasa pengaturcaraan, laman web, dan sebagainya.

Rujukan

  1. ^ "Anatomy of a Compiler and The Tokenizer". www.cs.man.ac.uk.

Pautan luar

  • Yang, W.; Tsay, Chey-Woei; Chan, Jien-Tsai (2002). "On the applicability of the longest-match rule in lexical analysis". Computer Languages, Systems & Structures. Elsevier Science. 28 (3): 273–288. doi:10.1016/S0096-0551(02)00014-0. NSC 86-2213-E-009-021 and NSC 86-2213-E-009-079.
  • Trim, Craig (Jan 23, 2013). "The Art of Tokenization". Developer Works. IBM.
  • Perkataan Menyebut Segmen Tugas, analisis