Токен (лексический анализ)

То́кен (англ. token) — объект, создающийся из лексемы в процессе лексического анализа («токенизации», от англ. tokenizing).

В прикладном программировании понятие токена и его лексема могут не различаться.

Шаблон токена — формальное описание класса лексем, которые могут создать данный тип токена.

Источник: Википедия

а б в г д е ё ж з и й к л м н о п р с т у ф х ц ч ш щ э ю я