В информатике лексический анализ («токенизация», от англ. tokenizing) — процесс аналитического разбора входной последовательности символов на распознанные группы — лексемы, с целью получения на выходе идентифицированных последовательностей, называемых «токенами» (подобно группировке букв в словах). В простых случаях понятия «лексема» и «токен» идентичны, но более сложные токенизаторы дополнительно классифицируют лексемы по различным типам («идентификатор, оператор», «часть речи» и т. п.). Лексический анализ используется в компиляторах и интерпретаторах исходного кода языков программирования, и в различных парсерах слов естественных языков. (Википедия)
Развёрнутое толкование значения слов и словосочетаний, примеры употребления в различных значениях, фразеологизмы и устойчивые сочетания.
Синонимы и сходные по смыслу выражения, прямые и обратные ассоциации, информация о сочетаемости.
Примеры употребления в контексте из современных источников и из русской классической литературы.
Информация о правописании, таблицы склонения имён и спряжения глаголов, разбор по составу с графической схемой и указанием списка сходных по морфемному строению слов.