¿Qué es?

El proceso de dividir el texto original en tokens se llama tokenización.