Question du test Natural Language Processing - Les bases

La tokenisation est le processus de séparation du texte en mots ou groupes de mots.