Tokenisation

La tokenisation est une étape du traitement du langage naturel (NLP) qui consiste à découper un texte en unités plus petites, appelées tokens. Ces tokens peuvent être des mots, des symboles ou des phrases.

Niveau

intermediaire

Vous cherchez un autre mot ? Essayez la recherche rapide ci-dessous :

Partager cette page

Review My Order

0

Subtotal