Accueil » Dictionnaire fondamentaux du numérique » RLHF – Reinforcement Learning with Human Feedback

RLHF – Reinforcement Learning with Human Feedback

Le RLHF signifie Reinforcement Learning with Human Feedback (apprentissage par renforcement avec retour humain).
C’est une méthode où des humains notent les réponses du modèle pour l’aider à apprendre ce qui est « bon » ou « mauvais ».
On fait « jouer » le modèle, et des personnes lui disent si ses réponses sont pertinentes.
Grâce à ces retours, il apprend à répondre comme un humain le souhaite.

Niveau

intermediaire

Vous cherchez un autre mot ? Essayez la recherche rapide ci-dessous :

Partager cette page

Review My Order

0

Subtotal