Eric sur Twitter : "...Introducing Direct Preference Optimization (DPO), a simple classification loss provably equivalent to RLHF"
Tags:
Au sujet de ce document
Infos sur le fichier
Documents with similar tags (experimental)