Anthropic sur Twitter : "We examine which safety techniques for LMs are more robust to human-written, adversarial inputs ..."
Tags:
Au sujet de ce document
Infos sur le fichier