LLM Guard: Boîte à outils Open Source pour Sécuriser les Modèles de Langage Volumineux

La boîte à outils open source fournit des évaluateurs pour les entrées et les sorties des LLM, offrant des fonctionnalités telles que la désinfection, la détection des langages nuisibles, la prévention des fuites de données et la protection contre les injections rapides et les attaques de jailbreak.

>>Plus