LLM Guard: Kit de Herramientas de Código Abierto para Proteger Modelos de Idiomas Grandes
LLM Guard: Kit de Herramientas de Código Abierto para Proteger Modelos de Idiomas Grandes
21 September 2023
El kit de herramientas de código abierto proporciona evaluadores para entradas y salidas de LLM, que ofrecen características como desinfección, detección de lenguaje dañino, prevención de fugas de datos y protección contra ataques de inyección rápida y jailbreak.