Los investigadores automatizaron el Jailbreak de LLM Con Otros LLM
Los investigadores automatizaron el Jailbreak de LLM Con Otros LLM
09 December 2023
Los investigadores han desarrollado una técnica automatizada de aprendizaje automático, llamada TAP, que puede explotar rápidamente vulnerabilidades en modelos de lenguaje grande (LLM) y hacer que produzcan respuestas dañinas y tóxicas.