Los investigadores automatizaron el Jailbreak de LLM Con Otros LLM

Los investigadores han desarrollado una técnica automatizada de aprendizaje automático, llamada TAP, que puede explotar rápidamente vulnerabilidades en modelos de lenguaje grande (LLM) y hacer que produzcan respuestas dañinas y tóxicas.

>>Más