1. LLM Guard是一个旨在增强大型语言模型(LLMs)安全性的工具包,可轻松集成和部署在生产环境中。 2. 它提供了广泛的评估器,用于LLMs的输入和输出,包括清理、检测有害语言和数据泄漏,以及防止注入和越狱攻击。 3. 该工具包旨在简化公司对LLMs的安全采用,通过提供一站式的必要工具,希望成为市场首选的开源安全工具...