Skip to content

Instantly share code, notes, and snippets.

@nikeyes
Last active June 6, 2025 04:38
Show Gist options
  • Select an option

  • Save nikeyes/6508efd38b7263a598c24e73d725835b to your computer and use it in GitHub Desktop.

Select an option

Save nikeyes/6508efd38b7263a598c24e73d725835b to your computer and use it in GitHub Desktop.
Herramienta Tipo de guardrail Descripción
Amazon Bedrock Guardrails Evalua entradas y salidas Servicio administrado de AWS que permite configurar políticas de seguridad personalizables. Controlando contenido inapropiado, alucinaciones y protege información sensible.
LLM Guard by Protect AI Evalua entradas y salidas Saneamiento de la entrada, detección de lenguaje dañino, prevención de fuga de datos y resistencia contra ataques de inyección de prompts.
protectai/rebuff Evalua entradas y crea señuelos Detector de inyección de prompts - Heurísticas, detección basada en LLMs, VectorDB para ataques previos, CanaryTokens.
deadbits/vigil Evalua entradas y crea señuelos Detector de inyección de prompts - Heurísticas/YARA, detección basada en LLMs, VectorDB scanner, Tokens señuelo, Similitud de respuesta de prompts.
NVIDIA/NeMo-Guardrails Evalua salidas Kit de herramientas de código abierto para añadir fácilmente barreras de seguridad programables a aplicaciones conversacionales basadas en LLM.
amoffat/HeimdaLLM Evalua salidas Framework de análisis estático para validar que la salida estructurada generada por un LLM sea segura. Actualmente solo soporta SQL.
guardrails-ai/guardrails Evalua entradas y salidas Barreras de entrada/salida que detectan, cuantifican y mitigan la presencia de varios tipos de riesgos.
whylabs/langkit Evalua entradas y salidas Kit de herramientas de código abierto para monitorizar LLMs. Actualmente soporta estas métricas
Llama Guard 3 Evalua entradas y salidas Modelo especializado de Meta diseñado para clasificar contenido potencialmente dañino en 13 categorías. Por ejemplo: S1-Crímenes violentos, S11-Autolesiones o S13-Elecciones. Actua como filtro tanto para prompts como para respuestas en sistemas LLM.
Prompt Guard Evalua entradas Modelo de clasificación desarrollado por Meta para detectar intentos específicos de inyección de prompts y técnicas de jailbreak.
CodeShield Validación de seguridad en código Herramienta de PurpleLlama (Meta) especializada en escanear código generado por LLMs para identificar potenciales vulnerabilidades de seguridad y malas prácticas de desarrollo.
Fiddler Guardrails Evalua entradas y salidas Modera tanto prompts como respuestas en tiempo real y te protege contra riesgos como alucinaciones, violaciones de seguridad y ataques de inyección. Tiene muy poca latencia.
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment