Guardrails AI
Добавление ограничений для больших языковых моделей
О Guardrails AI
Guardrails - это пакет на языке Python, который предоставляет пользователям возможность добавлять структуру, тип и контроль качества к результатам, генерируемым большими языковыми моделями (LLM). Guardrails AI:
- использует проверку в стиле pydantic для тщательной проверки результатов работы LLM, включая обнаружение каких-либо предубеждений, ошибок или других неправильностей.
- имеет возможность предпринимать корректирующие меры при неудачной проверке,
- гарантирует, что сгенерированный вывод соответствует определенным требованиям к структуре и типу, таким как формат JSON.
Читать на английском