Guardrails
“LLMs geram texto de forma probabilística. Independente do modelo ou da qualidade do prompt, existe sempre a possibilidade de o output conter informação incorreta apresentada com alta confiança. Reduzir alucinações é possível (com RAG, few-shot, instruções mais precisas), mas eliminá-las completamente não é. O que você pode fazer é detectar e tratar respostas problemáticas antes que cheguem ao usuário. Essa camada de proteção é o que chamamos de guardrails.” – Guardrails para LLMs em produção: o que validar antes e depois da geração, Alberto Souza ...