cara, conheço um projet interessante que pode te ajudar ou servir como referência na gringa, ainda não olhei, mas tenho visto o criador publicar artigos sobre ele e tenho lidos alguns e parece efetivamente rerlevante. um dos dados que eu sei é que ele sofreu 600 e tantos ataques de prompt injection e acho que só 2 ou 4 surtiram efeito. Parece que ele se baseou em uma arquitetura parecida com os 3 poderes, com responsabilidades únicas e limitantes, ou sejam, ambos precisam funcionar adequadamente
Self-Alignment Framework
https://selfalignmentframework.com › safi
SAFi is an open-source runtime governance engine that gives organizations full control, transparency, and consistency over their AI systems