Executando verificação de segurança...
2

cara, conheço um projet interessante que pode te ajudar ou servir como referência na gringa, ainda não olhei, mas tenho visto o criador publicar artigos sobre ele e tenho lidos alguns e parece efetivamente rerlevante. um dos dados que eu sei é que ele sofreu 600 e tantos ataques de prompt injection e acho que só 2 ou 4 surtiram efeito. Parece que ele se baseou em uma arquitetura parecida com os 3 poderes, com responsabilidades únicas e limitantes, ou sejam, ambos precisam funcionar adequadamente

Self-Alignment Framework
https://selfalignmentframework.com › safi
SAFi is an open-source runtime governance engine that gives organizations full control, transparency, and consistency over their AI systems

Carregando publicação patrocinada...
1

massa a referência, vou dar uma olhada com mais calma sim.

pelo que vi por cima, o SAFi parece ir mais pra um lado de governança/alinhamento de valores e auditoria de decisões em runtime. é uma ideia bem interessante.

o AkitaLLM acaba atacando um problema diferente: uso disciplinado de LLM em engenharia de software, com pipeline explícito (analyze → plan → execute → validate), validação, diffs, rollback e testes. a ideia é tirar o “modo autocomplete” e forçar previsibilidade.

no fundo acho que os dois têm algo em comum, que é reduzir a caixa-preta da IA, mas cada um em um nível diferente da stack.