Com a possibilidade de contextos virtualmente infinitos, a IA vai dominar a codifação
Na verdade? Não, a janela de contexto de um LLM funciona de forma parecido com a equação do foguete, quanto mais o contexto cresce, mais compressão com perdas o modelo faz para buscar tópicos e ironicamente mais degradada a informação se torna e mais s ia alucina