Meus 2 cents,
Obrigado por compartilhar !
Este eh um conteudo bem interessante - abordando muito da cultura interna da empresa: afinal eh curioso saber como eles lidam com a pressao constante por liderar a corrida de IA.
Pontos que me chamaram a atencao:
Algo incomum na OpenAI é que tudo, e realmente tudo, funciona via Slack. Não existe e-mail.
A OpenAI é incrivelmente bottoms-up, especialmente em pesquisa. Quando entrei, perguntei sobre o roadmap para o próximo trimestre. A resposta que recebi foi: “isso não existe” (embora agora exista). Boas ideias podem vir de qualquer lugar, e muitas vezes não fica claro quais serão promissoras. Em vez de um grande “plano mestre”, o progresso é iterativo e emerge conforme novas pesquisas surgem.
Muitos líderes extremamente competentes não eram bons em apresentações em all-hands ou em manobras políticas — isso importa menos na OpenAI porque as melhores ideias tendem a vencer.
Há uma forte predisposição para agir (bias to action), ou seja, você pode simplesmente iniciar algo. Não era incomum equipes similares, mas independentes, convergirem para ideias semelhantes.
Quase tudo é insignificante perto dos custos com GPU. Para dar uma ideia: um recurso nichado desenvolvido para o Codex tinha a mesma pegada de custo de GPU que toda a nossa infraestrutura do Segment (não na mesma escala do ChatGPT, mas ainda assim com tráfego considerável).
Isso torna a OpenAI um lugar muito secreto. Não podia contar em detalhes no que estava trabalhando. Há vários workspaces no Slack com permissões diferentes. Números de receita e gastos são bastante protegidos.
As equipes na OpenAI são muito mais fluidas do que em outros lugares.
O código vence. Em vez de haver um comitê de arquitetura ou planejamento central, as decisões são geralmente tomadas pela equipe que planeja executar o trabalho. Isso resulta numa forte bias para ação, mas também frequentemente gera partes duplicadas da base de código. Eu devo ter visto meia dúzia de bibliotecas para coisas como gerenciamento de filas ou loops de agentes.
A OpenAI usa um monorepo gigante, composto principalmente por Python (embora haja um crescimento de serviços em Rust e alguns em Golang, como proxies de rede). Isso gera muito código com estilos diversos — de bibliotecas escaláveis feitas por ex-Google de 10 anos com soluções improvisadas em Jupyter notebooks por PhDs recém-formados. Quase tudo opera via FastAPI (para APIs) e Pydantic (para validação), mas não há guias de estilo amplamente aplicados.
A OpenAI roda tudo na Azure. Curiosamente, há apenas três serviços que considero confiáveis: Azure Kubernetes Service, CosmosDB (armazenamento de documentos) e BlobStore.
Recentemente, vi números públicos comparando PRs gerados por diferentes agentes LLM. Só nos números públicos, o Codex já gerou 630.000 PRs. Isso representa cerca de 78 mil PRs públicos por engenheiro nos primeiros 53 dias após o lançamento. Dá para imaginar quantos PRs privados foram feitos.
Saude e Sucesso !