[OPENAI] OpenAI DevDay 2025: Opening Keynote with Sam Altman (resumo e mindmap)
Para quem gosta de seguir, saiu a pouco a abertura do OpenAI DevDay:
https://www.youtube.com/watch?v=hS1YqcewH0c
Ainda absorvendo, mas parece ter varias coisas legais (como API SDK APP, AgentKit, SORA 2 API).
Um resumo feito pelo NotebookLM da apresentacao:
1. Aplicativos dentro do ChatGPT (Apps SDK)
O foco deste tópico é tornar possível a criação de aplicativos nativos dentro do ChatGPT, facilitando a distribuição para os desenvolvedores.
- Anúncio Principal: Lançamento do novo Apps SDK (Software Development Kit), disponível em preview.
- Funcionalidade: O Apps SDK permite criar uma nova geração de aplicativos que são interativos, adaptativos e personalizados e com os quais se pode conversar. Os desenvolvedores têm acesso à full stack, podendo conectar dados, acionar ações e renderizar uma UI (Interface do Usuário) totalmente interativa.
- Tecnologia e Alcance: O Apps SDK é construído sobre o padrão MCP (Media Control Protocol), que é um padrão aberto que a OpenAI tem utilizado. Aplicativos construídos com o Apps SDK podem alcançar centenas de milhões de usuários do ChatGPT.
- Descoberta e Monetização: Os aplicativos podem ser encontrados ao serem solicitados pelo nome (por exemplo, "Figma, transforme este rascunho em um diagrama") ou sugeridos pelo ChatGPT durante a conversa, quando relevantes (por exemplo, sugerindo o Spotify para criar uma playlist). No futuro, a monetização será suportada, incluindo o novo Protocolo Agentic Commerce, que oferece checkout instantâneo dentro do ChatGPT.
- Experiências Dinâmicas: Exemplos de uso demonstraram como o Apps SDK permite experiências ricas em vídeo (Coursera) e visuais (Canva, Zillow), onde o aplicativo expõe o contexto de volta ao ChatGPT, permitindo que o modelo entenda exatamente o que o usuário está interagindo, como filtrar resultados em um mapa interativo da Zillow.
2. Construção de Agentes Mais Simples (AgentKit)
A OpenAI está focada em simplificar a construção de Agentes — software que pode assumir tarefas com contexto, ferramentas e confiança — pois poucos agentes atualmente chegam à produção devido à complexidade de orquestração e loops de avaliação.
- Anúncio Principal: Lançamento do AgentKit, um conjunto completo de blocos de construção na plataforma OpenAI, projetado para levar agentes do protótipo à produção de forma mais rápida e com menos atrito. O AgentKit está disponível para todos os desenvolvedores a partir de hoje.
- Componentes do AgentKit:
- Agent Builder: Uma forma visual rápida de projetar etapas lógicas, testar fluxos e enviar ideias, baseado na Responses API. Ele utiliza blocos de construção comuns como ferramentas, intervenção humana (human in the loop), guardrails (barreiras de segurança) e nós lógicos.
- ChatKit: Oferece uma interface de chat simples e incorporável para levar excelentes experiências de chat diretamente para os aplicativos dos desenvolvedores, permitindo foco na marca e fluxos de trabalho exclusivos.
- Evals for Agents: Novos recursos dedicados à medição de desempenho de agentes, incluindo rastreamento de classificação para entender decisões passo a passo, conjuntos de dados para avaliar nós de agentes individuais, otimização automatizada de prompts, e a capacidade de rodar avaliações em modelos externos.
- Connector Registry: Permite conectar agentes de forma segura a ferramentas internas e sistemas de terceiros através de um painel de controle administrativo.
- Exemplos de Uso: Albertsons usou o AgentKit para criar um agente que analisa o contexto completo (sazonalidade, tendências) de uma queda de vendas e fornece recomendações. HubSpot usou-o para melhorar a ferramenta de IA Breeze para fornecer respostas detalhadas a clientes, buscando informações em bases de conhecimento e políticas. Uma demonstração ao vivo mostrou a construção de um agente funcional ("Ask Froge") em menos de 8 minutos usando o Agent Builder visual, adicionando guardrails e widgets personalizados.
3. Facilidade na Escrita de Software (Codex)
A IA está acelerando dramaticamente o processo de desenvolvimento de software, permitindo que construtores criem produtos mais rapidamente.
- Anúncio Principal: O Codex, o agente de engenharia de software da OpenAI, saiu do research preview e está oficialmente em GA (General Availability).
- Modelo Aprimorado: O Codex agora roda no novo modelo GPT5-CODEX, uma versão do GPT-5 treinada especificamente para o Codex e codificação agêntica. Este modelo se destaca em tarefas como refatoração e revisão de código, e pode ajustar dinamicamente o tempo de "pensamento" conforme a complexidade da tarefa.
- Impacto e Uso: A utilização do Codex cresceu rapidamente, com as mensagens diárias (tarefas e conversas com o Codex) aumentando 10 vezes desde o início de agosto. Internamente na OpenAI, engenheiros que usam o Codex completam 70% mais pull requests por semana. Empresas como a Cisco estão usando o Codex, o que resultou em revisões de código 50% mais rápidas e na redução da linha do tempo média de projetos de semanas para dias.
- Novos Recursos para Equipes: Foram introduzidos novos recursos para equipes de engenharia, incluindo integração com Slack, um novo Codex SDK para estender e automatizar o Codex nos fluxos de trabalho das equipes, e novas Ferramentas de Administração e Relatórios para empresas (controles de ambiente, monitoramento e painéis analíticos).
- Desenvolvimento por Conversa: Uma demonstração mostrou como usar o Codex para transformar um rascunho, voz e dispositivos físicos (como uma câmera Sony FR7 e um controlador Xbox) em software funcional, implementando protocolos complexos e integrando sistemas de iluminação, tudo via prompt ou voz, sem escrever código manualmente.
4. Atualizações de Modelos e APIs
Os modelos subjacentes continuam a receber atualizações significativas para expandir o que é possível.
- GPT-5 Pro: Recentemente lançado, é o modelo mais inteligente que a OpenAI já enviou. Foi lançado na API, estando disponível para todos os desenvolvedores hoje. É ideal para auxiliar em tarefas difíceis que exigem alta precisão e profundidade de raciocínio em domínios como finanças, jurídico ou saúde.
- Sora 2 em Preview na API: Uma prévia do modelo Sora 2 foi lançada na API, dando aos desenvolvedores acesso ao mesmo modelo que gera vídeos impressionantes.
- O Sora 2 tem um grande salto em controlabilidade, respondendo a instruções detalhadas e mantendo o estado.
- Uma das evoluções mais empolgantes é a capacidade de sincronizar som com visuais, incluindo paisagens sonoras ricas, áudio ambiente e efeitos sincronizados.
- O modelo suporta flexibilidade em termos de duração do vídeo, proporção e resolução, e é ótimo para desenvolvimento rápido de conceitos, como na geração de concepts para anúncios de e-commerce (Mattel está usando para transformar esboços em ideias visuais rapidamente).
- GPT-Realtime-Mini: Um modelo de voz menor e 70% mais barato que a versão anterior, mantendo a mesma qualidade e expressividade de voz. A OpenAI acredita que a voz se tornará uma das principais formas de interação com a IA.
Pedi tambem para o NotebookLM do google (que ironia...) fazer um mindmap da apresentacao:
