Executando verificação de segurança...
5

Model Context Protocol - Uma explicação mais lúdica sem abrir mão do tecniquês

Integrando IA e Sistemas com MCPs: A Revolução das Integrações Padronizadas

Trabalho com desenvolvimento de Inteligências Artificiais há exatamente 5 anos. Em 2020, ingressei na maior empresa de IA do Brasil, a Stilingue, após algumas aventuras empreendedoras (histórias que ficarei para um próximo post). Depois, passei a atuar na Moveo AI, uma das maiores empresas de IA da Europa, que está entrando com força no mercado brasileiro de agentes conversacionais. Em suma, tenho trabalhado na implementação do que há de mais inovador no mercado de IA há bons anos.

Contudo, nesse cenário de tanto hype, é notório que circula muita "bullshitagem" – mentores que pouco entendem do assunto e pessoas que exageram ao afirmar que a IA vai roubar empregos e, em breve, chegar à temida AGI (Inteligência Geral Artificial). Minha opinião sincera é que estamos longe disso: as LLMs (Large Language Models) não se transformarão em AGIs, pelo menos não com os métodos de treinamento que usamos atualmente. Mas esse é um assunto para outro post.

Hoje, quero abordar um tópico que realmente chamou minha atenção: o novo Model Context Protocol (MCP) da Anthropic.

Quem é a Anthropic e Por Que Importa?

Para quem não sabe, a Anthropic é uma das maiores empresas de IA do mundo, responsável pelo Claude – um dos principais concorrentes do GPT. Na minha opinião, eles têm se destacado por produzir conteúdo de qualidade para a comunidade open source. Enquanto muitos falam em estudar IA e aprender a escrever prompts, a verdade é que quase ninguém realmente sabe como otimizar as respostas dos agentes a partir dos “rags” (regras de consulta e formatação). Durante meses, procurei conteúdos profundos sobre o assunto e encontrei apenas explicações genéricas, até descobrir o artigo da Anthropic sobre prompt engineering, que abriu meus olhos para novas possibilidades.

O Que São os MCPs e Por Que São Diferentes?

Para entender o diferencial dos MCPs, é necessário contextualizar o desenvolvimento e a integração da IA no ambiente corporativo. Embora a IA exista há décadas – a Stilingue, por exemplo, já a utilizava intensivamente desde 2015 – foi só a partir de 2022 que a discussão ganhou força. Isso ocorreu graças à OpenAI, que apostou numa tese inovadora de uso de machine learning e surpreendeu o mundo com seus resultados.

Como as LLMs Funcionam

O conceito básico de IA é simples: você fornece um conjunto de parâmetros de entrada e saída, alimenta a máquina com dados de treino e ela identifica padrões para, posteriormente, gerar respostas a partir de inputs que não estavam na base de treino. Um vídeo de um dos meus YouTubers favoritos explica esse processo de forma prática.

Os “malucos” da OpenAI resolveram treinar suas IAs com uma quantidade imensa de conteúdo – livros, documentos, sites, posts, blogs, etc. – para que elas aprendessem como funciona a linguagem humana. Assim, quando se passava uma frase incompleta como input (por exemplo, “Pai nosso que estais no céu”), a IA completava com base no que achava mais provável (“Santificado seja o vosso nome”). Inicialmente, ela era boa nisso; mas quando se passaram inputs mais complexos, a expectativa era de que a IA “alucinasse” respostas incoerentes. Durante anos, houve tentativas e erros – inclusive fui beta tester do GPT 2.5, que era, convenhamos, horrível. Finalmente, os resultados melhoraram e o mundo da IA mudou para sempre.

O Nascimento das LLMs e a Necessidade de Prompts

Com a chegada das Language Large Models – as LLMs, ou IAs generativas – surgiram novas possibilidades: essas IAs mostraram grande capacidade em responder perguntas, reescrever textos, corrigir códigos e executar tarefas que dependem exclusivamente de inputs e outputs textuais. Assim, a escrita de prompts personalizados se tornou essencial para melhorar a qualidade dos outputs.

Hoje, todos utilizam o ChatGPT para realizar tarefas complexas. Não vou nem entrar no mérito dos modelos de difusão (para geração de vídeos, imagens, áudio etc.), pois esse é outro assunto igualmente fascinante.

A Evolução da Integração com Ferramentas Externas

Um aspecto interessante é como as LLMs passaram a “pesquisar” na internet. Originalmente, elas completavam frases com base unicamente na probabilidade derivada dos dados de treino. Mas, em um primeiro momento, o GPT, por exemplo, só respondia com informações até 2023, data do último treinamento. Aí veio a sacada: podemos instruir a LLM a retornar uma “query” no formato, por exemplo, {{ 'query': 'quem é o presidente do Brasil?' }}. Essa resposta é então processada por um código que efetua a pesquisa na internet, coleta os dados, repassa para a LLM e, finalmente, gera uma resposta enriquecida. Essa abordagem, que cria a ilusão de que a IA “pesquisou” por conta própria, na verdade utiliza uma ferramenta externa.

Nos últimos meses, à medida que o conceito de agentes ganhou força, milhares de integrações foram desenvolvidas com esse objetivo – cada uma à sua maneira, com prompts personalizados e consultas específicas em servidores próprios. Inclusive, cada modelo de linguagem passou a criar integrações nativas; por exemplo, o próprio ChatGPT agora conta com ferramentas de busca e executores de código integrados.

O Impacto dos MCPs na Integração de Sistemas com LLMs

Até então, cada desenvolvedor criava sua própria integração de forma “caseira”. O Model Context Protocol (MCP) surge justamente para padronizar essa integração, oferecendo uma sintaxe simples e intuitiva, que qualquer iniciante em programação pode utilizar para conectar modelos LLM aos sistemas do dia a dia.

Essa padronização é revolucionária não porque permite algo que não era possível anteriormente – afinal, todas as integrações já eram possíveis –, mas porque cria uma base comum para o desenvolvimento. Agora, temos acesso a uma biblioteca gigante de integrações prontas com os principais sistemas existentes. Integrar LLMs com softwares que já usamos nunca foi tão simples, e isso tem um potencial transformador para os negócios.

O Momento Atual: Integração em Massa

O estágio atual da IA não é de “deixar a máquina trabalhar sozinha” e relaxar; estamos justamente na fase em que as empresas começam a integrar IA em seus sistemas. Esse é o cerne do meu trabalho diário: conectar chatbots de WhatsApp com CRMs, ERPs, planilhas, bancos de dados, etc. O mercado ainda está longe de ter todas essas integrações otimizadas com LLMs, mas os MCPs surgem como um verdadeiro “turbo” para acelerar esse processo, mudando para sempre a forma como desenvolvemos integrações com IA.

No fim das contas, o mais importante não é ter uma IA extremamente poderosa com bilhões de parâmetros, mas ter uma IA “mais simples” integrada a todos os sistemas essenciais do negócio. É exatamente por isso que os MCPs fazem tanto sentido no cenário atual.

Como Implementar os MCPs nos Seus Negócios

  • Atendimento ao Cliente Automatizado: Se você deseja automatizar, padronizar, otimizar e acompanhar seu atendimento ao cliente por meio de agentes de IA, entre em contato com a Moveo AI. A empresa, que opera internacionalmente e na qual lidero a operação no Brasil, está revolucionando o mercado com soluções inovadoras – muitos membros da comunidade já são clientes satisfeitos!
  • SaaS e Aplicativos: Se seu negócio possui um SaaS, um aplicativo ou qualquer camada de software, chegou a hora de integrá-los com LLMs para criar novas funcionalidades com agilidade.
  • Novos Negócios em Tech: Se você está pensando em empreender na área de tecnologia, minha aposta é investir em um negócio orientado 100% a MCPs. O potencial para transformar processos e criar soluções inovadoras é enorme.

Conclusão

Estamos em um momento decisivo para a integração de IA nos sistemas empresariais. A capacidade de padronizar as integrações com MCPs abre um leque imenso de possibilidades para otimizar processos, reduzir custos e aumentar a eficiência operacional. Fique atento às novidades, pois em breve publicarei uma aula completa em vídeo sobre esse assunto. Se você quer saber mais sobre tecnologia e inovação, acompanhe a nossa comunidade – há muito mais por vir!

Carregando publicação patrocinada...
3

Meus 2 cents:

Parabens pelo artigo - apesar do MCP ter sido proposto pela Anthropic, esta em vias de se tornar padrao (li em a OpenAI vai adotar o MCP).

Aproveitando o gancho, na pos que fiz sobre IA duas questoes foram debatidas: Chain-of-Thought (CoT) e Taxonomia de Bloom.

Enquanto CoT tambem ja esta se tornando padrao no uso mainstream (acho que o Deepseek foi o primeiro que popularizou isso via botao 'thinking') e diversos LLMs estao implantando algum uso de CoT para analise e refinamento de saida, nao vejo muitos comentarios sobre o uso da Taxonomia de Bloom como base para construcao de prompts mais eficientes.

Voce tem alguma opiniao sobre este ponto ?

2

Fala 0letros!

Cara, nunca tinha ouvido falar da Taxonomia de Bloom — muito massa! Se quiser deixar um comentário aqui com um resuminho pra galera, super apoio. Inclusive, me coloco à disposição pra escrever um artigo mais completo ou até gravar um vídeozinho sobre o tema. Curto demais esse tipo de conteúdo mais denso sobre IA, até porque, sejamos honestos, 90% do que tem por aí é só superficialidade pra curioso...

Sobre Chain of Thought (CoT), o que mais me instiga é justamente essa questão de ensinar a LLM a "dosar energia": saber quando vale a pena usar um raciocínio mais profundo com múltiplas iterações, e quando uma resposta direta já resolve. Mais interessante ainda é pensar como essa gestão acontece por trás das cortinas, dentro de uma mesma task.

Tipo: o usuário pede “cria um foguete pra ir à lua”. A IA primeiro usa um modelo mais parrudo pra quebrar isso em sub-tarefas, e depois decide, pra cada uma, se dá pra resolver com uma abordagem rápida ou se exige um processamento mais robusto.

Acredito que essa seja uma das grandes dores de cabeça internas das big techs que trabalham com LLMs conversacionais.

Enfim, esse assunto rende fácil um segundo post! Se topar, comenta um pouquinho aqui sobre a Taxonomia de Bloom — dependendo da troca, já me animo a escrever algo juntando os dois temas. Tem tudo pra render uma baita discussão!

Abração, e valeu demais pelo engajamento!

2

Meus 2 cents:

Vou colocar abaixo um resumao (feito com ajuda de IA, obvio - mas revisada por humanos) que usei durante os estudos sobre IA junto com Taxonomia de Bloom.

E sim, eh um tema fascinante, especialmente quando ajuda as pessoas a entenderem melhor o que a IA pode ou nao fazer (e como ela faz).

Taxonomia de Bloom em Prompts

Como funciona a taxonomia de bloom no ambito de prompt

A Taxonomia de Bloom, uma hierarquia que classifica os níveis de habilidades cognitivas, pode ser uma ferramenta poderosa para elaborar prompts mais eficazes para modelos de linguagem. Ao estruturar seus prompts de acordo com os diferentes níveis da taxonomia, você pode direcionar o modelo para gerar respostas mais sofisticadas e alinhadas com seus objetivos.

Aqui está como a Taxonomia de Bloom se aplica à criação de prompts:

1. Lembrar (nível mais básico):
Objetivo: Recuperar informações específicas da memória.
Palavras-chave nos prompts: Liste, defina, identifique, nomeie, descreva, localize, recupere.
Exemplo: "Liste os três principais exportadores de café do mundo."

2. Compreender:
Objetivo: Interpretar e resumir informações.
Palavras-chave nos prompts: Explique, resuma, parafraseie, interprete, descreva, classifique, compare.
Exemplo: "Explique o processo de fotossíntese em suas próprias palavras."

3. Aplicar:
Objetivo: Usar informações aprendidas em novas situações.
Palavras-chave nos prompts: Aplique, demonstre, resolva, use, implemente, execute, calcule.
Exemplo: "Aplique a teoria da oferta e demanda para explicar o aumento recente no preço da gasolina."

4. Analisar:
Objetivo: Dividir informações em partes componentes para entender a estrutura e as relações.
Palavras-chave nos prompts: Analise, diferencie, compare, contraste, examine, categorize, investigue.
Exemplo: "Analise o impacto da mídia social no comportamento político dos jovens."

5. Avaliar:
Objetivo: Fazer julgamentos com base em critérios e padrões.
Palavras-chave nos prompts: Avalie, critique, justifique, defenda, argumente, recomende, priorize.
Exemplo: "Avalie a eficácia das políticas governamentais para combater as mudanças climáticas."

6. Criar (nível mais alto):
Objetivo: Gerar novas ideias, produtos ou soluções.
Palavras-chave nos prompts: Crie, projete, invente, desenvolva, formule, escreva, componha, proponha.
Exemplo: "Crie um slogan de marketing para um novo carro elétrico."

Como usar a Taxonomia de Bloom na prática:

  • Defina seu objetivo: Antes de escrever o prompt, determine qual nível cognitivo você deseja que o modelo utilize. Quer que ele simplesmente lembre informações ou crie algo novo?

  • Escolha as palavras-chave certas: Utilize as palavras-chave associadas ao nível cognitivo desejado para direcionar a resposta do modelo.

  • Seja específico: Quanto mais específico for o seu prompt, melhor o modelo poderá entender suas expectativas.

  • Itere e refine: Experimente diferentes prompts e níveis da taxonomia para obter os melhores resultados.

Exemplo prático:

Vcê quer que o modelo escreva sobre a Revolução Francesa.

Lembrar: "Liste os eventos principais da Revolução Francesa."

Compreender: "Explique as causas da Revolução Francesa."

Aplicar: "Como os ideais da Revolução Francesa influenciaram outros movimentos revolucionários?"

Analisar: "Compare e contraste o papel da monarquia e do povo na Revolução Francesa."

Avaliar: "A Revolução Francesa foi um sucesso? Justifique sua resposta."

Criar: "Escreva uma peça de teatro curta sobre um evento fictício que poderia ter acontecido durante a Revolução Francesa."

Utilizar a Taxonomia de Bloom na criação de prompts permite um controle mais preciso sobre a complexidade e o tipo de resposta gerada pelo modelo, levando a resultados mais relevantes e significativos. A prática e a experimentação são essenciais para dominar essa técnica.

Conclusao (humana)

Grosso modo, a Taxonomia de Bloom orienta sobre quais verbos usar na estruturacao do prompt - dessa forma ele vai compreender melhor qual o objetivo desejado e eventualmente pode ajudar a evitar alucinacoes (spoiler: nao ajuda tanto assim, mas eh melhor que a montagem nao estruturada que estamos acostumados a usar).

Algumas referencias sobre:

https://www.researchgate.net/publication/379485762_Erros_Comuns_de_Docentes_sem_Letramento_em_Inteligencia_Artificial_uma_Revisao_Integrativa_para_o_Ensino_Superior

https://www.researchgate.net/publication/375000428_ROTINA_AUDI-GPTedu_RECICLANDO_CONTEUDO_DE_SLIDES_COM_AUDITORIA_DE_OBJETIVOS_DE_APRENDIZAGEM_USANDO_O_CHAT-GPT_E_TAXONOMIA_DE_BLOOM

"Rsultados da aplicação de um prompt estruturado e vinculado à
taxonomia de Bloom no Fine Tuning do ChatGPT para uso em contextos do processo
ensino-aprendizagem"
https://www.inovatec.tv.br/anais2023/t2.pdf


Tem algum tempo, escrevi um artigo aqui no TABNEWS sobre IA - se tiver tempo da uma olhada e comente sobre (mesmo que seja negativa ou puxao de orelha - eh interesante para identificar pontos que podem ser melhor trabalhados).

Tenho treinado para desenvolver artigos que tragam ao publico leigo (mesmo que seja um DEV, geralmente nao tem familiaridade com as particularidades dos LLMs) informacoes sobre como ela funciona.

https://www.tabnews.com.br/Oletros/como-funciona-a-ia-bibliotecaria-e-cartomante

1