Agora o ChatGPT pode ajudar um deficiente visual no seu dia a dia
É isso mesmo que você leu. O ChatGPT agora pode ajudar pessoas cegas a atravessarem a rua, pegar um Uber, ônibus, narrar um jogo de futebol para elas, descrever lugares históricos, enfim. Parece loucura, né? Mas este é apenas um dos poderes do novo modelo, GPT-4o anunciado hoje, 13/05 pela OpenAI
A OpenAI fez uma live hoje (13/05) para demonstrar o modelo mais poderoso que eles já lançaram, o GPT-4o, e na boa, com certeza não existe nada no mercado ainda.
GPT-4o, este "ó" vem de "omni", o que indica que o modelo é multidimensional, aceitando tanto entrada de texto como imagem, mas é claro que isso é "pouco" para o poder do GPT-4o, além dele ser tão inteligente quanto o GPT-4T Turbo, ele tem melhor visão a ainda é 50% mais barato.
Mas o deficiente visual que você comentou?
Vamos falar disso agora, o fato do GPT-4o ser tão avançado na visão e ser muito rápido nas respostas, dá a ele o super-poder de acessar o mundo real em tempo real. Sim, em tempo real ele consegue executar ações como por exemplo: descrever um carro que está em movimento e avisar o deficiente visual que o carro chegou. Demais, não é?
Eu não tenho ninguém próximo a mim que passe por problemas cotidiano por não ter a visão, mas imagino o quão sofrido pode ser e não "apenas" sofrido, mas cara, pois, um adestrar um cão para ser o seu cão guia é uma grana, já vi reportagens.
Agora imagina só o ChatGPT podendo direcionar a esta pessoa, poder dar a ela uma vida ainda mais confortável, eu diria.
Você pode tá se perguntando, tá, mas como você sabe disso? Vou compartilhar com você o link da apresentação da OpenAI, mas antes deixa eu te dizer mais alguns benefícios que este novo modelo nos trás.
- Pode cantar: Sim, ele pode cantar e de forma afinada viu;
- Pode detectar emoções: Uma respiração profunda, por exemplo;
- Interagir com o mundo real: O ChatGPT pode acessar a câmera do seu smartphone e descrever exatamente e com muitos detalhes, o que está se passando no mundo real;
- Tradução simultânea: Ele pode traduzir em tempo real o que está ouvindo, por exemplo, de inglês para português;
Enfim, esse são alguns dos novos recursos do novo modelo da OpenAI, o GPT-4o. Ah! Já ia esquecendo, a sua base de conhecimento é mais atual que a do GPT-4 Turbo, abril/2023, contra, outubro/2023.
Espero ter ajudado,
Até+