O Google deu um passo ousado na evolução da sua inteligência artificial, Gemini, ao integrar capacidades visuais avançadas do seu projeto “Astra”. Essa atualização transforma o Gemini em um assistente capaz de “ver” e compreender o ambiente do usuário através da câmera e da tela do celular, abrindo um leque de possibilidades de interação com IA.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
A tecnologia do Projeto Astra, anunciada no ano passado, permite ao Gemini analisar em tempo real o que o usuário faz por meio de vídeo.
Gêmeos agora tem “olhos” que lhe permitem resolver problemas, contextualizar e oferecer informações com base no que vê em tempo real. Esta funcionalidade, semelhante à anunciada pela OpenAI, representa um avanço significativo na interação usuário-IA.
Para aproveitar essa capacidade visual, o Gemini incorporou duas novas funções: gravação de tela em tempo real e acesso ao conteúdo da câmera. A gravação de tela permite que o Gemini analise e responda perguntas sobre o conteúdo exibido na tela do celular, enquanto o acesso à câmera amplia as capacidades do modo “Live” do Gemini, permitindo conversas baseadas no que a câmera capta em tempo real.
LEIA TAMBÉM:
Supernova a 3.000 anos-luz da Terra será vista em nosso céu esta semana
Hackers do governo chinês podem ter passado anos se infiltrando em redes telefônicas estrangeiras
Novo recurso do Google Mensagens está dando mais vida aos emojis: do que se trata?
A integração de vídeo em tempo real no Gemini abre um novo paradigma na interação do usuário com IA. As possibilidades são infinitas, desde obter ajuda na compreensão do conteúdo visual até assistência na navegação na interface móvel.
Os novos recursos visuais do Gemini estão sendo implementados gradualmente. Os usuários com o aplicativo atualizado deverão começar a vê-los em breve. No entanto, o acesso total a esses recursos pode ser limitado aos assinantes do Gemini Advanced.