
Av-ag: um sistema que usa som para localizar como manipular objetos
A pesquisa em visão computacional explora novas formas de entender as cenas. Um sistema inovador, chamado AV-AG, propõe uma abordagem diferente: empregar o som de uma ação para encontrar e delimitar com precisão as partes de um objeto com as quais se pode interagir em uma imagem. Este método não depende de que o objeto esteja completamente visível, o que resolve problemas de ambiguidade ou oclusão visual. 🎯
O poder das pistas acústicas
Diferente dos sistemas que usam texto ou vídeo, o áudio fornece sinais semânticos diretos e imediatos. Para treinar e testar essa capacidade, os pesquisadores criaram o primeiro conjunto de dados AV-AG. Este inclui gravações de sons de ações, imagens correspondentes e anotações a nível de pixel que marcam as regiões manipuláveis. Um subconjunto com objetos não vistos durante o treinamento permite avaliar como o sistema generaliza para casos novos, um ponto crucial para sua utilidade prática.
Componentes chave do conjunto de dados:- Sons de ações específicas (ex: sorver, agarrar, bater).
- Imagens dos objetos associados a essas ações.
- Anotações pixeladas que definem as zonas de interação.
- Um grupo de objetos não vistos para testar a generalização.
O som pode guiar efetivamente a compreensão visual de como interagimos com os objetos.
Arquitetura do modelo AVAGFormer
O núcleo do sistema é o modelo AVAGFormer, que funde informação auditiva e visual. Utiliza um misturador transmoidal que integra as pistas acústicas com os dados da imagem de forma semanticamente coerente. Posteriormente, um decodificador de duas cabeças gera as máscaras de segmentação finais. Esta arquitetura demonstrou superar métodos anteriores na tarefa de localizar regiões de interação guiada por áudio.
Fluxo de processamento do AVAGFormer:- Entrada simultânea de uma imagem e um sinal de áudio.
- Fusão transmoidal condicionada semanticamente.
- Decodificação em duas ramificações para prever a máscara precisa.
- Saída de uma segmentação pixelada da zona manipulável.
Aplicações diretas em gráficos 3D e simulação
Para a comunidade de foro3d.com, esta tecnologia abre perspectivas concretas. Pode auxiliar na geração de máscaras de contato ou zonas manipuláveis em modelos 3D diretamente a partir de pistas de áudio, agilizando o setup. Em simulação física, pode identificar pontos de agarre realistas de forma automática. Além disso, enriquece os sistemas de animação e rigging ao fornecer dados sobre como os objetos são usados. Também pode facilitar ferramentas de texturização que detectem superfícies funcionais, e inspirar plugins que combinem áudio e visão para alcançar maior coerência entre ações, sons e movimentos em cenas 3D. Assim, da próxima vez que um personagem agarrar uma xícara corretamente, o mérito pode ser de um simples som de gole. 🫖