Google acelera a criação web de XR fundindo Gemini e Canvas 🚀

Publicado em 23 de February de 2026 | Traduzido do espanhol

Google está reduzindo a barreira de entrada para desenvolver experiências de realidade estendida na web. Sua estratégia combina o modelo Gemini e o espaço de trabalho Canvas. A ideia é que um texto descritivo sirva de base para gerar protótipos 3D interativos, que depois podem ser refinados e exportados para WebXR. Esse fluxo busca agilizar a passagem de um conceito para uma cena imersiva executável em dispositivos como visores de realidade virtual.

Um designer escreve um prompt em Canvas enquanto Gemini gera em tempo real um protótipo 3D interativo que é visualizado em um visor de realidade virtual.

Fluxo técnico: de prompt a protótipo e daí a WebXR 🔄

O processo começa com o usuário descrevendo uma cena por meio de texto para o Gemini. Este atua como um assistente que interpreta o pedido e gera tanto os elementos gráficos 3D quanto o código necessário para sua visualização interativa. Canvas fornece o ambiente para modificar e montar esses ativos. Uma vez definido o protótipo, a plataforma facilita sua conversão para um padrão WebXR, permitindo sua visualização em navegadores compatíveis com visores de XR.

Adeus aos cursos de modelagem 3D, olá aos de redação criativa ✍️

Parece que a próxima habilidade demandada não será dominar o Blender, mas sim saber escrever descrições como uma sala com um sofá fofinho e uma planta que parece precisar de água. Nosso valor como criadores poderia depender de nossa capacidade para ser mais específicos que faça algo legal em 3D. Quem diria que o caminho para a realidade virtual passaria por aperfeiçoar as redações que fazíamos na escola.