Google acelera la creación web de XR fusionando Gemini y Canvas

Publicado el 23/02/2026, 00:37:04 | Autor: 3dpoder

Google acelera la creación web de XR fusionando Gemini y Canvas 🚀

Google está reduciendo la barrera de entrada para desarrollar experiencias de realidad extendida en la web. Su estrategia combina el modelo Gemini y el espacio de trabajo Canvas. La idea es que un texto descriptivo sirva de base para generar prototipos 3D interactivos, que luego se pueden refinar y exportar a WebXR. Este flujo busca agilizar el paso de un concepto a una escena inmersiva ejecutable en dispositivos como visores de realidad virtual.

Un diseñador escribe un prompt en Canvas mientras Gemini genera en tiempo real un prototipo 3D interactivo que se visualiza en un visor de realidad virtual.

Flujo técnico: de prompt a prototipo y de ahí a WebXR 🔄

El proceso comienza con el usuario describiendo una escena mediante texto para Gemini. Este actúa como un asistente que interpreta la petición y genera tanto los elementos gráficos 3D como el código necesario para su visualización interactiva. Canvas proporciona el entorno para modificar y ensamblar estos activos. Una vez definido el prototipo, la plataforma facilita su conversión a un estándar WebXR, permitiendo su visualización en navegadores compatibles con visores de XR.

Adiós a los cursos de modelado 3D, hola a los de redacción creativa ✍️

Parece que la próxima skill demandada no será dominar Blender, sino saber escribir descripciones como una sala con un sofá mullido y una planta que parece necesitar agua. Nuestro valor como creadores podría depender de nuestra capacidad para ser más específicos que haz algo chulo en 3D. Quién iba a decir que el camino a la realidad virtual pasaría por perfeccionar las redacciones que hacíamos en el colegio.