Google acelera la creación web de XR fusionando Gemini y Canvas 🚀
Google está reduciendo la barrera de entrada para desarrollar experiencias de realidad extendida en la web. Su estrategia combina el modelo Gemini y el espacio de trabajo Canvas. La idea es que un texto descriptivo sirva de base para generar prototipos 3D interactivos, que luego se pueden refinar y exportar a WebXR. Este flujo busca agilizar el paso de un concepto a una escena inmersiva ejecutable en dispositivos como visores de realidad virtual.
Flujo técnico: de prompt a prototipo y de ahí a WebXR 🔄
El proceso comienza con el usuario describiendo una escena mediante texto para Gemini. Este actúa como un asistente que interpreta la petición y genera tanto los elementos gráficos 3D como el código necesario para su visualización interactiva. Canvas proporciona el entorno para modificar y ensamblar estos activos. Una vez definido el prototipo, la plataforma facilita su conversión a un estándar WebXR, permitiendo su visualización en navegadores compatibles con visores de XR.
Adiós a los cursos de modelado 3D, hola a los de redacción creativa ✍️
Parece que la próxima skill demandada no será dominar Blender, sino saber escribir descripciones como una sala con un sofá mullido y una planta que parece necesitar agua. Nuestro valor como creadores podría depender de nuestra capacidad para ser más específicos que haz algo chulo en 3D. Quién iba a decir que el camino a la realidad virtual pasaría por perfeccionar las redacciones que hacíamos en el colegio.