Google ha actualizado su modelo Gemini con una capacidad notable: la generación de simulaciones y modelos 3D interactivos dentro del chat. Esta función permite a los usuarios manipular representaciones tridimensionales de objetos o conceptos de forma directa. El objetivo es enriquecer la experiencia interactiva, facilitando la comprensión de información compleja a través de una exploración visual y dinámica.
Fundamentos técnicos de la renderización en tiempo real en un chat 🤔
Esta capacidad probablemente se basa en la generación de código para entornos web estándar, como WebGL o bibliotecas similares. Gemini podría producir un snippet que, al ejecutarse, inicializa una escena 3D con controles de rotación, zoom y desplazamiento. La complejidad reside en traducir una descripción textual en parámetros geométricos, materiales y luces coherentes, todo dentro de los límites de seguridad de un navegador.
Adiós a horas de modelado, hola a minutos de correcciones 😅
La comunidad 3D podría ver esto con cierta ironía. Después de años perfeccionando técnicas de topología y UV mapping, ahora un asistente genera un modelo con un par de frases. Claro, luego toca explicarle que las mesas no suelen tener cinco patas y que el personaje solicitado necesita un esqueleto interno para animarse. Es un atajo genial, pero el devil está, como siempre, en los detalles de la implementación práctica.