¿Qué ordenador montarias si os dice que no escatiméis en precio?
Cuando entre a curra me dijo mi jefe que le pidiese el ordenador que quisiera.Vuestro jefe os dice que va a comprar un ordenador exclusivamente para hacer 3d (modelado y render) y que necesita consejo vuestro.
¿Qué ordenador montarias si os dice que no escatiméis en precio?





Como bien de render en general, y no sabemos cuál será el más habitual que realizan y con qué programa, por eso he puesto renders generales (luego también habrá que saber los motores que usan en concreto) de los cuatro programas clásicos. Si es Vray, desde luego en cualquier caso, cuatro Cores son bastante más que dos + HT. Si los Xeon tienen ventaja inicial en Vray es por el soporte para más de dos Cores (y con sus dos Cores más el HT son cuatro hilos), pero aquí se trata de cuatro Cores físicos, con lo que la ventaja deja de existir, pasando esa ventaja a la config con cuatro Cores reales, en este caso el Dual Core Dual Opteron.Esas comparativas no son válidas si va a renderizar con Vray, los resultados serían bastante diferentes, aunque seguramente los Dual Core Opteron serían más rápidos que los Xeon HT, la diferencia no sería grande. En navidades Intel presentara los Xeon Dual Core + HT.
Además, por el precio de los Opteron Dual Core, te compras 2 Xeon.
Pero si no hay límite de precio, y tu jefe no se va a asustar con el presupuesto, pues los Dual Opteron son una buena golosina.
Es que no son dos meses, cuando sale un producto nuevo, lo habitual es que pasen varios meses desde que es anunciado hasta que lo compras, por distintos motivos: disponibilidad real, precio desorbitado al inicio (porque esa es otra, un DC Xeon cuando salga no será precisamente barato tampoco).Si es para Mentalray o Scanline, pues AMD. No sé si en Brazil o Final Render será mejor Intel o AMD. Un Xeon 3,06 Ghz en Vray tiene un rendimiento similar a un Opteron 252 (2,6 Ghz). Evidentemente el Xeon 3,6 es mucho más rápido.
El Opteron Dual Core 275 va a solo 2,2 Ghz.
A ojo, creo que la ventaja de rendimiento en Vray de un Dual Opteron 275 - Dual Xeon 3,6 Ghz, es mucho menor de lo que parece. Posiblemente el opteron275 sea solo un 15-25% más rápido que el Dual Xeon 3,6 Ghz, pero muchísimo más caro.
Si es para render con Vray, te compras 2 Dual Xeon 3,2-3,4 Ghz por el mismo precio, y tienes muchísimo más rendimiento, renderizando en red.
Los Opteron, son más caros que los Xeon.
Los Opteron Dual Core son un robo, extremadamente caros. Un capricho para quien pueda permitírselo.
Si dispones de presupuesto, mejor un equipo para trabajar y otro para render.
Pues, opino igual que tú, el equipo me lo compro cuando lo necesito, sino estaré siempre esperando por que siempre hay algo nuevo próximamente.
Pero en el 2006 no será un simple paso. Intel va a revolucionar toda la gama de procesadores, desde portátiles y domésticos, hasta estaciones de trabajo y servidores. En navidades salen los Xeon Dual Core 65nm, que serán los últimos de la era netburst, cuando va a haber un salto importante, vale la pena esperar.
¿O te habrías comprado un Athlon XP 2 meses antes del lanzamiento de los Athlon 64?
Estoy totalmente de acuerdo contigo, pero en render es diferente que con servidores, pues puedes repartir el trabajo entre varias máquinas. Por eso en infografía si comparamos 2 Cores vs 2 single Core. Aunque los precios del mercado Dual Core estén dirigidos a los servidores.Por otra parte, no estoy de acuerdo en lo que cometas de que el precio de los DC Opteron son un robo. Me explico. El precio de un DC Opteron 2xx no lo tienes que comparar (ese es el error en el que se suele caer) con dos Opteron 2xx single Core, sino con cuatro Opteron 8xx.
La tecnología netburst no fue un fiasco, el problema fue que intentaron estirarla demasiado tiempo. Pero precisamente la tecnología netburst del Pentium 4 Northwood es la que permitió pasar en 1 año de 2 a 3 Ghz. Nunca se había visto una progresión igual. Amd se quedó con sus Athlon XP bailando en el aire, por que los Pentium 4 3,2 Ghz eran muy rápidos en casi todo.De lo que me alegro es que dejen netburst, eso me parece buena noticia porque, y es opinión personal, ha sido una especie de fiasco (lo digo porque se presentó como la arquitectura en la que se basarían todas las generaciones de micros durante años y años, escalando a 10-15ghz o no sé cuántos y fíjate donde se han quedado, ni a los 4 GHz, con la pared insalvable de su tremendo consumo y disipación de calor).
Ese fue su gran error de cálculo, al creer que iban a seguir subiendo como la espuma con netbust. Así que, en su Carrera desenfrenada por ponerse delante de una maldita vez de los Athlon XP (que no consiguieron por supuesto con el lamentable willamate, ni con los north a y b), en ese año 2002 que pasaron de 2 GHz a 3 Ghz en once meses, dilapidaron netburst. Fíjate que desde noviembre de 2002 (salida del 3.06 ht) hasta ahora, tres años después, han subido frecuencia con una tecnología como netburst echa para subir teóricamente frecuencia como la espuma, pues digo, en tres años han subido la friolera de 740 Mhz. Fracaso total.La tecnología netburst no fue un fiasco, el problema fue que intentaron estirarla demasiado tiempo. pero precisamente la tecnología netburst del Pentium 4 Northwood es la que permitió pasar en 1 año de 2 a 3 Ghz. Nunca se había visto una progresión igual. AMD se quedó con sus Athlon XP bailando en el aire, por que los Pentium 4 3,2 Ghz eran muy rápidos en casi todo.
Pero realmente las 0.90nm no son las culpables. Puede que en el desarrollo del resto de arquitecturas que citas (pc, k8, o elpropio dothan) tuvieran algún problema, pero al final, con los productos finales han sido un absoluto éxito en consumo y disipación, al menos en cuanto a los k8 y dothan se refiere (los ppc no los sigo tanto). Pero en absoluto en lo que se refiere a dothan o k8 de 0.09nm hay problemas de temps y consumo, sí se ha producido una bajada más que considerable respecto de las 0.13nm.Los Prescott han sido una vuelta de rosca mal calculada. Se esperaba que los 90 nm dieran los mismos buenos resultados que dieron los 130 respecto de los 180, y no fue así, todos los fabricantes de micros han tenido problemas de temperaturas al migrar a 90 nm, pues esperaban un mejor control de calor y consumos. (ahí está el G5 ppc970, que en 90nm es el micro para ordenadores personales que más se calienta del planeta). Del Athlon 64 en 90 nm se esperaba también un bajón considerable en temperaturas y consumos, y realmente fue mucho menos.
Mira Apple, ha decidido cambiar de arquitectura de procesadores y por lo que parece el trauma va a ser más o menos inocuo, pero es así porque Apple ha desarrollado un plan de migración como dios manda. Si Apple lo pudo hacer no veo por que no se puede cambiar de arquitectura de procesador sin casi perjuicio para el usuario manteniendo el tipo de usabilidad de tu sistema operativo. Eso si el procesador nuevo ofrece lo que promete, que esa es otra, por cierto Itanium, querrás decir itanic. ¿no?En este tipo de micros con su correspondiente software (vital esto, porque ha ver quien es el guapo que nos dice que tenemos que tirar todos nuestros programas a la basura porque los próximos micros no son compatibles, mira Itanium).
Eso dicen los de Apple, porque está claro que no van a decir lo contrario y asustar a sus fieles usuarios, bastante tienen con senitrse traicionados al pasarse al bando del lado oscuro los PC x86.Mira Apple, ha decidido cambiar de arquitectura de procesadores y por lo que parece el trauma va a ser más o menos inocuo, pero es así porque Apple ha desarrollado un plan de migración como dios manda. Si Apple lo pudo hacer no veo por que no se puede cambiar de arquitectura de procesador sin casi perjuicio para el usuario manteniendo el tipo de usabilidad de tu sistema operativo. Eso si el procesador nuevo ofrece lo que promete, que esa es otra, por cierto Itanium, querrás decir itanic. ¿no?
Todo eso sería cierto si el usuario medio de Apple no valorara por encima de todo eso el echo de que cuando se compra una máquina, es más rápida que la anterior.La transición será traumática y, además durara 2-3 años, que se dice rápido, por el camino los usuarios van a tener un auténtico caos a la hora de elegir, porque además no van a cambiar todos los productos al mismo tiempo, pues empezaran por gama baja y finalmente gama alta y, además se sentiran tentados el reverso tenebroso: Windows Vista.
Me imagino un usuario dentro de un año: me compro un Imac x86 que sé que me servirá durante mucho tiempo, o me compro un powermac G5 que sé que está obsoleto, por que todavía no puedo comprar el powermac x86.
Gama economíca, pero actual o gama alta obsoleta.
Si es lo que yo digo, bienvenida Apple al mundo del software inestable, esto es x86.Rossetta es un emulador, dicen que es muy bueno (como todo lo que hace Apple, tono irónico, je) pero en la realidad es eso un emulador, así que, las diferencias de rendimiento entre el software nativo y el emulado serán grandes. Por ahora dicen que el software rinde en emulador al 70% de la velocidad del nativo, pues si esas son las cifras optimistas, no quiero saber cómo será la realidad. Además, de que seguramente el emulador tendrá problemas con muchas aplicaciones. Todavía no he visto un emulador de ninguna arquitectura 100% compatible.
No lo creo, el fanatismo de sus usuarios y que se han arrimado a la mejor sombra que podían encontrar: Intel, pues dudo que desaparezcan, pero sí es cierto que van a pasar un tramo duro estos 2-3 años.Yo digo que de aquí a 3 años Apple se va a tomar por el culo.
Intel diría muchas cosas, pero el Itanium 2 siempre se ha dirigido a grandes servidores, el bus del Itanium 2 no es ridículo, si les bien sus especificaciones, trabaja en 4 canales de memoria, mientras los PC trabajan con 2 canales, los Mhz o Ghz no son comparables entre arquitecturas diferentes. El Itanium 2 y el power5+ de IBM están considerados los procesadores más potentes del mundo, y tienen frecuencias que no llegan a los 2 GHz.Y el Itanium 2 es un fracaso relativo si tienes en cuenta que Intel dijo que estaría en los ordenadores de sobremesa en 5 años, hasta que Microsoft dijo basta y ahí se acabó la historia. Intel ha sido muy inteligente en ese aspecto y ha optimizado el compilador del Itanium hasta aburrirse así que, con frecuencias de reloj bajas (que no cambian en absoluto tan rápido como en las cepeuses de consumo) y buses de memoria ridículos para los tiempos que corren se las arregla para ser mucho más potente que la competencia, en especial desde que HP abandonó sus alpha.