Página 1 de 2 12 ÚltimoÚltimo
Resultados 1 al 50 de 51

Intel i7 x980 vs Dual Xeon e5620

  1. #1
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Bueno estoy en el tema de los micros de mi nueva making ay estoy ante está duda puesto que he mirado por ahí y he visto que la respuesta del x980 es mejor que la de un Xeon 5620 por lo que mi pregunta es:
    Un x980 dará mejores tiempos de render que un Dual Xeon e5620.

    Por favor si alguien en el foro tiene un x980 le estaría muy agradecido que me responda puesto que estoy hecho un lío.

    Yo se por experiencia que la solución Dual Xeon es la correcta pero este micro da muchas prestaciones sobre todo con OC y es mucho más barata su configuración que si nos vamos a los Xeones y como soy un trabajador como todos aquí y no me sobra el money no quiero tirar una pasta porque se me demore 5 minutos. Menos el render de una secuenca de 2k de 100 fotogramas? No sé si me explico.

    Es para 3ds Max, Mental Ray, Vray (de cuando en vez), cs5 y Nuke.

    Ayuda por fi?

  2. #2
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Mi consejo es que compres varios ordenadores, los 1000 euros del 980x dan para dos ordenadores más normales con un i930.

  3. #3
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Juan, no tengo espacio donde vivo, por otra parte estoy valoranto el x5650 y más adelante ponerle otro, aunque la verdad me parece una burrada de dinero. ¿compensaría en referencia a velocidad?
    Por otra parte, la idea de la granja de render me llama la atención, pero salvando la salvajada del helmer que hay por aquí por el fotografía no tengo idea de cómo hacer una sin contar que no se ni gota de Linux.

    Sin contar que este ordenador lo quiero para trabajar, y bueno para render como todo. Pero, sobre todo ahora mismo me interesa la respuesta en primer lugar, ya los tiempos de render me las arreglaría pero mientras más potencia mejor por que así equilibro las dos tareas ¿no?

  4. #4
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Lo he mirado por encima, el x5680, un modelo superior al que quieres es un poco más rápido en estas tareas de render, sobre un 5% a lo sumo, así que, el x5650 estará a la par. El i7 también puede ser Dual, solo que necesitas algo como esto:


    http://www.EVGA.com/products/moreinf...s%20family&sw=.

    Son 600 euros de placa, pero tiene garantía de por vida, todo es sopesarlo.

    Muchas veces nos empeñanos en tener que hacer nosotros todo el render, y según qué casos puede compensar alquilar una RenderFarm online, yo no las veo tan caras, y puede que ha largo plazo sea mejor, son ellos los que tienen que actualizar sus equipos, no tú.

    En tú caso, creo que es mejor invertir en una GPU y usar un motor gráfico que se aproveche de él, tipo Arion u Octane render.

    Adobe ya trae de fabrica los ajustes para usar la GPU.

    Y Nuke no lo sé.

    Posdata: no todas las granjas están hechas con Linux, con el 3dsMax es bastante sencillo, instalar una parte del programa y mandarle los fotogramas que queremos que renderice a través de un menú.

  5. #5
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola Juan precisamente esa es la placa que tengo pensada en caso de que me decida por los Xeones puesto que he leído que es la que más permite OC en estos micros sin contar con las posibilidades de expancion que tiene, pero perdóname si me equivoco, pero hasta dónde yo he visto en internet esta placa no admite los i7. No por la placa sino por la arquitectura de los i7 que tienen un solo 1 qpi enlaces y solos Xeones tienen dos que es lo que los posibilita tener opciones Dual.

    Si me equivocó por favor proporcioname el enlace lo corrovore y me estoy comprando dos 930 para ponerlos en Dual a lo mejor con algún mod o hak?
    Por otra parte, esta es la configuración que tenía pensada:
    -Caja: lían li PC-a71fb black.

    Gráfica: GeForce GTX 480.

    Micro: 2x Xeon x5620.

    Placa: EVGA classified sr-2.

    Fuente: cooler master silent profesional 1000.

    Memoria: OCZ Hex-kit Dim 12 Gb DR3-1333.

    Como verás la tarjeta es la 480 que ahora mismo en calidad precio creo que está muy bien y en SLI ni hablar.

    Estos renders que me comentas no los he usado nunca, habría que investigar.

  6. #6
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Por favor, hacer clic en uno de los iconos de respuesta rápida en los mensajes de arriba para activar el editor de respuesta rápida, ya que 12 Gb lo veo muy bien, y la 480 también, la fuente es demasiada, pero más vale que sobre que no que falte.

    Resumiendo, pregunta si puedes montar unos 930 en Dual y si es así compralos, y busca la caja, yo te la buscaría, pero he quedado en una hora para ver la final y me tengo que duchar todavía, y encima poner la bandera al coche, y comprar suficiente Cruzcampo, y coger la wi.

  7. #7
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Vaya salido mal, ya luego lo edito y te lo pongo todo.

  8. #8
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Oye Juan me entere de la mitad del mensaje de la otra nada de nada. La caja es la lían li que puse más arriba y en cuanto a la fuente es por si mañana me de por los renders por GPU y quiera hacer SLI ya tengo medio adelantada la cosa, cuando salgas de la resaca me comentas lo que me decías, por cierto? Y para que la wi.

    Of: España campiones.

  9. #9
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Alguien más de los crak del foro puede echarme una manita con el tema del 980 euros.

  10. #10
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    8 Cores 2,4 Ghz vs 6 Cores 3,33 Ghz (overclokeable hasta 4 GHz o más). Para mí, el i7 980. Rendimiento similar o superior en render, y muy superior en otras tareas.

  11. #11
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Vamos a volverlo a intentar. La placa EVGA si que es compatible con los i7, fue creada pensando en ese procesador y no en los Xeon, sino solo mira la trayectoria de EVGA en materia de servidores (cero). El problema es por lo bancos de memoria, los Xeon, al estar enfocados a esas placas, pueden funcionar tanto mono como Dual, y es por lo que comentas, por su doble qpi que permite a un solo procesador manejar los 6 por 2 bancos de memoria, y si pones dos tampoco pasa nada. Con los i7, la cosa se complica un poco, resulta que los Core IX son procesadores domésticos, y salvo excepciones como esta, no están pensados para usarse de manera Dual. ¿en qué se traduce esto? Pues que como resulta que como lo normal de los Core IX es ponerlos en mono, solo se incluye un qpi por procesador. Eso significa que solo puede manejar 6 bancos, en vez de los 12 módulos que tiene la placa, por lo que en una configuración mono jamás arrancara. Se soluciona de una forma bastante fácil, poniendo otro i7, dos i7 son dos qpi, por lo que entonces si que arrancara el ordenador.

    Es sencillo, si es Xeon puede ser mono o Dual, pero si es un i7 debe ser Dual sí o sí.

    No hace falta mod o hak alguno para usar los i7, en definitiva usan el mismo socket y tienen una arquitectura bastante parecida. Corroborar estas cosas en un enlace es complicado, mi consejo es que contactes con EVGA y ellos te lo confirmen, ya que eso sí que es una garantía absoluta.

    La caja puede que no sea lo suficientemente grande, me explico, la que has escogido admite la placa, pero si por algún motivo quisieses usar los 7 PCI Express, no podrías porque la caja no coincide con los de la placa, es decir, en esa caja a lo mejor solo puedes montar 3 tarjetas en vez de 4 (montar 7 es altamente complicado, no solo por el espacio, sino por que con 7 tarjetas la Bios no arrancara, el límite actual es 4), pero por lo demás está bien, si te interesa buscar una caja 100% compatible creo que tiene que ser xl-atx en vez de EATX, y solo hay dos o tres en el mercado, creo que una es de cooler máster y la otra de Thermaltake. Desgraciadamente lían li no tiene cajas compatibles con xl-atx, pero eso no implica que no entre ahí.

    A mí no me termina de quedar claro si al final te decantas por los 930, por los 980x o por los Xeon. Pienso como Cabfl, los i7 son mejor que los Xeon, no solo por el overclock, del cual no soy partidario en absoluto, sino porque cada extreme es algo único, multiplicador desbloqueado, potencia bruta, lo mejor que hoy día puede comprar el dinero y porque tiene más compatibilidad, el día en que cambies de equipo de nuevo, con los Xeon te comes los mocos, sin embargo, los i7 si tendrán más salida. Yo personalmente, optaría por los 930, son mucho más asequibles, te recuerdo que cada extreme son 1000 euros, y no está la cosa para tirar el dinero, máxime hoy día en España.

    El resto bien.

    Posdata: la Wii era por si perdían para poder pasar un buen rato, y de resaca nada, soy el conductor, llámalo más bien que el foro no me quiere y a veces me deja entrar y otras no, siento que hayas tenido que esperar tanto.

  12. #12
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola Juan te agradezco mucho tu esfuerzo y comentarios, pero por mucho que he buscado no encuentro ningún lugar donde dica que la sr-2 sea compatible con los i7, en su prospecto y demás lugares del sitio dicen lo mismo.

    Solo compatible con los Xeones. http://www.EVGA.com/products/moreinf... base%20family. http://www.EVGA.com/support/faq/afmv...&faquíd=58840.

    Por favor si sabes de algún mod o hak o alguna página que corrobore lo que comentas te estaría altamente agradecido.

    Por otra parte, yo no tengo intenciones de poner más de dos GeForce GTX480 en mí placa, son muy caras y me parece una burrada poner 3 o cuatro de esos bichos sobre todo por que yo no juego y solo me interesa para contenidos porfecionales, de hecho, he seleccionado la GTX480 por que es la de más alta gama de las GeForce compatible con el Mercury playbak de Adobe cs5 ya que la Quadro 3800 tiene menos núcleos fermi que la 480 y la 4xxxx ya se dispara de presupuesto y por tanto en mi caso nunca voy a poner 3 o cuatro GTX480. Por tanto el chasis que quiero me es adecuando. Sin contar que es el que más me gusta de todas las marcas y las he visto todas. No me gusta el aspecto gamer, ni leds, ni huecos con cristal por el costado ni pijadas y si el aspecto sobrío y profesional que ofrece esta caja.

    En mi opinión es lo más elegantemente parecido a un chasis de Mac profesional que también los veo bastante bien. Pero bueno, para gusto colores.

    Por favor, insisto si tienes algún enlace bajo la manga que acentue tu afirmación estaría complacido en verlo.

    Por otra parte, la opción de los varios ordenadores para el render en red me ha desestabilizado todo lo que tenía establecido puesto que me he tirado a sacar números y la verdad que es increíble lo asequible que se hace una granja de render en estos días. Y uno acostumbrado de tirar de su propio ordenador toda la vida.

    Por otra parte, realmente creen que el 980 es la solución? La combinación de dos Xeones más baraticos no darán mejor rendimiento?

  13. #13
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Mirando el tema es cierto, ahora no soporta los i7, me he confundido con la Skulltrail. Lo que pasa es que, antes de que saliese la placa, si que suponía que iba a soportar los i7, la prueba es que en algunos sitios tuvieron que rectificarlo. http://www.theinquirer.es/2010/03/18...fied-sr-2.html. http://www.engadget.com/2010/03/17/E...eads-exemplif/.

    Incluso en los propios foros de la compañía no se llega a tener claro. http://www.EVGA.com/forums/tm.aspx?M=238970.

    Aunque hay algunos sitios que la ofrecen con los i7, como, por ejemplo, este. http://www.digitalestormonline.com/c....asp?id=415863.

    Mi consejo sigue siendo el mismo, que contactes con EVGA para que te lo confirmen, ya que hay mucho mamoneo y falta de claridad.

    Yo creo que lo que merece la pena es el 930, barato y rápido, en octubre saldrá otro CPU que dejara al 980x a la altura del betún, igual que pasara con las 480GTX y es que ha pasado toda la vida. Mejor ahorrarse 1500 euros por ganar ¿15? ¿10? Segundos por render, te recuerdo que la diferencia entre tener un núcleo o dos es inmensa, pero entre tener 5 o 6 apenas hay diferencia, por lo que entre 8 o 12 reales no creo que se mejore mucho.

    De todas formas, yo voy a contactar ahora con EVGA para que me digan algo, ¿vale?

  14. #14
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola Juan tienes razón con el tema de la ambigüedad de esta placa, pero la verdad no he encontrado por dónde escribirle a EVGA para ver qué tal a ver si tienes mejor suerte.

    Entiendo lo que me comentas y realmente me voy a ir por la decisión del 980x, ya sé que esto es como todo en la informática que mañana mismo sale otra cosa y te quieres tirar de los pelos por que lo tuyo en lo que has gastado una pasta se va a poner viejo. Pero ahora mismo este es el micro único más potente del mercado y potencia es precisamente lo que necesito.

    He mirado unos benchmark: http://www.CPU Benchmark.net/high_end_cpus.html. http://www.cbscores.com/.

    Y entre eso y vuestras opiniones no me queda duda, ya lo otro es gastarse una pasta que no puedo (los x5660 y compañía).

    Esperemos la respuesta de EVGA para decidirme por la Asus rampague i extreme o la sr-2 que la diferencia es importante y la igual de EVGA no tiene usb3 ni SATA 3. Alguna sugerencia de placa para el 980x o esa esta o que?
    Por otra parte, me ha entrado el bicho de la granja de render y estoy mirando cual es la placa más barata (VGA onboard) que puedo encontrar para el 920 (o 930 en su defecto) o si tienes una sugerencia mejor sería ideal, yo lo que he visto ha sido con Q6600 y para los 3 puntos +- Escasos que da en el Cinebench 11.5 realmente creo que la elección es irme a los i7 más baratos y ver que tal? Estoy equivocado, mejor idea al respecto?
    Última edición por 3D_Cubano; 14-07-2010 a las 20:58

  15. #15
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Acabo de llegar de entrenar y ya me han respondido, el chaval ha sido muy majo, me ha dicho que menos mal que pregunto, ya que es un tema complicado y sabe que genera confusión, y lo que no quiere es liarme más, me ha dejado claro que la sr-2 solo es compatible con los Xeon 55xx y 56xx. El tema de la confusión me ha comentado que es porque en principio iban a salir dos placas, la w555 y esta, y al final solo salió esta, pero todo lo que se dijo de ella no pudo ser, como que fuese compatible con los i7.

    Si eres consciente de que esos 1000 euros mañana serán 200 y no te importa, es que tú eres la clase de persona que asume la situación y entiende lo que ocurre. Ese micro está hecho para ti.

    Los benchkmarks genéricos no son fiables, es decir, según la teoría, el motor diésel le da para el pelo a los gasolina, pero en la vida real no implica que sea así, es decir, un diésel no tiene por qué consumir menos que un gasolina, no son ni la mitad de fiables que los que usan 95, el sonido no es comparable. O sea, gana en puntos muy concretos, eso pasa en esas pruebas, es solo una prueba, habrá quien lo haga mejor y ello no implica que sea el más rápido, aparte, ninguna es con el 3dsMax o alguna de las aplicaciones que pretendes usar, por lo que no me parece muy fiable, te cogería una del Tom&#347, hardware, pero hace una semana que no puedo entrar, porqué ahí sí que usan el 3dsMax en una de sus pruebas.

    La granja de render no es tan fácil, sin duda la opción es un 930, pero eso no es todo, piensa que, si una imagen o un fotograma requiere 6 gigas de Ram, la placa de la granja también tiene que tenerlos, o no será capaz de hacer el trabajo. Pensando en el dinero y no en lo mejor, un AMD, 200 euros es el tope de gama con 6 núcleos, la placa sale por unos 70 euros como mucho y la Ram ponle 200 más por 8 gigas. El total es sobre 600 euros (aunque se puede ajustar mucho más). Mi consejo es otra GTX 480, ¿otra? Sí, es el futuro, los motores de render ya usan las GPU y acortan el tiempo bastante, y valen poco para lo que son capaz de hacer, mírate el Octane render o el Arion, ambos usan la GPU para renderizar. El i7 más barato es el 860 (que es otro socket, el 1156), vale más que el 930 y rinde menos, lo que es la vida.

    Yo prefiero tenerlo todo en un ordenador, y ya cuando se me quede chico si le pongo otro, pero hasta entonces nada. Piensa en esto, han pasado 4 años, tienes 5 ordenadores, toca actualizar la Ram, eso es un palo tela de gordo, es mejor tener solo uno, máxime si no se nos ha quedado chico el que tenemos, pero es mi opinión. A lo mejor en 5 años, esos 5 ordenadores que se te han quedado atrás los tienes que tirar, y yo prefiero tirar uno a 5, aparte de que el dinero de los 5 en uno sobra para tener algo bastante bueno y seguir sobrando dinero.

    Yo voy a serte sincero, yo no confío en nada que no tenga garantía de por vida. Hace 4 años, me compré mi primera 8600GT, las había de todas clases y colores, pero se me antojó una Asus supuestamente especial y todo eso (ocupaba doble slot, y por entonces si que era una novedad). Pues por arte de magia, a los 6 o 7 meses petó. Yo no la forcé en absoluto (no soy partidario del overclock). ¿sabes lo que pasó? Tuve que comprarme una captiva, con mi dinero, lo cual no me sentó bien, pero mi confianza en Asus todavía se mantenía, hasta que un buen día mi placa de 150 euros no arrancó más. Ocurrió lo mismo, tuve que comprar una Gigabyte por mi cuenta.

    Asus para mí es como Apple, mucha fama, pero ya no es lo que era o solía ser.

    Gigabyte va por el mismo camino, mi actual placa hace cosas muy raras, pero paso de llevarla a ningún sitio, por lo meno aún agoniza y aguanta, pero no le queda mucho, por lo que otra que no otra opción.

    Lg, ídem, mi monitor, TFT nuevo, ojo de la cara inside, al año y pico le revienta un píxel, no me jodas pensé, pues ha pasado la garantía y como solo se ha roto ese (se necesitan 3 como mínimo) pues me lo como con patatas, lo peor es que, a la tele del salón le ha pasado lo mismo.
    ¿Qué tienen en común? La garantía, lo que marca la ley ni más ni menos, por eso mi próxima pantalla será una Nec (con mejor garantía) o piezas con garantía de por vida. Por ahora, EVGA es el único que conozco, pero no me queda otra. Por lo menos ellos calculan su placa sabiendo que no tiene que aguantar 2 o 3 años hasta que falle, sino toda la vida o les cuesta el dinero, y eso es un motivo de tranquilidad, aparte, de que con un 100% de seguridad, no tendrás que comprar otra placa en tú vida sino quieres.

    Eso no lo solemos tener en cuenta, pero es la realidad, yo ya he aprendido de los errores, lo barato sale caro, vaya que si sale caro (si piensas un poco tú mismo tendrás centenares de ejemplos, el coche, la lavadora, la bombilla o broca del chino, la radio o ruedas del coche).

    Esta por 260 ya viene con garantía de por vida. http://www.EVGA.com/products/moreinf...s%20family&sw=.

    Comparada con la r i ambas tienen el mismo chipset (x58 e ICH10R), la Asus es compatible con la pantalla esa para un overclock fácil e instantáneo cosa que la EVGA no tiene, admiten la misma Ram, Asus tiene un PCI Express extra, y la VGA uno PCI más que la Asus. La EVGA tiene doble toma de internet, pero no tiene usb 3 ni SATA del nuevo. En definitiva la Asus es superior en el tema de la funcionalidad, pero yo valoro más la garantía, más aún si se que le voy a hacer overclock. Elijas la que elijas no te defraudarán ninguna, benditas indecisiones.

  16. #16
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Si eres consciente de que esos 1000 euros mañana serán 200 y no te importa, es que tú eres la clase de persona que asume la situación y entiende lo que ocurre. Ese micro está hecho para ti.
    En cuanto a los benchmark para 3ds Max y trabajo con video, he mirado estos y la cosa no pinta mal: http://www.behardware.com/articles/7...Core-32nm.html. http://www.techspot.com/review/261-I...ion/page5.html. http://www.Tomshardware.com/reviews/...o,2573-13.html. http://www.youtube.com/watch?v=isjy0qwzu0u.

    A ver yo estoy consciente que es una pasta, pero como dicen los yanquis el tiempo es dinero y realmente si este micro me va a hacer un render o un encoding de 10 horas 2 horas menos simplemente me vale. Pongamos las cosas en perspectiva, los benchmarks y las pruebas hablan de segundos, pero cuando eso lo descafeinas (esto es muy importante) y lo extrapolas a horas y horas de render creo que es la mejor opción sobre todo tirando lo contra los 920/930 y hablando de OC que va a tenerlo seguro. No sabes las que he pasado yo por que el render no termina a tiempo o por que tengo que tengo que terminar de hacer un QuickTime h264 para mandar y no acaba de una vez.

    En cuanto a la granja (tema que cada vez me seduce más, pese a la cara de mi chica) me dices que, si un render no tiene los 6 gigas que requiere pues no lo hace y ahí creo que estoy en desacuerdo contigo puesto que le puedo poner 6 gigas y si no les alcanza pues que tire de disco duro como toda la vida. No se va a parar el render por eso, aunque si ira más lento. Otra cosa es que quiera tirar el render de Optimus de Transformer en estas condiciones, pero no es el caso, por ahora.

    En cuanto a los AMD me parecen una buena opción, aunque no sé cómo quedarían contrastándolos contra los 920. ¿por cierto, donde puedes comprar 8 gigas por menos de 200? Y referente a la GTX480 estoy completamente de acuerdo contigo. Ahora con el 3ds Max 2011 y el cs5 están exprimiendo las GPU, es un terreno bastante virgen por ahora, pero con proyección de futuro, por ahora me voy a comprar la primera y si veo que la cosa camina entonces le añado la otra por lo que estoy dejando la puerta abierta con la placa que me quiero comprar que tenga SLI aunque creo que 4 SLI es una burrada de dinero y por ahora no me compensa ni pensarlo.

    En cuanto a tenerlo todo en un ordenador, hasta el otro día pensaba igual que tú, pero cuando la cosa se pone fea y tienes que entregar varios trabajos en el mismo tiempo y descubres que no tienes el don de la ubicuidad pues una granja de render es lo que puede salvarte la vida. Y, sobre todo (en mi opinión) una granja tuya, puesto que subir 2 gigas de proyecto a una granja online para descubrir que fallo algo y tal no hace gota de gracia. Yo soy de los que prefiere tenerlo todo bajo control y tener una respuesta inmediata tanto de los resultados como de los problemas que vayan surgiendo por el camino. Que ocupa espacio y aumenta la cuenta de la luz pues bien, pero no te preocupes que no encenderia ni gastaría una pasta en una granja de render si no le estaira sacando una pasta. Mientras tanto apagaditas y de bonito.

    En cuanto a la garantía, tengo entendido que hasta el otro día EVGA daba garantía de por vida, pero ya no es así, ahora es garantía limitada y su respectivo asterisco y tal. Corrígeme si me equivoco, al menos con las tarjetas de video es así. Pero bueno como las tarjetas las ensambla uno y los demás le ponen pegatinas y adaptan alguna cosa pues no sé si sea igual con las placas bases, insisto, si me equivocó corrígeme pues pienso igual que tú y me decantaría por la EVGA si tendría que gastar 20 euros más, pero tener mi cabeza tranquilita, sobre todo con la burrada de OC que pienso meterle al micro 24/7.

    En cuanto a la EVGA ahora mismo el usb3 esta usandose? Tanto como el sata3? Estoy con esa duda por que si es bueno cuando te compras un hardware tener mirada de futuro, pero si la cosa es por pijada, paso.
    Última edición por 3D_Cubano; 15-07-2010 a las 11:03

  17. #17
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Por eso mismo se que tú eres la persona que puede comprarlo, yo desde luego no, la paciencia es una de mis virtudes. En cuanto a lo de la granja, me temo que no, no todo en la vida se arregla tirando de disco duro, yo en Blender, si creo un archivo con 4.5 gigas de memoria y lo intento renderizar en otro de 3 (mi otro ordenador) es que ni me deja abrir el fichero, no sé si pasa lo mismo con otros, pero no vayas tan confiado en ese tema.

    Amd no tiene nada que hacer contra un 920, pero nada de nada, lo que pasa es que no en todos los equipos puedes poner un i7, y entonces, por relación calidad precio si que son más interesantes.

    Las VGA son el futuro, tanto Intel como AMD las van a incluir en el procesador en la siguiente arquitectura, que no quepa duda y, aunque hoy por hoy Cuda es el rey, en nada OpenCL y opnegl lo destronaran.

    El tema online es cuestión de gustos, para mí subir 2 gigas no supone mucho esfuerzo con una conexión de 30 megas simétricas, pero de las de verdad, no esas de 20 y luego son 2 o 3, ahora, sé que esa línea le cuesta a mi jefe un dineral, y entiendo que no todo el mundo pueda usar esa opción.

    EVGA tiene garantías normales e ilimitadas, depende del producto, los más básicos tienen su tiempo, y a partir de un nivel ya es de por vida, la que te puse es la primera en tenerlo de por vida, pero te tienes que registrar en 30 días después de la compra, por eso pone el asterisco.

    Las tarjetas las ensambla cada uno, Nvidia o Ati lo único que hacen es darte un pbc de referencia y un palet de chips. Obviamente te la puede mandar echa de su fabrica, pero cada uno puede ensamblarla en otro sitio y de distinta forma, un ejemplo de ya es la nueva GTX 460, una de las opciones mide 2.6 centímetros menos, y funciona. Te aseguro que varía, no son la misma cosa por llamarse igual, la calidad de los transistores es diferente, los chips de memoria pueden ser otros, los conectores no tienen por qué ser de foxcom.

    El usb3 será el futuro, no lo niego, pero no creo que revolucione el mundo, será como el Windows 7, muy bueno y prometedor, pero la gente sigue usando el XP, en teoría obsoleto. El fabricante de lo que sea no puede arriesgarse a no vender algo porque el usuario no tenga usb3, por eso, hasta que no lo tengan todas las placas, incluso las más básicas, no se empezara a adoptar masivamente, en tres años veremos si ya es algo más palpable la realidad del usb3, pero mucho tiene que cambiar todo (ahora mismo, ni AMD ni Intel en sus chipset soportan el usb3, es el fabricante el que lo tiene que añadir en forma de otro circuito integrado).

    El SATA 3 no va a cambiar nada a no ser que uses un disco SD, por que los mecánicos de toda la vida es imposible que colapsen el SATA 2, y por un margen realmente amplio, lo veo sobre todo pensando en el futuro, y específicamente de esos discos de 128 Gb de 200 o 300 euros.

    Resumiendo, el usb3 es retrocompatible, funciona en usb2, aunque eso sí, a menor velocidad, por lo que no lo veo una necesidad o un requisito fundamental (los lápices usb tampoco colapsan el ancho de banda del 2) y el SATA 3 creo que si usas discos normales no importa nada, no se nota diferencia.

    Posdata: la Ram ha vuelto a bajar bastante.
    2 Gb por 50 euros. http://www.appinformatica.com/memori...b-1066-cl7.php.
    8 gigas son 4 módulos = +-200 euros.

  18. #18
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola Juan. En cuanto a max yo todavía no he hecho un fichero de 3 gigas, al menos no el, max solo. Ya con texturas y tal si y el 3ds Max va como el culo, pero va.

    En cuanto a la internet simétrica de 30 megas. Tienes idea del pastón que cuesta eso mensualmente. A mí me paso por la cabeza un día y cuando averigüe se me quitaron las ganas por corte.

    Quieres decir que si voy a comprarme un SD como es el caso (sd Intel x25-m g2 postville 80 Gb) debería adoptar el sata3 por que le saco mayor partido. Por que si es así la decisión entonces es muy clara. Puesto que no me voy a gastar 200 euros en algo para que después me rinda por debajo de sus posibilidades? Yo como lo que me has dicho prefiero entonces la EVGA, pero si la cosa es que me quedo corto en transferencia pues a tomar por, c, y me voy con la Asus y que dios se apiade de mi y me salga buena.

  19. #19
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Vamos por partes:
    3d_cubano, empiezas preguntando por equipos de gama alta: Dual Xeon y i7 980x, y estamos ahora hablando de i7 920 y AMD?
    Que es lo que quieres, un equipo top de gama y gastarte una buena pasta, o un equipo de gama media con precio ajustado?
    No es lo mismo comparar el i7 980x con un Dual Xeon que con un 930/920 o AMD.

    Para mí, en equipos de rendimiento, AMD no existe. Al menos hasta que lancen su próxima arquitectura y volveremos a darle una oportunidad.

    Respecto al Dual Xeon, el i7 980x posiblemente sea menos caro, con un rendimiento superior, sí, he dicho superior, 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Y además el i7 980x permite OC sin forzar placa ni memoria. Es la virtud de los micros extreme edition.

    Si lo comparamos con el 920/930, simeplemente no hay color. Cierto, el i7 980x es bastante más caro. 1000 euros vs 250EUR, pero la diferencia de rendimiento es también muy grande. 3,3 Ghz vs 2,6 Ghz, que además el i7 980x lo puedes subir a 4 GHz sin despeinarse y sin forzar el equipo, pero es que, además el i7 980x es 6cores y el 920/930 solo 4 Cores.

    En resumen, el i7 980x es más del doble de rápido que el 920/930 renderizando y trabajando, para mí estaría claro, si hay presupuesto, el i7 980x. Y la diferencia de precio la rentabilizas en poco tiempo.

    Del tema placas, el usb3 y el sata3 son los nuevos estándares, pero no hay que tirar cohetes, si el equipo lo quieres para granja de render, no necesitas nada de eso. Con un simple disco duro barato SATA 2 vas sobrado, si el equipo lo quieres para trabajo, y vas a montar un SD, pues incluso con el SATA 2 vas bien, la controladora permite 300mb/s y un SD de los buenos tiene transferencias de 150-250 Mb/s, si vas a montar un raid de discos SD, entonces es cuando necesitas el sata3, pero realmente vas a montar esa burrada? Pues está claro que no lo necesitas.

    El usb3, está muy reciente. Así que tardarán en aparecer periféricos que lo aprovechen, y si estas pensando en discos duros externos: e-SATA y que me quiten todo lo demás, además, siempre podrás en un futuro añadir una tarjeta PCI Express sata3 o usb3.

    Del tema garantías, todas las marcas dan más o menos la misma garantía. 2 años. Es lo que exige la ley, Juan a, estas mosca con Asus por que se te jodió una gráfica en 6 meses? Estaba en garantía, cuál es el problema? Eso es cuestión de suerte, pero además estoy seguro que se joden más gráficas de marcas baratas como club3d que de Asus o Gigabyte.

    Sin duda si comparamos Asus o Gigabyte con supermicro o Tyan, no hay color, pero porque son marcas de sectores diferentes. Asus y Gigabyte, son marcas de consumo, y tienen buena calidad en comparación con otras marcas del mismo sector. Y también hay que tener en cuenta el modelo, que no es lo mismo una Asus de gama baja de 80 euros que una pedazo de Asus de 300 euros.

    Respecto a la Ram, trabajo a diario con escenas que necesitan más de 4 gigas de Ram, y los equipos van como la seda con Windows XP-64 y Windows 7-64, en 3ds Max(64) y Vray(64) o Mental Ray(64), si lanzas un render que necesita más Ram de la que tienes, pues se ralentiza por el disco duro, pero no se cierra. Si Blender se cierra, muy mal por esa aplicación, pensaba que estaba más madura, aun así, estoy por ver si eso es cierto, porque me suena a que estás trabajando en 32bits.

  20. #20
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Yo tampoco, pero en Blender en un lateral te pone el número de vértices, el de caras y el de memoria Ram y del Hd que tiene el archivo. Y es real, el archivo creo que no llegaba a las 100 megas de disco, pero requería toda esa cantidad de memoria RAM.

    Me lo imagino (se que las facturas son de 4 cifras), por eso para mí si es una opción una RenderFarm online, entiendo que si alguien tiene 6 megas de ono como yo en casa pues no sea más que una locura.

    El Intel no tiene ese problema, fue de los primeros SSD en hacer acto de presencia (fue el mejor por varios meses) pero no llega a esos 300 megas por segundo que es el límite del SATA 2, no me hagas mucho caso, pero creo recordar que se quedaba en 180 o por ahí.

    Me refiero, por ejemplo, al nuevo disco de Samsung de 512 gigas, que todavía no ha salido y cosas así.

    No te preocupes, que lo del SATA y el usb es algo a largo plazo, algo, así como los discos IDE y los SATA, se ha tardado cerca de unos 5 años en dejar los IDE de lado, y ni aun así, muchas placas siguen trayendo el conector de 40 pines.

  21. #21
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    A ver a ver aclarémonos.
    3d_cubano, empiezas preguntando por equipos de gama alta: Dual Xeon y i7 980x, y estamos ahora hablando de i7 920 y AMD?
    Yo siempre he hablado de Intel, el que menciono AMD fue Juan y para granjas de renders mayormente.
    Que es lo que quieres, un equipo top de gama y gastarte una buena pasta, o un equipo de gama media con precio ajustado?
    No es lo mismo comparar el i7 980x con un Dual Xeon que con un 930/920 o AMD.

    Para mí, en equipos de rendimiento, AMD no existe. Al menos hasta que lancen su próxima arquitectura y volveremos a darle una oportunidad.

    Respecto al Dual Xeon, el i7 980x posiblemente sea menos caro, con un rendimiento superior, sí, he dicho superior, 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Y además el i7 980x permite OC sin forzar placa ni memoria. Es la virtud de los micros extreme edition.
    A ver si yo lo tengo claro en ese sentido, después de tanto chapotear a mí también me queda claro que no hay comparación entre un 920 y un 980, otra cosa seria hablar del e975 o algo así, pero ahora mismo no entra en consideración puesto que mi decisión en ese sentido es bastante clara: Intel i7 980x, ahora mismo es el micro más rápido que el dinero puede pagar en gamas i7 y sus rendimientos son espectaculares. Ya otra cosa es irse a los Dual Xeones (x5669 y compañía) pero eso ya es el doble de presupuesto por un incremento si acaso de un 50 %. Por cuestiones de presupuesto no es una opción. Así que el ganador sigue siendo: i7 980x.
    Si el equipo lo quieres para granja de render, no necesitas nada de eso. Con un simple disco duro barato SATA 2 vas sobrado.

    Si el equipo lo quieres para trabajo, y vas a montar un SD, pues incluso con el SATA 2 vas bien, la controladora permite 300mb/s y un SD de los buenos tiene transferencias de 150-250 Mb/s.
    A ver desde el principio tengo claro que es para una workstation, en la que renderizaré y haré de todo. Juan es el que me ha dado la idea de la granja de render y me parece muy buena idea y no la tenía en consideración en lo absoluto. Es algo que no me entraba en la cabeza. Y de ahí ponerse a valorar AMD y 920. De los cuales siempre me decantare por el 920 y una board lanparti si acaso que es de las baraticas, para bajar los costes del nodo de render. Es una opción que no había tenido en cuenta, pero que no tiene nada que ver con mi Workstation que es el motivo de este mensajes.
    Sin duda si comparamos Asus o Gigabyte con supermicro o Tyan, no hay color, pero porque son marcas de sectores diferentes. Asus y Gigabyte, son marcas de consumo, y tienen buena calidad en comparación con otras marcas del mismo sector. Y también hay que tener en cuenta el modelo, que no es lo mismo una Asus de gama baja de 80 euros que una pedazo de Asus de 300 euros.
    Veo que no incluyes a EVGA en tu lista de top boad, algo en especial? Por otra parte si me voy a gastar 960 euros en un micro no es para ponerlo en una placa base de 90 euros y sobre todo que la quiero overclockear. Por eso mi búsqueda de una placa buena, aunque sea más cara.
    Respecto a la Ram, trabajo a diario con escenas que necesitan más de 4 gigas de Ram, y los equipos van como la seda con Windows XP-64 y Windows 7-64, en 3ds Max(64) y Vray(64) o Mental Ray(64).

    Si lanzas un render que necesita más Ram de la que tienes, pues se ralentiza por el disco duro, pero no se cierra. Si Blender se cierra, muy mal por esa aplicación, pensaba que estaba más madura.

    Aun así, estoy por ver si eso es cierto, porque me suena a que estás trabajando en 32bits.
    Amen.

  22. #22
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    No es que se cierre, es que no llega a abrirse, es un Ubuntu 64. No estoy enfadado con nadie, es solo que yo esperaba más de Asus, yo compré las cosas pensando en la marca, y me defraudó por completo, igual que Seagate, igual que Asrock, igual que Gigabyte (los ventiladores de las gráficas se paraban solos y las tarjetas se quemaban), Lg. En fin, no me fío de ninguna, así que, o garantía de por vida o nada, eso significa que seguro que aguanta sin problemas, y si los hay, pues no es mi problema.

    Yo también apuesto por el 980, pero es que, hay veces en las que por 5 o 6 segundos por fotograma no merece la pena pagar 750 euros más, máxime teniendo en cuenta que a partir del año que viene van a salir los CPU híbridos, con fpu y GPU, y estoy convencido de que los más básicos le darán para el pelo incluso al 980, por eso creo que es mejor un 930, que no rinde mal, y esperar a ver cómo se desarrolla el tema, y guardar el dinero para ese momento.

    Por cierto, yo se de primera mano que la diferencia entre 1y 2 núcleos es muy grande, pero entre 4 y 6 en el max no eran más de 5 segundos, hicieron las pruebas con el 980 desactivando sus núcleos, no puedo ponerla porque Tom&#347, hardware no me termina de cargar (¿la habrán threshold?)
    Lo de AMD lo comento porque una granja con i7 de la serie 9 es un pastón, pero con AMD salen por mucho menos, y no creo que merezca la pena una inversión en hardware tan grande para que pasado mañana no rindan nada comparado con lo que haya en el mercado.

    Y discrepo enormemente contigo en el tema de que 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Habrá aplicaciones en las que sí, y habrá otras en las que no. Las que sean altamente paralelizables rendiran más con 8 núcleos que con 6, y las que no, rendiran más con 6 porque tiene mayor frecuencia.

  23. #23
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    [quote=(los ventiladores de las gráficas se paraban solos y las tarjetas se quemaban), Lg. En fin, no me fío de ninguna, así que, o garantía de por vida o nada, eso significa que seguro que aguanta sin problemas, y si los hay, pues no es mi problema.

    Yo también apuesto por el 980, pero es que hay veces en las que por 5 o 6 segundos por fotograma no merece la pena pagar 750 euros más, máxime teniendo en cuenta que a partir del año que viene van a salir los CPU híbridos, con fpu y GPU, y estoy convencido de que los más básicos le darán para el pelo incluso al 980, por eso creo que es mejor un 930, que no rinde mal, y esperar a ver cómo se desarrolla el tema, y guardar el dinero para ese momento.
    por cierto, yo se de primera mano que la diferencia entre 1y 2 núcleos es muy grande, pero entre 4 y 6 en el max no eran más de 5 segundos, hicieron las pruebas con el 980 desactivando sus núcleos, no puedo ponerla porque Tom&#347, hardware no me termina de cargar (¿la habrán threshold?)
    Lo de AMD lo comento porque una granja con i7 de la serie 9 es un pastón, pero con AMD salen por mucho menos, y no creo que merezca la pena una inversión en hardware tan grande para que pasado mañana no rindan nada comparado con lo que haya en el mercado.
    y discrepo enormemente contigo en el tema de que 6 Cores a 3,3 Ghz rinden más que 8 Cores a 2,4 GHz. Habrá aplicaciones en las que sí, y habrá otras en las que no. Las que sean altamente paralelizables rendiran más con 8 núcleos que con 6, y las que no, rendiran más con 6 porque tiene mayor frecuencia.[/quote]No estamos hablando de 5 o 6 sgs, sino del 40% a velocidad de fabrica y de 60-70% con OC (fácil de realizar y sin riesgo en el i7 980x y difícil y arriesgado en el 920/930) si en un render de 12 sgs, mejoras 5 segundos, es un abismo, y si es un frame de 5 minutos, bajar a 2:30 minutos, es puro rendimiento.

    Respecto a lo que saldrá el año que viene, siempre es igual, siempre habrá algo mejor dentro de 6 meses. No me vale el argumento y, además ahora más que nunca hay un verdadero salto de rendimiento entre un CPU normal y un extreme edition, pues además de más Mhz, tiene 2 Cores más.

    Esas pruebas que habrás visto probando el 3ds Max con 4 o 6 Cores, olvídalas, en las webs no saben usar el 3ds Max y pasan benchmarks que testean más el rendimiento de los visores que el de render. Y así vemos auténticas barbaridades de comparativas.

    Con Vray y Mental Ray, la escalabilidad es de más del 90%.
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    En potencia bruta el i7 980x 6 Cores es más rápido que el Dual Xeon 2,4 GHz 4x4 = 8 Cores, tanto en aplicaciones monohilo, por tener Cores a más Mhz, como en tareas multihilo bien optimizadas (altamente paralelizables) como los motores de render, debido a sus más Mhz x Cores, y sobre todo por que 6 Cores escalan mejor que 8.

    El rendimiento real del 6 Cores será más próximo al total teórico, que el de 8 Cores.

    Además, el Dual Xeon no lo puedes oc, y el i7 980x si puedes, y sin necesidad de forzar placa ni Ram, ni voltajes.
    6x4 Ghz = 24 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    Sin duda el i7 980x es muy superior, y el Dual Xeon mucho más caro, por que las placas son más caras, y el tipo de Ram, además de necesitar una fuente de más potencia que es más cara y gastara más electricidad.

    Si me comparas con un Dual Xeon 6 Cores (12 en total) entonces cambia la historia, pero se dispara el precio.

    Y por último, si dices que desactivando 2 Cores rinde casi igual, ¿cómo puedes creer que el Dual Xeon con 8 Cores va mejoré te contradices.
    Última edición por cabfl; 16-07-2010 a las 23:23

  24. #24
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Bueno, bueno relajemonos, que aquí todo el mundo está dando su opinión de buena fe y al fina se ha cumplido el objetivo que es ayudarme a decidirme.

    En cuanto a lo de que mañana sale algo nuevo tienen razón, pero salvo queintel anuncie que el mes que viene saca el micro no es lógico sentarse a esperar cuando tus renders se demoran un huevo y tienes que entregar cosas que no llegas. Ahora se resuelte y más adelante se verá. Que en la informática si esperas siempre lo que está por venir nunca llega.

    En cuanto a los Xeones de 6 micros ahí si que se disparan los precios, son una belleza de tecnología, pero no hay presupuesto que los aguante al menos le mío no puede. Muchas gracias por sus ayudas y en cuanto tenga armado el muñeco les dale benchmarks y fotografías para discutir acerca de rendimientos reales.

  25. #25
    Fecha de ingreso
    Sep 2008
    Mensajes
    323

    Intel i7 x980 vs dual xeon e5620


  26. #26
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Cab, jugar a hacer overclock a uno y no al otro, creo que no es jugar limpio. Lo de desactivar los núcleos es por la escalabilidad, lo he estado mirando (aunque no puedo poner la fotografía porque en casa no me deja entrar en la página, cosa que en la playa si pude hacer ayer) y la diferencia en este procesador entre un núcleo y 2 era de un incremento de la reducción casi a la mitad del tiempo, lo cual es muy bueno, significa que duplica el rendimiento. El problema es que la diferencia entre tener 2 y 3 no es la misma, sino que era cercana al 35%, y así hasta que entre tener 5 y 6 en el que apenas había diferencia.

    Yo no me contradigo, veras, para una situación que no es paralela, un juego, por ejemplo, conviene tener pocos núcleos y mucha velocidad, imagina que usamos este con seis núcleos, yo uno lo usaría para el motor de físicas, otro para la inteligencia artificial, otro para manejar el mapa y otro para el sonido. Sobran 2 que no puedo usar para nada, por lo que conviene que esos 4 que uso corran como el viento.

    En cambio, una situación paralela es muy distinto, cuanto más núcleos mejor. Vamos a poner el ejemplo de un renderizado. En Blender, la imaginen cuando se renderiza se subdivide en cuadros más pequeños, pongamos, por ejemplo, 64, bien, cada cuadro lo hará cada núcleo. El problema viene que en estos casos, hasta que todos no terminen no avanzan, es decir, 6 núcleos son 6 cuadros, si 5 de ellos son cuadros en blanco (solo un color de fondo, sin sombras y sin complejidad alguna) casi en el acto lo tendremos terminado, pero tienen que esperar a que el 6 termine el suyo con sombras HDR y a. O sea, que si tarda 30 segundos más, los otros 5 núcleos están esperando 30 segundos de gratis, por eso es mejor tener 8, ya que 64 es 8x8, significaría que cada pasada es una fila o columna, por lo que sería más rápido. No sé si me he explicado bien.

    Otro aporte, no es una contradicción, es una dificultad. 8 rinden mejor que 6, (un motor v8 rinde de mejor manera que un 6 en línea) lo que pasa es que es muy complicado programarlos, es decir, cuando creas una aplicación, parte del código tienes que usarla para definir los recursos que se cogen del procesador, ahí vienen incluidos el espacio de memoria Ram, los núcleos y todo lo que tenga que ver con el hardware. Lo que pasa es que para que se puedan usar 8 núcleos no basta con poner, por ejemplo: numberofcpustouse:8, sino que cada uno tiene que programarse a mano, y por eso rinden menos, pero es algo que está mejorando con el tiempo, y lidiar con 2 es difícil, pero posible, pero cuando tienes que usar 4, es una pesadilla, y o la aplicación es muy lineal y muy paralela o lo llevas de culo. En este sentido, Blender está muy bien echo, y usa de manera muy eficiente los núcleos que tenga el sistema, y max fracasa en este caso porque el código es malo, cosa que confirman las quejas de bugs que ahí presentes en internet de este software.

    Yo recomiendo los 8 porque confío en que mejoren el código y pueda aprovechar mejor los recursos, pero a día de hoy no es una realidad. Lo mismo pasó con el SLI, al principio apenas suponía una mejora del 10%, y hoy muchos juegos suponen una mejora del 50 o más, solo hay que darle tiempo y optimizar el código fuente (lo cual no es para nada sencillo). Mira como la comparación con Cinebench de nono el Xeon se merienda al i7, y eso es porque el código es fabuloso y muy optimizado.

    Lo que pasa es que hay que ser realistas, el i7 es un buen procesador y una buena opción, tanto como con 4 como con 6 núcleos, y la verdad espero impaciente las fotografías del equipo, el cual espero que haga muy feliz a su propietario y lo disfrute mucho.

  27. #27
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Referente a como trabajan los renders no creo que como lo planteas (o como lo entendí yo que puede no ser lo mismo) puesto que si un cuadro se mete un siglo en hacer render por que da la hola que ahí cohinciden HDR, reflejos y AO pues se quedan calculando ese cuadro mientras los demás siguen avanzando, nadie se queda a esperar por nadie. Es más cuando todos los demás terminan pues se ponen a por el demorón o por lo menos así es cómo funciona en Mental Ray. Ah que puede darse la ocasión que los 6 están trabajando en una zona complicada pues a esperar a que terminen, pero bueno de eso va la cosa.
    La verdad espero impaciente las fotografías del equipo.
    No te preocupes que las abra, a lo mejor me tardo 15 o más, pero de que va, va.

  28. #28
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Juan a, después de leer tu respuesta, llego a la conclusión de que no les con atención las explicaciones y demostraciones que te hemos dado.

    No se trata de jugar limpio o sucio, sino del potencial real de cada opción.

    Los Xeon no se pueden OC por que los micros tienen el multiplicador bloqueado, y las placas para Workstation y servidores no tienen opciones de oc, para subir la frecuencia del bus, o los voltajes, o los multiplicadores etc. No hay opciones para poder tocar la velocidad de la placa o la Ram o la CPU.

    Sin embargo, en los i7 las placas si traen las opciones necesarias para OC y, además el i7 980x es un CPU serie extreme edition que están preparados por Intel para hacer oc, y traen el multiplicador desbloqueado para que puedas subirlo libremente sin necesidad de forzar la placa o la memoria.

    Sin tener ni idea de oc, puedes subirlo desde 3,3 Ghz hasta 4 GHz simplemente cambiando el multiplicador, y si sabes manejar el resto de parámetros, podrás subirlo mucho más de 4 GHz.

    Los Xeon no puedes hacer nada, así que 2,4 GHz, te guste o no.

    El rendimiento por número de Cores, depende de lo optimizado que esté el software, en motores de render se aprovechan todos los Cores, con una leve penalización por la gestión, que es mayor cuanto más Cores.

    El rendimiento real número de Cores vs Mhz. Ni uno ni lo otro. No se puede decir tajantemente que más Cores es mejor que más Mhz, ni tampoco al revés.

    El rendimiento depende de ambos, del número de Cores y de su velocidad en Mhz. A igual Mhz, 8 Cores son más rápidos que 6. Pero y si el de 6 tiene sus Cores a muchos más Mhz que el de 8? Pues el de 6 será más rápido.

    Y eso es lo que ocurre aquí:
    6 Cores a 3,33 Ghz es más rápido que 8 Cores a 2,4 GHz. Te lo hemos demostrado ya varias veces, pero si sigues empeñándote en creer con fe ciega en los 8 Cores, halla tu.

    Cinema4d, tiene un render bien optimizado para muchos hilos de cálculo: http://lightrender.es/foros/download...=400&mode=view.

    El i7 980x a 3,33 Ghz (sin oc) es más rápido que el Dual Xeon 8 Cores a 2,4 GHz.

    Si además hacemos OC al i7 980x, pues saca las cuentas, bueno, ya te las hice yo antes.
    Con Vray y Mental Ray, la escalabilidad es de más del 90%.
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    En potencia bruta el i7 980x 6 Cores es más rápido que el Dual Xeon 2,4 GHz 4x4 = 8 Cores, tanto en aplicaciones monohilo, por tener Cores a más Mhz, como en tareas multihilo bien optimizadas (altamente paralelizables) como los motores de render, debido a sus más Mhz x Cores, y sobre todo por que 6 Cores escalan mejor que 8.

    El rendimiento real del 6 Cores será más próximo al total teórico, que el de 8 Cores.

    Además, el Dual Xeon no lo puedes oc, y el i7 980x si puedes, y sin necesidad de forzar placa ni Ram, ni voltajes.
    6x4 Ghz = 24 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    Sin duda el i7 980x es muy superior, y el Dual Xeon mucho más caro, por que las placas son más caras, y el tipo de Ram, además de necesitar una fuente de más potencia que es más cara y gastara más electricidad.

    Si me comparas con un Dual Xeon 6 Cores (12 en total) entonces cambia la historia, pero se dispara el precio.
    Del tema de los cuadrados en el motor de render. El tamaño lo defines manualmente. Así que no tiene nada que ver que tengas 2, 4, 6, 8 o más Cores para aumentar o reducir el tamaño de los cuadrados de render.

    Además, si se da el caso de una fotografía, que en un cuadrado tarda mucho más que todos los demás, por su comejidad, es mejor tener un 6cores a 4 GHz, que tendrá un Core a 4 GHz trabajando en ese cuadrado y terminara rápido y los otros 5 no tendrán que esperar tanto, que tener un Dual Xeon con 8 Cores, y un Core a 2,4 GHz trabajando ese cuadrado lentamente, mientras los otros 7 esperan.

    La solución mejor es reducir el tamaño del cuadrado para que se repartan esa zona entre varios, sí, pero esa solución vale tanto para un 6 Cores como para un 8 Cores, y siempre el 6 Cores 3,33 Ghz será más rápido que el 8 Cores 2,4 GHz.

    Y además en tareas que no son multicore, como, por ejemplo, mientras estas modelando, 1 Core a 3,33 Ghz (o 4 GHz) del i7, será mucho más rápido que 1 Core a 2,4 GHz del Dual Xeon.

    Del rendimiento de Blender y max, infórmate mejor, por que te veo muy perdido.

    El max usando el driver de visores por software, usa todos los Cores al 100% y aprovecha muy bien el rendimiento de la CPU. En OpenGL y DirectX que usan la tarjeta gráfica, no depende solo de 3ds Max, sino del driver de la tarjeta gráfica y su integración en la aplicación, que en el caso de 3ds Max, resulta que es de las aplicaciones más rápidas que existen actualmente. OpenGL es capaz de usar varios Cores, pero DirectX usa solo 1. Aun así, DirectX con un solo Cores, es mucho más rápido que OpenGL trabajando con varios. La razón es simplemente que Ati y Nvidia están mejor optimizados para DirectX.

    Respecto a los juegos que algo comentaron antes. Hoy día la mayoría aprovechan hasta 4 Cores.
    Última edición por cabfl; 19-07-2010 a las 18:37

  29. #29
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    Me duele que me digas que no leo, ya que no es así, leo y comprendo, e intento responder en consonancia. Sobre lo que no se puede overclockear un Xeon no es cierto, no es lo usual, pero la placa que aquí puse si que lo permite, y aporta muchas características para ello, por ello, pienso que no es justo darle a uno una ventaja (que no dudo que no la pueda conseguir fácilmente) y al otro no, que, aunque se presupuestopone que no se le hará nunca, no por ello es imposible. Mi AMD también tiene el multiplicador bloqueado, y el de mi padre, y el de la oficina, y seguramente los que mucha gente usa también, pero yo al mío le pude subir la frecuencia, sin problema alguno, otra cosa es que el multiplicador liberado ayude más, pero eso no implica que no se puedan overclockear.

    Eso de preparado por Intel, no me lo creo, estoy convencido de que un 920 también tiene mucho potencial de overclock, pero lo que interesa es que, si quieres más velocidad pagues por un procesador superior (obviamente más caro) y por eso los van capando, y para poder mantener la fama de la marca, pues sacan algunos sin límites, pero a un precio desorbitado. No sé si recuerdas los AMD XP, el multiplicador se desbloqueaba uniendo unas pistas con un simple lápiz de grafito, y eran posible en todos. Nada, Intel diseña sus procesadores y si luego puede los saca al mercado. Digo lo de si puede, porque prepararon para sacar un p4 a 4.0 Ghz, pero la arquitectura no estaba por la labor y nunca llegó a salir, yo lo de preparación lo sustituiría por suerte, de si es posible o no, no por un esfuerzo extra por parte de los ingenieros.

    Yo que programo te aseguro que no se pierde un poco, se pierde gran parte, además, ya puedo entrar en la página y colgar la captura que te comente del i7 con sus núcleos desactivados.

    Nombre:  resapp3dstudio.png
Visitas: 399
Tamaño: 40.1 KB


    De uno a dos núcleos mejoramos bastante, la mitad del tiempo, si fuese muy poco lo que se pierde por cada núcleo extra, tendríamos que 11 minutos entre 2 es 6.5, entre 2 (sería el tercer núcleo) es 3,25, que entre 2 (ya vamos por el cuarto) es 1.6, y 6 nos darían 40 segundos, pero la imagen muestra 2,27 minutos, que para nada es lo que ocurre, y si te fijas, el mayor salto lo pega de 1 a 2, porque de 5 a 6 solo mejora 20 segundos, lo cual es una, y te aseguro que es por el motor del programa, que no vale un duro. Dime tú si eso es optimización y aprovechamiento de Cores.

    Más Cores es mejor si se optimizan al 100%, (cosa altamente difícil) como ocurre en este software.

    Nombre:  sinnombre.png
Visitas: 595
Tamaño: 38.6 KB


    El 980 es bastante mejor que el 930, y no solo es por su frecuencia extra, lo que demuestra que esta optimizado, lo cual es normal en estos casos, hacer un test, solo tiene que hacer eso y es normal que lo haga bien.

    Yo soy el primero en decir que no hay CPU mejor que otra, depende de la aplicación, y creo que en esto de renderizar la velocidad pasa a un segundo plano, y lo que importan son los núcleos. El tamaño lo ajustamos manualmente, sí claro, una cosa es lo que tú le digas que haga y otra lo que haga en segundo plano el motor de render, ¿si pones un único cuadro crees que lo renderizará del tirón? Pues claro que no, lo subdividirá para poder hacerlo, lo que pasa es que este proceso es transparente para el usuario, y parece que es solo un único cuadro. Las cosas de la informática, que no sabes lo que hace el hardware en segundo plano. Obviamente, no sé cómo será el del 3ds Max, y nunca lo sabré dado que el código fuente no lo veré nunca, pero si se lo que hacemos para conseguir las cosas y de qué forma, y dudo que Autodesk revolucione el mundo en este sentido.

    Yo lo veo así, siempre habrá uno que sea más lento porque se toque las pelotas, en todo, renderizando, trabajando en el taller, en la oficina, lo que importa no es lo que lo retrase, sino lo que se pueda avanzar mientras ese nos retrasa. Piensa por un momento una cosa, la probabilidad de que en 6 núcleos coincidan dos cuadros difíciles es menor de que con 8 tengamos 2 de los complejos. Es decir, el caso más extremo es que solo uno trabaje, y el resto a chupar electricidad de gratis, pero por las circunstancias de esto, es raro que pase, más que nada porque el propio motor intenta alternar los cuadrados, es decir, cada uno es al azar. Bien, con seis núcleos a lo mejor nos tocan de una vez 2 de los 3 cuadrados más complejos, con ocho a lo mejor nos tocan esos 3 y nos evitamos un pase extra, solo es coger la calculadora, ver el tiempo que puede perderse con 6 y el que puede ganarse con 8. Yo para mí lo tengo claro, lo que pasa, es que 6 y 8 son un chorro de dinero, muchísimo, y entonces entra en juego otro valor, el señor dinero, y entonces me decanto por 4 núcleos miserables, ya que la escalabilidad de 4 es buena, la de 8 muy mala, y para ganar 1 minuto por fps, prefiero invertir ese dinero en un motor de GPU, el cual, por la mitad de lo que cuesta el 980x lo hace 20 veces más rápido, por ejemplo, con una GTX480 de 500 euros. Se trata de no ser un cerrado de mente.

    Yo me informo muy bien, el max usa el 100% de los Cores ¿y? Eso no implica que lo haga bien, al contrario, en la gráfica se ve claro que no es así. Mi coche usa un 150% más de gasolina que el tuyo y eso no implica que sea mejor ni que corra más, a lo mejor es porque un motor carburado consume más y rinde menos, pero eso sí, usa más gasolina que el tuyo.

    Discrepo en lo de que tanto como OpenGL como DirectX no dependen de max, a lo mejor si en vez de tener que hacer algo a palos de ciego, me diesen el código fuente, pues saldría algo bastante decente a la primera, en este caso no es solo culpa de max, también de Microsoft, de Adobe, y de todos los que quieras, por que yo adivino no soy, e interpretar un código sin saber cómo fue escrito es muy complicado.

    En lo que si te doy la razón es en lo que DirectX está más optimizado, es normal, OpenGL perdió su impulso hace mucho, ahora se muestra más competitiva, pero tampoco en exceso. Lo que pasa es que en estas cosas no solo influye lo mejor, porque OpenGL puede ser gloria bendita, pero si programar con ella es solo la mitad de complicado que hacerlo para la Play Station 3, pues que le den por culo, si DirectX es peor, pero me es más fácil, será el que yo apoye, y cuando el 95% de los estudios solo saben usar las apis de DirectX está claro que es muy difícil que Ati y Nvidia le presten atención al OpenGL. Es lo mismo que pasa con max, lo usa el 40% del mundo, es obvio que el que aprendió con el 3dsMax no está por la labor de cambiar de software, y menos cuando es la referencia en el mercado. Las cosas de los monopolios.

    De todas formas, te digo lo que pienso, ambos son herramientas, el dx, y OGL son un texto que el usuario crea, es como la gente que pregunta por el programa que debe usar, lo importante no es el software, eres tú, y depende de cómo se usen rinde más o menos. Lo que ocurre, es que nadie programa bien (ni yo mismo) y entonces el juego en vez de necesitar 3 gigas de Ram, necesita 4, porque tiene fugas de memoria, o porque no he optimizado el código (cosa muy habitual, optimizar lleva mucho tiempo y dinero, pero muchísimo, y hay veces en que apenas mejora un 10%). Pero si se usan correctamente ambas, me decanto por open, rinde excepcionalmente bien (los Unreal (Tournament 2003, 1, 2.) usan OpenGL y hay veces en que llegan a los 300fps, y eso en DirectX pues es anecdótico) y no genera gráficos malos, más bien geniales. Lo que ocurre es que es más difícil de usar, y para lograr ese césped que ondea con el viento en DX necesito unas 30 horas y con OGL sobre 50, es normal, el tiempo es dinero, el estudio quiere sacar 5 o 6 juegos al año, se conforman con sacar uno y, y, pero si por ellos fueran.

    Lo del juego te lo he puesto yo, para hacerte ver que no siempre más es mejor en todos los casos, depende de cual y para que, con cuatro vas sobrado, no necesito 6 si son más lentos que los 4 y solo voy a usar esos 4.

    -- IMÁGENES ADJUNTAS --

    Última edición por 3dpoder; 09-03-2012 a las 08:24

  30. #30
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Intentaré responderte por partes. El OC en Xeon es bastante extraño. Alguna placa hay, y no es la primera vez que aparecen, pero no esperes la panacea. Las memorias EC no están pensadas para oc, ni tampoco es lo mismo OC un micro, que hacerlo con 2, que nunca son idénticos. Aun así, se puede con esa placa, forzando chipset, memorias y Vcore de los CPU.

    Dudo que quien se gaste el pastón que cuesta ese equipo se dedique ha juguetear con el oc.

    Si te fijas en el 99% de las placas para Dual Xeon, no traen opciones de oc.

    Los i7, son todos el mismo CPU, a diferente frecuencia (a excepción de los 4 Cores vs los 6 Cores). Y no es Intel quien dice vamos a fabricar uno a tantos Mhz y otros a más o menos. Se fabrican todos al mismo tiempo. 920, 930, 940, 950, 960, salen todos de la misma remesa. Pero no todos salen iguales. Unos soportan más frecuencia y otros menos, unos necesitan un Vcore más alto y otros menos. Intel lo único que hace es seleccionar cuales salen mejores y cuales peores, y les asigna mayor o menor frecuencia.

    Los extreme edition, son el tope de gama, y llevan los CPU pata negra. Los que mejor han salido y que soportan mayores frecuencias y vcores más altos. Intel los ha seleccionado así para oc, por eso digo que están mejor preparados para oc.

    Además, vienen desbloqueados para oc, y no necesitas forzar placa, ni Ram, ni chipset.

    Sin duda, un 920 admite también oc, y si te sale bueno, bastante oc, pero no esperes que suba tanto como un extreme edition, y además forzando memorias, chipset, pues el multiplicador esta bloqueado.

    La gráfica de rendimiento que has puesto con 3ds Max y Mental Ray, parece correcta, y bien optimizada, aunque ha tí no te lo parezca.
    ¿Qué esperas, que de 5 a 6 Cores mejore 50% igual que de 1 a 2 Cores?
    Fíjate bien, que de 1 a 2 Cores casi duplica su rendimiento, igual que de 2 a 4 Cores, igual que de 3 a 6 Cores.

    Añadir un Core a 5, supone apenas un 15% teórico, y un rendimiento real de 10%.

    Si te fijas, con 4 Cores tarda 3:15sg (195sg) y con 6 Cores 2:27sg (147sg), 48 segundos de diferencia, que no es poco para un render de 2:27sg, simplemente un 25%, ahí es nada.

    Y si la gráfica fuera con un Dual Xeon (4+4=8 Cores) verías que el rendimiento de 6 a 7 y a 8 Cores mejora aún menos, pero que 8 Cores son casi el doble de rápidos que 4 Cores.

    Digo lo de casi, por que se pierde rendimiento en la gestión de hilos, y mientras más Cores menos escalabilidad.

    Los números hablan por sí solos, Mental Ray es un motor muy bien optimizado, y no es hola, simplemente es uno de los mejores motores de render que existen, desde hace más de 20 años.

    Estamos comparando un i7 980x 6cores (3,33 Ghz) vs Dual Xeon 5620 8 Cores (2,4 GHz)?
    O con un Dual Xeon 5580 8 Cores (3,2 GHz)?
    Porque si estamos comparando con el Dual Xeon 2,4 GHz, para que me pones una gráfica con un Dual Xeon 3,2 GHz?
    Si es ese el que quieres comparar, no hace falta que busques gráficas, ya te lo digo yo, el Dual Xeon es más rápido, pues su frecuencia es casi igual y además tiene 2 Cores más.

    Pero el Dual Xeon 5640 2,4 GHz, que es el que estamos hablando y el que preguntó 3dcubano, no le llega al i7 980x, aunque sean 8 Cores, porque son muy lentos: 2,4 GHz.
    ¿No has visto la demostración?
    http://lightrender.es/foros/download...=400&mode=view.

    Cinebench, que parece que te ha gustado, pero en la versión 11.5, que está mejor optimizado que el 10.

    El i7 980x 6cores 3,33 Ghz es más rápido que el Dual Xeon 5620 8 Cores 2,4 GHz.

    Incluso un poco mejor para el i7 980x de lo que yo te había calculado, posiblemente por que el 8 Cores pierde más rendimiento gestionando más Cores:
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).

    Si cometes la torpeza de poner un tamaño de cuadro tan grande que use un único cuadro, renderizará solo con 1 Core, aunque tenga 8. El motor de render no buscara nada en segundo plano, se limitara a hacer lo que tú le has dicho, renderizar con un solo cuadro, y dado que asigna Cores a cada cuadro, pues no tiene más cuadros para el resto de Cores. Este tema es absurdo, no sé ni por que me esfuerzo en explicártelo, cualquiera puede comprobarlo con Mental Ray o Vray, o Brazil.

    Rebuscar en el tamaño de los cuadros si es mejor un 8 Cores que un 6 Cores, es surrealista.
    8 Cores van más rápidos que 6 a misma frecuencia, pero si el de 6 tiene más frecuencia que el de 8, será más rápido el de 6. Y si tienes una imagen con una zona muy compleja, reduces el tamaño de los cuadro, para que se calcule entre los 6 Cores.

    Del tema de DirectX y OpenGL. Ya te lo dije, depende del driver de Nvidia, y de la implementación de la Api en 3dsmax.

    Por eso una Quadro FX es mucho más rápida que una GeForce, son el mismo GPU, pero la Quadro FX tiene un driver de Nvidia optimizado y, es más rápida.

    Y la integración en 3dsmax de la Api, es muy buena, y lo sabemos por que comparado con otras aplicaciones, max mueve más geometría en la misma cpu/gráfica que otras, como Maya, Cinema 4D, LightWave. Sólo he visto al XSI mover más que max. Sobre todo, si usas una Quadro FX que tiene un driver superoptimizado para max (por Nvidia, nada que ver con Autodesk).

    En juegos, si es mejor OpenGL o DirectX, actualmente es DirectX quien tiene la iniciativa, y OpenGL llega siempre con retraso. DirectX tiene actualmente más capacidad que OpenGL.
    Última edición por cabfl; 20-07-2010 a las 02:06

  31. #31
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    ¿Extraño OC a un Xeon? La gente hace cosas muy raras, se puede si o no. Se puede, me da igual que casi ninguna placa y menos gente lo haga, pero es una posibilidad, por lo que desde ese mismo momento en que a ambos se le puede subir la frecuencia y solo se la subimos a uno es algo injusto, y para nada se ajusta a la realidad. Imagina que solo nos subiesen los impuestos a nosotros, y a los ricos, que son pocos, no, ya que de todas formas, defraudran a hacienda. ¿lo ves justo? O todos moros o todos cristianos, o todos tienen OC o ninguno.

    Tú dudas de eso, de OC un Xeon, yo dudo de muchas otras cosas y no tiene por qué ajustarse a la realidad, como de echarle queroseno al motor, y conozco a uno que lo hace, de la misma forma habrá alguien que haga lo otro.

    Te lo voy a comentar, yo sé que se fabrican en serie, y se intenta que todos salgan pata negra, ya luego los bajaran de vueltas. Piensa una cosa, imagina que por cada 100 procesadores, sale uno pata negra ponte que este año se han vendido un millón de i7, eso son bastantes pata negra, más de los que Intel va a vender nunca, pues se hace lo mismo, se pone que sea algo inferior, y en verdad tienes un ex solo que no lo sabes. Lo mismo pasa con las gráficas, o te crees que todas las GTX480 que se hagan se van a vender, pues se recortaran para que sean una GTX465 y en verdad es una 480, solo que de nuevo no lo sabes, así que, los supuestos pata negra abundan más de lo que te piensas, bastante más, el último informe de tmsc (o cómo se escriba) dijo que un 40% eran el chip perfecto, o sea, de cada 100, 40 son pata negra, y dudo que Intel los guarde en un almacén. Amd hace lo mismo, y luego los vende en vez de cómo Phenom 6 como un x4 y otras cosas, por eso las placas permiten desbloquear los núcleos. No amigo, ni pata negra ni nada, la industria funciona de otra manera.

    Tener el multiplicador desbloqueado y pensar que OC no forzamos nada más es un error. Subes el multiplicador de 22 (imagina que es el tope de la gama, el inferior que no es ex solo llega hasta aquí) a 25, pues resulta que se aumenta la frecuencia, por lo que por pura física, se requiere más energía, por lo que la placa necesita entregar más de ella, parece que no, pero ya la estamos forzando (incluso la propia fuente). La Ram, al tener una CPU más rápida tiene que trabajar más y, aunque no lo creas, trabajar más es forzarla más. El chipset tiene que gestionar de una forma más rápida y, aunque no lo hayamos subido de forma directa, indirectamente también trabaja más. En fin, que tener el multiplicador desbloqueado no es la panacea, en muchos casos hay retocar la placa para sincronizarla y cambiar el voltaje. Las cosas de los iones, no son lo que parecen.
    ¿No puede hacer lo mismo un 920 que un 980 euros pues sí, si que puede, incluso a más nivel, que yo sepa los Celeron de ahora se overclockean incluso mejor que los ex, no tiene nada que ver, es otro trozo de silicio, depende de cada uno hasta dónde puede llegar.

    Un Celeron d (una de procesador) llegó hasta los 8.2 Ghz, y el 980x no lo he visto a más de 7ghz, por lo que no es tan bueno como piensas, no por ser más caro tiene que ser mejor.

    Yo te aseguro que una escalabilidad del 50% por cada núcleo es posible, solo que como te he dicho requiere dinero a espuertas y casi el mismo tiempo que en desarrollar el programa, y nadie está por la labor. Así que, sí que espero esa escalabilidad del 50% con el 6 núcleo, por que sé que es posible. Ya ves tú la optimización de Mental Ray, solo con dos núcleos está bien echo, y no es hola, gestionar 2 núcleos es complicado, pero semi sencillo, pero lo bueno viene con 6, eso sí que es complicado, y entonces recurrimos a una ñapa (que suele ser que los gestione el so en vez del programa) y listo, nos quitamos un peso de encima. Pues déjame decirte que eso es una, así de claro, y si para ti eso es lo mejor, será porque no conoces otra cosa, no por que realmente merezca ese título. La gente fuma, muchísima gente, no puede ser tan malo. Si miramos lo que hacen los demás para decidir sobre algo (en este caso la calidad del Mental Ray) mal vamos, ¿si los demás se tiran al río tú también?
    Por cierto, telefónica (telefónica) también debe de ser lo mejor, existe desde hace 20 años.

    La comparativa sigue sin ser justa, XP no es precisamente amigo del multinúcleo, y ni siquiera es el de 64 bits, por favor busca una que sea del 7 en su versión 64, por que el so hace más de lo que tú te crees en gestión y en rendimiento, pero bastante. El XP favorece velocidad a cantidad, y existiendo algo que si tiene soporte nativo del mulinúcleo, te pido que si es posible la pongas con un so acorde a los tiempos que corren.

    En verdad me doy cuenta de que confías demasiado en la teoría, los totales teóricos no valen nada más que para hacerte un idea, y menos en la informática, donde hay muchas variables que, el papel diga una cosa no implica que sea así, mi coche no consume los 6 litros que pone el papel, en la teoría las cosas no se rompen, y todos sabemos que todo se rompe, en la teoría, el agua destilada pura al 99.9% a lo mejor solo llega a un 99.5%, en fin, ejemplos miles, la teoría para cálculos de física y matemáticas, para todo lo demás no vale para nada. Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra. El máximo teórico de 19.2 a mí no me sirve de nada, solo para tener una idea general, pero lo tengo que coger con pinzas, porque son eso, teorías.

    Insisto, yo no tengo max, y no sé cómo lo hace, pero si pones un cuadro, el procesador lo renderizará con todo lo que tenga, subdividiéndolo, algo que es absolutamente normal, ¿o acaso no va poco a poco? Ese poco a poco son subdivisiones, sino fuese así, la mostraría de golpe, y sabemos que no es así.

    Yo mira tú por dónde no veo que 6 sean más rápido que 8 más lentos (renderizando), llámalo saber programar y conocer los trucos y chapuzas que se hacen en el código, en fin, yo no rebusco el tamaño de los cuadros, solo pongo situaciones límite, pero, si con 6 núcleos tengo que reducir aún más los cuadros, ya me dirás tú dónde está la ganancia.

    No, depende del programador, igual que otras muchas cosas en esta vida, es el artista, no la herramienta. Yo creo lo mismo con Maya como con Blender, y son herramientas distintas. El driver de Nvidia lo que hace es corregir mis errores, nada más. Una Quadro es más rápida porque ha Nvidia le interesa que sea así, no por otra cosa, porque los drivers valen para ambas tarjetas, ya que físicamente es el mismo trozo de silicio, y sí, cada programa en que se use tiene que ver, y los estándares también, pero como eso no va con nadie, cada uno desarrolla como le sale de los coj*nes y tiene que venir Nvidia o Ati a poner una ñapa, en vez de hacer las cosas bien. Autodesk es tan culpable como Maya, como lsi, c4d, interpretar un código compilado es difícil de verdad.

    Open GL es mejor, solo que para conseguir mejores resultados requiere más tiempo, por eso DirectX es la más usada.

  32. #32
    Fecha de ingreso
    Aug 2006
    Mensajes
    336

    Intel i7 x980 vs dual xeon e5620

    Hola amigos veo que nos hemos enfrascado en una discusión teórica bastante profunda y quiero acotar algunas cosas.
    Para ganar 1 minuto por fps.
    Como dije anteriormente si esto es lo que gano por frames por segundo me parece un mundo cuanto tengo que entregar una animación de 500 cuadros. Veamos las cosas en perspectiva y no solamente por el tiempo de entrea de un cuadro único. Que aquí mucho viven de hacer fotografías fijas, pero los otros (yo incluido) que tenemos que meternos con las animaciones y sus tiempos. Cualquier diferencia por mínima que sea en un cuadro con respecto a otro repercture bastante en el tiempo final de una animación completa.
    Es obvio que el que aprendió con el 3dsMax no está por la labor de cambiar de software.
    Mira yo llevo trabajando con 3ds Max desde la versión 1 y te digo yo que llegado a esta altura que me lo conozco bastante bien no me voy a poner a perder tiempo aprendiendo otra aplicación puesto que como bien tú dices son herramientas y si a ti un martillo te sirve para poner un clavo no vas a la tienda a comprar otro por bonito que sea, o por que sea el que tiene todo tu barrio. Otra cosa es comprar uno neumático, pero aquí en esta historia no es el caso. A la postre max, Autodesk Maya, XSI y c4d son lo mismo. Herramientas, si te sabes una bien no tiene sentido cambiar solo por decir que sabes más.
    Las memorias EC no están pensadas para oc.
    Aquí rompo una lanza a favor de Juan, siempre hay soluciones y en este caso, por ejemplo, la placa EVGA acepta memorias ordinarias por lo cual no son necesariamente imprescindibles las EC.
    La gráfica de rendimiento que has puesto con 3ds Max y Mental Ray, parece correcta, y bien optimizada, aunque ha tí no te lo parezca.
    ¿Qué esperas, que de 5 a 6 Cores mejore 50% igual que de 1 a 2 cores?
    Lo ideal sería que por cada núcleo añadido existiera la misma diferencia que de uno a otro, así seria matemáticamente correcto, pero no es caso, desfortunadamente. Aunque aun así 6 corren más rápido que 5 y eso es lo cuenta hablando de renders.
    Los números hablan por sí solos, Mental Ray es un motor muy bien optimizado, y no es hola, simplemente es uno de los mejores motores de render que existen, desde hace más de 20 años.
    En esto estoy de acuerdo, es un motor muy profesional y ampliamente extendido en la industria por algo será ¿no? O es que, ahora vamos a ver a RenderMan malo solo porque es el más adoptado por las grandes infrastructuras del 3d? No por que muchos adopten algo tiene que ser bueno pero tampoco necesariemente tiene que ser malo. Si Mental Ray da ese nivel de escalabilidad por algo será, es una empresa que tienen bastantes cesudos dentro solo rompiéndose la cabeza para sacar los renders en el menor tiempo posible. O no se acuerdan lo lento que era Mental hace 5 años atrás?
    Porque si estamos comparando con el Dual Xeon 2,4 GHz, para que me pones una gráfica con un Dual Xeon 3,2 GHz?
    Si es ese el que quieres comparar, no hace falta que busques gráficas, ya te lo digo yo, el Dual Xeon es más rápido, pues su frecuencia es casi igual y además tiene 2 Cores más.
    Sera más rápido, pero cuesta un huevo más y esta vez multiplicado por dos así que, no entra en la valoración.
    El i7 980x 6cores 3,33 Ghz es más rápido que el Dual Xeon 5620 8 Cores 2,4 GHz.

    Incluso un poco mejor para el i7 980x de lo que yo te había calculado, posiblemente por que el 8 Cores pierde más rendimiento gestionando más Cores:
    6x3,33 Ghz = 19,9 Ghz (total teórico).
    8x2,4 Ghz = 19,2 Ghz (total teórico).
    Aquí fue donde entraron mis dudas.
    Sólo he visto al XSI mover más que max.
    Esto no lo sabía, me entero ahora.
    En juegos, si es mejor OpenGL o DirectX, actualmente es DirectX quien tiene la iniciativa, y OpenGL llega siempre con retraso. DirectX tiene actualmente más capacidad que OpenGL.
    Pasemos del tema de los juegos que aquí no vienen al caso, estamos hablando de soluciones para un ambiente de trabajo profesional. Ya los entornos de juegos son otra cosa y merecerían otro mensaje completamente diferente a este.
    Como de echarle queroseno al motor.
    De esto en Cuba sabemos bastante y hay muchos cochoes del año 50 caminando por las calles con esas soluciones. La necesidad es la madre de la invención.
    El 980x no lo he visto a más de 7ghz.
    ¿dónde? Por que seguro tenía un tanque de 55 galones de hidrógeno liquido para enfriar todo aquello ¿no? Por favor hablemos de cosas tangibles y no perdamos el norte que repito es para sacar conclusiones en entornos de trabajo profesional no de friki especulador.
    Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra.
    Podemos hacer esto menos personal?
    Yo mira tú por dónde no veo que 6 sean más rápido que 8 más lentos (renderizando).
    A ver tío esto ya se ha demostrado hasta el cansansio, así que, no pateleamos más en ese sentido, miremos las cosas en el sentido practico. E5620 vs 980, no metamos ni x5660 ni 5680 ni nada por el estilo que no es la pregunta ni es el caso. Aquí no se trata de ganar la discusión sino de aprender todos juntos y sacar el mejor provecho de las opiniones acerca del tema en cuestión.
    OpenGL es mejor, solo que para conseguir mejores resultados requiere más tiempo, por eso DirectX es la más usada.
    Aquí, y con el mayor respeto, veo una tendencia media friki tuya. A ver mejor por qué? Por que está más optimizado, porque hay menos gente que lo usa. El término mejor es muy relativo por que yo te podría decir que DirectX es mejor por que lo usan casi todas las empresas de videojuegos y como bien tú dices es más fácil implementarlo. Entonces te dices o te contradices? No seamos tercos por favor. Que si OpenGL fuera la panacea ahora mismo estaría en el top del mercado y no es el caso. Más o menos lo que pasa con Linux, Blender y sus defensores. Seamos prácticos.

    Por lo demás muchas gracias y que viva la diversidad de opiniones.

  33. #33
    Fecha de ingreso
    Jun 2010
    Mensajes
    70

    Intel i7 x980 vs dual xeon e5620

    He creado un mensaje en discusiones generales en donde se ve la importancia de un sistema operativo u otro, y de paso, como la velocidad del núcleo no es lo que nos pensamos, es decir, si aumento un 50% su frecuencia no se disminuirá a la mitad el tiempo de renderizado, sino un 30%. Obviamente, un 50% es cuasi imposible, por lo que siendo realistas, los 3.33 del 980x para ponerlo a 4 (por supuesto con un disipador en condiciones) es un incremento del 20%, por lo que con suerte renderizas en un 10% menos del tiempo.

    Ojalá pudiese comparar cara a cara el 5620 contra el 980x, pero no puedo, y encontrar información y fotografías de estos procesadores enfrentados es muy difícil, por lo que no siempre saldrá el que queramos, aun así, yo defiendo que el 5620 lo hace mejor que el 980x, en materia de render claro está.

    Los 7 y 8 Ghz son con nitrógeno, pero es una prueba para que se vea que no por ser el más caro es el que más rinde y más se overclockea, sino que cosas que cuestan un 5% lo que el ex alcanzan mayores frecuencias.

    Sí, me encanta OpenGL, es mejor porque cuando saque el juego, en vez de poner que necesita una GTX460, pues una GTX 240 podrá ser suficiente, es decir, open exige muchos menos requisitos que DirectX, y eso implica más público pontecial. El que sea más difícil usarlo es otra cosa, pero java y c tienen el mismo problema, c es complicado de programar, pero rinde muy bien, mientras que java es super fácil de programar (cosas orientadas a objetos solamente) pero requiere mucho más hardware. No se usa porque el tiempo es dinero, pero Unreal si que lo usa, en todos sus Unreal, el mítico deus ex, el bioshok, hay bastantes, te dejo una lista. http://es.wikipedia.org/wiki/anexo:v..._unreal_engine.

    Linux y Blender para mí son la panacea, me ahorran al año muchísimo dinero, y encima aprendes cosas todos los días. Eso es ser practico, ¿cuánto te dejas tú al año en licencias?

  34. #34
    Fecha de ingreso
    Oct 2006
    Mensajes
    12

    Intel i7 x980 vs dual xeon e5620

    De inicio es algo más rápido el 980, pero la cosa se puede acortar o incluso volcar si se bien de OC y si metemos por medio el precio, es más cuestión de gustos.

    Tendrás que valorar si ese 10% de tiempo merece la pena el pagar la diferencia de precio. Es más, para mí ahora mismo la mejor solución es una RenderFarm con thuban, se comen al 980 con patatas y pimientos a igualdad de precio.

  35. #35
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    De inicio es algo más rápido el 980, pero la cosa se puede acortar o incluso volcar si se bien de oc.
    Algo más rápido? Son 6cores 3,3 Ghz vs 4 Cores 2,66ghz, hay un abismo de diferencia, y además si hablamos de oc, el 980x es un extreme edition, mejor preparado para oc.

    Respecto al Dual Xeon, rendimiento similar, algo mejor el 980x, y con oc, el 980x muy superior.
    Última edición por cabfl; 31-07-2010 a las 18:36

  36. #36
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Lo ideal sería que por cada núcleo añadido existiera la misma diferencia que de uno a otro, así seria matemáticamente correcto, pero no es caso, desfortunadamente. Aunque aun así 6 corren más rápido que 5 y eso es lo cuenta hablando de renders.
    1 Core 10:27, 2 Cores 5:43 y 3 Cores = 0, crees que eso sería matemáticamente correcto? Es un disparate de conclusión, y con 4 Cores lo termina antes de empezar.

    Matemáticamente eso no es correcto.

    Cada Core añade un porcentaje más de rendimiento respecto al número de Cores que ya existen.

    Si tienes un Core, y añades otro, entonces tienes 2, y eso es el doble que 1.

    Si tienes 2 Cores y añades otros 2, entonces tienes 4, y eso es el doble que 2.

    Si tienes 4 Cores y añades otros 2, entonces mejoras un 50% (no un 100% que sería el doble). 6 Cores mejora un 50% respecto a 4 Cores.

    En ambos casos hay una mejora del doble de rendimiento, si tardas 5 minutos con 1 Core, tardaras cerca de 2:30 con 2 Cores, y 1:15 con 4 Cores, con 6 Cores mejoras hasta bajar a 56sg aproximadamente. (son cifras teóricas, pues luego esta la penalización de gestión de Cores o multihilos, y cada vez es mayor con más Cores).

    Si tienes 8 Cores, será el doble de rápido que 4 Cores, que es lo mismo que tardar la mitad que 4 Cores. Si 4 Cores tardan 1:15, pues 8 Cores tardan 38sg.

    Si esos tiempos que te he puesto se cumplen, entonces hay una escalabilidad matemáticamente perfecta. (que en la realidad suele ser algo menos).

    Como puedes ver 8 Cores son el doble de rápidos que 4, y por eso el render tarda la mitad. Lógico, ¿no?
    Pues bajamos de 1:15 a 38sg, lo qué significa una mejora de 38sg.

    Sin embargo, 2 Cores mejoran también el doble respecto a un Core, y baja de 5 minutos a 2:30.
    1 Core gana 2:30 y 8 Cores ganan solo 38sg? Visto sin entender el ejemplo, parece muy mal optimizado y desaprovechado, pero lo que tienes que ver es cuánto ganan respecto a la mitad o respecto a 1 solo Core.

    Respecto a la mitad 4 Cores, 8 Cores mejoran el doble, y bajan a la mitad: 38sg, y respecto a 1 solo Cores, 8 Cores son 7 veces más rápidos que 1 Core, y bajan de 5 minutos. Hasta solo 38sg.

    Traducido en el ejemplo de Tomshardware: un render que tarda 10:27 un solo Core.
    1 Core = 10:27.
    2 Cores = 5:17.
    4 Cores = 2:39.
    6 Cores = 2:00.
    8 Cores = 1:20.

    Si comparas con los resultados de Tomshardware, veras tiempos aproximados, aunque los de Tomshardware serán peores porque son reales e incluyen otros factores que penalizan el rendimiento, pero aun así bastante aproximados, y en esos resultados que yo he puesto de ejemplo son escalabilidad matemáticamente perfecta, que no incluye la penalización por gestión de Cores y los recursos que ello consume.

    Mejor no me puedo explicar. Si no lo entienden, les recomiendo que pregunten a algún profesor de matemáticas que sepa explicarlo.

  37. #37
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    [quote=% su frecuencia no se disminuirá a la mitad el tiempo de renderizado, sino un 30%.[/quote]O no estas muy puesto en oc, o no haces bien los cálculos de porcentajes.

    Si haces un OC del 50%, como vas a bajar los tiempos a la mitad? Para eso necesitas un OC del 100% (duplicar la frecuencia).

    Mi CPU q6700 2,66ghz, tiene un OC del 35% hasta 3,6 Ghz, y tiene una mejora de rendimiento de 33% en tiempos reales de render.

    Si pudiera duplicar su frecuencia, y también la del bus y de las memorias, tendría un rendimiento del doble. Esto no puedo demostrarlo, porque no puedo hacer esa bestialidad de oc, pero si puedo bajar el OC de 3,6 Ghz a la mitad, que es 1,8 Ghz, y tachan, los tiempos son aproximadamente el doble.
    Última edición por cabfl; 31-07-2010 a las 18:47

  38. #38
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Cierto, salen más de los que se comercializan como ex. Pero cuando compras un 920, nadie te garantiza que ese en cuestión que ha ti te va a tocar, sea un buen CPU para oc, mientras que el ex sabes 100% que es un pata negra y, además viene con el voltaje ajustado para aceptar mayores subidas.

    Y por último, nunca veras un i7 920 que fue fabricado junto a un i7 980x.

    El CPU es diferente:
    I7-980x = 32nm 6 Cores.

    I7-920 = 45nm 4 Cores.[quote=(imagina que es el tope de la gama, el inferior que no es ex solo llega hasta aquí) a 25, pues resulta que se aumenta la frecuencia, por lo que por pura física, se requiere más energía, por lo que la placa necesita entregar más de ella, parece que no, pero ya la estamos forzando (incluso la propia fuente). La Ram, al tener una CPU más rápida tiene que trabajar más y, aunque no lo creas, trabajar más es forzarla más. El chipset tiene que gestionar de una forma más rápida y, aunque no lo hayamos subido de forma directa, indirectamente también trabaja más. En fin, que tener el multiplicador desbloqueado no es la panacea, en muchos casos hay retocar la placa para sincronizarla y cambiar el voltaje. Las cosas de los iones, no son lo que parecen.[/quote]Qué entiendes por forzar? Forzar es exigir mayor rendimiento del que está diseñado.
    1º, los i7 gestionan la memoria directamente, luego el chipset no interviene, y no trabaja más por aumentar el rendimiento del CPU.
    2º, las memorias no trabajan ni más ni menos. Trabajan igual, el voltaje y frecuencias se mantienen, y por lo tanto, no se fuerzan ni corren peligro de estropearse.
    3º, la fuente de alimentación tampoco se fuerza. Que aumente el consumo, no significa que fuerces la fuente, salvo que tengas una fuente muy ajustada. Si tienes un equipo con una fuente de 750w, y el equipo consume 500w, tienes 250w de margen, haces OC y aumentas 50w el consumo, y? La fuente está diseñada para rendir de sobra 550w, pues esta homologada para 750w. No la estas forzando.
    4º, en un ex, no necesitas tocar el voltaje, por que se ajusta automáticamente y, además tiene un margen más olgado que los CPU normales. Para ajustar el Vcore manualmente necesitas hacer un OC extremo.[quote=¿no puede hacer lo mismo un 920 que un 980 euros pues sí, si que puede, incluso a más nivel, que yo sepa los Celeron de ahora se overclockean incluso mejor que los ex, no tiene nada que ver, es otro trozo de silicio, depende de cada uno hasta dónde puede llegar.

    Un Celeron d (una de procesador) llegó hasta los 8.2 Ghz, y el 980x no lo he visto a más de 7ghz, por lo que no es tan bueno como piensas, no por ser más caro tiene que ser mejor.[/quote]Un Celeron es un CPU de solo 2 Cores. Su capacidad de OC puede ser mayor. No puedes comparar el OC de un CPU de 2 Cores vs a otro de 6 Cores y más de 3 veces más grande. Es una cuestión de lógica simple.[quote=% por cada núcleo es posible, solo que como te he dicho requiere dinero a espuertas y casi el mismo tiempo que en desarrollar el programa, y nadie está por la labor. Así que, sí que espero esa escalabilidad del 50% con el 6 núcleo, por que sé que es posible. Ya ves tú la optimización de Mental Ray, solo con dos núcleos está bien echo, y no es hola, gestionar 2 núcleos es complicado, pero semi sencillo, pero lo bueno viene con 6, eso sí que es complicado, y entonces recurrimos a una ñapa (que suele ser que los gestione el so en vez del programa) y listo, nos quitamos un peso de encima. Pues déjame decirte que eso es una, así de claro, y si para ti eso es lo mejor, será porque no conoces otra cosa, no por que realmente merezca ese título. La gente fuma, muchísima gente, no puede ser tan malo. Si miramos lo que hacen los demás para decidir sobre algo (en este caso la calidad del Mental Ray) mal vamos, ¿si los demás se tiran al río tú también?[/quote]Tu has trabajado alguna vez con motores de render como Mental Ray, Vray, Brazil, PhotoRealistic RenderMan?
    Deberías estudiar un poco mejor cómo funcionan esos motores antes de sacar estas conclusiones.[quote=
    En verdad me doy cuenta de que confías demasiado en la teoría, los totales teóricos no valen nada más que para hacerte un idea, y menos en la informática, donde hay muchas variables que, el papel diga una cosa no implica que sea así, mi coche no consume los 6 litros que pone el papel, en la teoría las cosas no se rompen, y todos sabemos que todo se rompe, en la teoría, el agua destilada pura al 99.9% a lo mejor solo llega a un 99.5%, en fin, ejemplos miles, la teoría para cálculos de física y matemáticas, para todo lo demás no vale para nada. Yo también era como tú, confiaba al 100% en la teoría, pero me empezaron a llover palos por todos lados, descubrí que la teoría es una cosa, la vida real otra. El máximo teórico de 19.2 a mí no me sirve de nada, solo para tener una idea general, pero lo tengo que coger con pinzas, porque son eso, teorías.[/quote]Wxp, con un kernel NT 5.1 tiene una gran capacidad multihilo. Incluso Windows NT 4 la tenía. La prueba es que los motores de render, que actualmente son las aplicaciones mejor optimizadas para multihilo, tienen un rendimiento casi idéntico en Windows XP incluso un poco mejor (1-2%), que en Windows 7.

    Los máximos teóricos solo son referencias. Pero parece que prefieres entender las cosas como te interesa, en vez de comprender lo que queremos explicarte (tener la razón a toda costa).

    Si un CPU de 6 Cores tiene un rendimiento teórico de 19,9ghz y 2cpu que suman 8 Cores tienen un rendimiento teórico de 19.2 GHz, ese es su máximo rendimiento. Ahora intervienen otras variantes, como los recursos que se consumen por la gestión de múltiples hilos, y el ancho de Ram que se consume por cada hilo. Es un hecho, que mientras más hilos, peor penalización. Así que, si un equipo de 8 Cores tiene un potencial menor que otro de 6 Cores, a la hora de la verdad, será todavía peor, pues además tienes que, aplicarle mayor penalización.[quote=¿o acaso no va poco a poco? Ese poco a poco son subdivisiones, sino fuese así, la mostraría de golpe, y sabemos que no es así.[/quote]Pues ya sabes, empieza a revisar cómo funciona Mental Ray en 3ds Max, para que aprendas a decir cosas más coherentes.

    Si la imagen se divide en cuadrados pequeños, asigna uno a cada hilo de cálculo (Core o ht). Pero si aumentas el tamaño del cuadrado de manera que, solo cabe uno en la imagen, sólo usara un Core, y los otros 7 se quedarán a 0.

    Como mucho veras que el sistema operativo alternara entre todos los Cores, pero siempre trabajara el total del CPU a 1/8 de su rendimiento (en el caso de un Dual Xeon 8 Cores).[quote=(renderizando), llámalo saber programar y conocer los trucos y chapuzas que se hacen en el código, en fin, yo no rebusco el tamaño de los cuadros, solo pongo situaciones límite, pero, si con 6 núcleos tengo que reducir aún más los cuadros, ya me dirás tú dónde está la ganancia.

    No, depende del programador, igual que otras muchas cosas en esta vida, es el artista, no la herramienta. Yo creo lo mismo con Maya como con Blender, y son herramientas distintas. El driver de Nvidia lo que hace es corregir mis errores, nada más. Una Quadro es más rápida porque ha Nvidia le interesa que sea así, no por otra cosa, porque los drivers valen para ambas tarjetas, ya que físicamente es el mismo trozo de silicio, y sí, cada programa en que se use tiene que ver, y los estándares también, pero como eso no va con nadie, cada uno desarrolla como le sale de los coj*nes y tiene que venir Nvidia o Ati a poner una ñapa, en vez de hacer las cosas bien. Autodesk es tan culpable como Maya, como lsi, c4d, interpretar un código compilado es difícil de verdad.[/quote]Ya veo que para ti lo único que importa es el número de Cores/hilos, y me hago una idea de cuanto entiendes de este tema.

    Pero deberías empezar a aprender, que el rendimiento real de un CPU, es la suma de los Cores y de su velocidad (Mhz). No por tener más Cores será más rápido, incluso en las condiciones de perfecta escalabilidad. Porque si esos muchos Cores funcionan a una velocidad muy lenta, por que es lo que suman entre todos, poco vas a ganar.

    Sin duda la mejor configuración es: pocos Cores a mucha velocidad, pues se penaliza menos el multihilo.

    Si me dices que el 8 Cores tiene una velocidad similar al de 6 Cores, entonces sí que será más rápido. Al menos una velocidad que se le aproxime, aunque sea inferior, por ejemplo, un Dual Xeon 3,0 Ghz, será más rápido que un 980x, pero comparar con un Dual Xeon 2,4 GHz, la diferencia de velocidad es mucha, y no se compensa con los 2 Cores adicionales.DirectX, es la más usada, porque hace años que superó de largo a OpenGL. Y actualmente el ritmo de investigación, experimentación y desarrollo, de toda la industria gráfica, lo marca DirectX, que está mucho más evolucionado que OpenGL. Las tarjetas gráficas actualmente tienen muchas funciones que en OpenGL no son soportadas, mientras que si lo son en DirectX. OpenGL equivale a directx9c, que ya tiene unos cuantos años.

    No es hola, que incluso el mercado profesional, y las gráficas profesionales, se estén optimizando para DirectX.

    OpenGl, ya no es lo que era cuando estaba bajo el amparo de SGI.
    Última edición por cabfl; 03-08-2010 a las 11:55

  39. #39
    Fecha de ingreso
    Feb 2006
    Mensajes
    2,368

    Intel i7 x980 vs dual xeon e5620

    Yo sé un poco de informática y de este tipo de temas, pero frente a lo que leo, me quedo en bragas, un placer tener gente en el foro que sabe tanto y que, aunque, no estén de acuerdo con lo que se dice, se tiene la paciencia de explicar todo con pruebas y datos. Gracias, para muchos esto nos hace aprender bastante.

    Personalmente el OC me parece una salvajada para una economía normal, quiero decir que ahora en verano que el micro se pone en unos 60 grados (que sé que no es mucho) si lo oveclockeas subes bastante la temperatura del mismo micro, de la gráfica y de todo el bicho por dentro, así que, tienes que refrigerarlo mejor. Me imagino que todo aquel que lo hace es porque vive de esto, ahorrar tiempo en renders, pero las pocas veces que he hecho OC lo he dejado porque es verdad que la vida misma del micro se acorta, o eso es lo que yo pensaba, pero a raíz de leer lo que escribis, me hacéis dudar mucho. Porque según lo que habéis puesto es probable que algunos micros estén preparados para overclock y otros no (hablo de los no ex) entonces es una lotería.

    Nunca se sabe y me da algo de miedo.

    Mi pregunta es, tengo un buen equipo, por lo menos estoy bastante contento con él, es un AMD Phenom Quad Core 9550 2.20 Ghz, una gráfica GeForce 250 GTS y 6 Gb de Ram DDR 800 y estoy encantado, no sé para vosotros sí es demasiado corto o pequeño, pero utilizo el Vray y lo cierto es que no va mal (claro, no tengo con que comparar, así que, no lo sé).

    Qué me podéis decir de este equipo? Tiene unos 3 años casi, me lo hice yo y compré los componentes para montármelo.

    Estaba pensando en actualizarlo y pasarme de AMD (que llevo más de 10 años exclusivamente con esta empresa) a Intel, un i7, pero he visto los precios y fastidiar, son prohibitivos desde hace ya un año, no han bajado, siguen rondando de 250 a 300 euros sólo el micro, y si pensamos que la placa necesita otro tipo de Ram que también es más cara, pues sube mucho la actualización, y no sé si es buena idea. Gracias.
    Última edición por climb; 02-08-2010 a las 20:55
    http://www.danipascual.com

    La lectura no da al hombre sabiduría; le da conocimientos.

    William Somerset Maugham

  40. #40
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Para comparativas de rendimiento, tienes un hilo en este foro de hardware, con una prueba de render, haz tus pruebas y compara los resultados con los del resto de compañeros, tienes unos cuantos resultados con i7.

    Seguramente las diferencias sean bastante grandes. Y no es que tú CPU sea lento, que en realidad es bastante rápido, es que los i7 son muy rápidos.

    Del tema del oc, como ya se ha comentado, todos los CPU se fabrican en la misma oblea. Pero debido a la estructura molecular del mineral, unos salen mejor que otros. Entonces en un control de calidad, se separan los que soportan mayor voltaje y los que menos, y se asignan las frecuencias. Siempre menos de lo que el CPU soporta, por eso todos los CPU admiten oc, pero algunos admiten más OC que otros, pues tienen un voltaje más bajo, o soportan mayores subidas de voltaje. Si le haces un poco de OC al cpu/chipset/Ram (10%), no vas a acortar la vida del equipo, pero si te estiras subiendo OC (25% o más), entonces es cuando tienes una lotería que puede explotar cualquier día. Lo mejor es ir probando poco a poco, y buscar la manera de poder ir subiendo al CPU, sin necesidad de subir chipset/Ram, o que suban lo menos posible. Normalmente las Ram son lo más delicado en el oc, sobre todo a largo plazo.

  41. #41
    Fecha de ingreso
    Feb 2006
    Mensajes
    2,368

    Intel i7 x980 vs dual xeon e5620

    Gracias por la respuesta, en realidad necesita otro Vray al que tengo, pero sólo quería que me dieras tu opinión sobre mi equipo, y te lo agradezco, así como lo que me has dicho sobre el OC y el cuidado que hay que tener, yo por si acaso, como no me gano la vida renderizando no voy a hacerlo, porque, aunque pueda subir un 10% más la capacidad del micro, no creo que haya diferencias sustanciales.

    Acabo de hacer la prueba que me has dicho en el mensaje de arriba, me sale 3`45`` con el Vray 1.50 service pack 4 que te he leído que no te gusta nada, pero bueno, es el que tengo. Gracias Cabfl.
    Última edición por climb; 03-08-2010 a las 00:30
    http://www.danipascual.com

    La lectura no da al hombre sabiduría; le da conocimientos.

    William Somerset Maugham

  42. #42
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    En general, actualmente no me gusta AMD por que va muy por detrás de Intel, al menos 1 año de retraso. Tu micro es un buen CPU, pero por rendimiento/precio.

    Los resultados que ha ti te han dado son muy malos.

    Así que revisa la versión de Vray que tienes, por que huele a pirata mal instalada. Justo antes de tu resultado, hay otro compañero con un AMD similar y poco más de 2 minutos de render.

  43. #43
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    Comparativas de rendimiento del i7-980x (6cores 3,33 Ghz) vs i7-975 (4 Cores 3,33 Ghz).
    6 Cores vs 4 Cores, y las diferencias en aplicaciones optimizadas multihilo, son muy claras:




  44. #44
    Fecha de ingreso
    Feb 2006
    Mensajes
    2,368

    Intel i7 x980 vs dual xeon e5620

    Qué barbaridad de diferencia. Si Cabfl, es el Vray 1.50 service pack 4 pirata claro, pensaba que la diferencia del tiempo que le daba a mi compañero de menos tiempo era porque el mío es de 2.2 Ghz y el suyo era 2.6, pero el usa el Vray sp5, lo mismo es eso, si no es así y para cerciorarme que está bien instalado, debería de probar el sp5 con el 3ds Max 2011?
    Perdona que te del coñazo, pero en dos mensaje tuyos he aprendido mucho.

    Otra cosa, no sabía que había i7 con 6 núcleos, además son de doble hilo cada uno o cómo se diga, o sea que simula 12 núcleos?
    Acabo de pasarme por una buena tienda de componentes y he visto el precio de ese bicho, sólo el micro con iva son casi 900 euros.
    http://www.danipascual.com

    La lectura no da al hombre sabiduría; le da conocimientos.

    William Somerset Maugham

  45. #45
    Fecha de ingreso
    Feb 2006
    Mensajes
    503

    Intel i7 x980 vs dual xeon e5620

    Me vais a perdonar que no me haya leído todo el hilo menudos tochos que estáis haciendo, pero doy mi opinión rápidamente si es posible.

    Sihabláis de rendimiento/precio ni un Xeon ni un extreme no entran ni en consideración otra cosa es que le supone a una empresa una inversión de 1000-1200 euros. Cabfl sabes perfectamente que la serie extreme de Intel está bastante lejos de ser rentable son una gama para frikis que no les importa el dinero solamente que la tienen más grande que el resto, ahora bien actualmente da la cusualidad que un micro como el 980x a coincido en el tiempo con sus hermanos Xeones y los únicos 6 núcleos de Intel hasta la fecha y comparándolos con estos hasta puede parecer barato un 980x, pero 1000 euros, por ese micro es un derroche de dinero y más teniendo en cuenta que el 970 (otro 6 núcleos) está al caer al igual que el sustitutorial de ese 980x el 990x y más teniendo ya en vista los futuros nuevos socket para 2011, en fin no me compraría un 980x ahora mismo ni loco y ceme en la práctica un 980x se queda por aire sobre 4401 Mhz y un 920 en 4200 y aun teniendo dos núcleos menos no compensa en absoluto le aumento de rendimiento del 980x estamos hablando de 200 euros, vs 1000 euros.

    Si coincido con lo de que los AMD siguen por detrás en rendimiento, pero aún a si te puedes montar un pepino 6 núcleos por cuatro duros, algo que no es posible con un 1366.

    Recomendación equipo rendimiento alto con grande posibilidades de muy alto gracias al OC y factible ampliación a 6 núcleos cuando estos estén en precios más mundanos:
    920-930 con 12 Gb de RAM.

    Recomendación equipo rendimiento bueno con también buenas posibilidades de OC y rendimiento alto con bajo coste y sin posibilidad de ampliación (cambio socket AMD bulldozer):
    Phenom I 1055t con 8 Gb de RAM.

    Rendimiento friki máximo rendimiento actual en escritorio con máximo OC con paso a 32nm en toda la gama 6 núcleos Intel, al menos preferible a Xeon 6 núcleos o doble socket. Rentabilidad 0 y con devalúación bastante rápido en el mercado, futuro 970 6 núcleos más barato a la vista.
    980x 12 Gb de RAM.

  46. #46
    Fecha de ingreso
    Apr 2002
    Mensajes
    3,953

    Intel i7 x980 vs dual xeon e5620

    El debate surge de comparar el i7 980x 6cores 3,33 Ghz vs Dual Xeon 5620 8 Cores 2,4 GHz. El i7 980x tiene un mayor rendimiento sin oc, y mejor capacidad de oc. Mejor rendimiento en monohilo y en multihilo, y menor precio (hay que tener en cuenta el coste del equipo completo) y posiblemente menor consumo eléctrico, que el Dual Xeon.

    Respecto a si es rentable o no, depende de las circunstancias. Para alguien que trabaja, el i7 980x es más rentable que el i7 920. Mucho mayor rendimiento y mejor oc, y recuperara la inversión en poco tiempo.

    Si se trata de una granja de render, prefiero tener 4 equipos de i7 980x que tener 6-8 equipos i7 920.

    Además, cuando es trabajo, el OC extremo no es aceptable, por que de nada te sirve arriesgarte a que un mes después de estar renderizando te falle el equipo en medio de un trabajo y falles en el plazo de entrega (totalmente inaceptable) por que te has fundido las memorias o el chipset de la placa, así que, el i7 980x es mejor opción, pues puedes hacer un buen oc, sin forzar el resto del equipo (en el i7 920/930 tendrás que forzar el resto del equipo).

    Respecto al precio, siempre se compara el precio del CPU, pero realmente lo que hay que comparar es el precio del equipo completo.

    Un i7 980x es 4 veces más caro que un i7 920, pero si montas el equipo completo, por poner un ejemplo, el i7 980x te puede costar 2000 euros y el i7 920 1200EUR, así que, una opción no es 4 veces más caro, ni siquiera el doble de caro, aunque la diferencia de precio sigue siendo grande, el rendimiento entre ambas opciones también es grande, y ahora si parece proporcionado.

    Del tema de AMD, me da igual si tienen 6 Cores, no me impresiona ni me parece más apetecible por tener más Cores, si estos tienen un rendimiento tan bajo, que 6 de AMD equivalen a 4 de Intel. Prefiero el i7 930 antes que un AMD 6cores.
    Última edición por cabfl; 08-08-2010 a las 17:21

  47. #47
    Fecha de ingreso
    Sep 2005
    Mensajes
    107

    Intel i7 x980 vs dual xeon e5620

    Hola gente, igual es un poco tarde para recuperar el hilo, pero acabo de adquirir un Dual Xeon e5620 y cuando renderizo en el 3d Studio solo me usa el CPU al 50 %, y en a la hora de renderizar solo me aparecen 4 cuadrados calculando el render, cuando deberían de aparecer 8, cuál es el problema.

    Pongo una captura.

    Clic en la imagen para ver su versión completa. 

Nombre: aa.jpg 
Visitas: 1472 
Tamaño: 129.6 KB 
ID: 143388

    Un saludo.

    -- IMÁGENES ADJUNTAS --
    Última edición por kino_unico; 02-03-2011 a las 08:32

  48. #48
    Fecha de ingreso
    Apr 2002
    Mensajes
    117

    Intel i7 x980 vs dual xeon e5620

    ¿Y no os vale un AMD? Por 600 euros se puede montar esto, nadie bien de este procesador y me parece mejor opción que los careros de Intel:
    2 procesadores AMD Opteron 4184 de 6 núcleos x 2801 Mhz (2 por 300 euros) 600 euros Mhz totales=33600.

  49. #49
    Fecha de ingreso
    Nov 2012
    Mensajes
    6,667

    Intel i7 x980 vs dual xeon e5620

    Hola gente, igual es un poco tarde para recuperar el hilo, pero acabo de adquirir un Dual Xeon e5620 y cuando renderizo en el 3d Studio solo me usa el CPU al 50 %, y en a la hora de renderizar solo me aparecen 4 cuadrados calculando el render, cuando deberían de aparecer 8, cuál es el problema.

    Pongo una captura.

    Clic en la imagen para ver su versión completa. 

Nombre: aa.jpg 
Visitas: 1472 
Tamaño: 129.6 KB 
ID: 143388

    Un saludo.
    Perdonad que retome este hilo antiguo, pero es que, me sorprende esto que comentas.
    ¿Es eso normal con procesadores Xeon o se trata de una anomalía o problema de configuración?

  50. #50
    Fecha de ingreso
    Sep 2013
    Mensajes
    1

    Intel i7 x980 vs dual xeon e5620

    vamos por partes:
    3D_Cubano, empiezas preguntando por equipos de gama alta: DualXeon y i7 980x, y estamos ahora hablando de i7 920 y AMD?
    Que es lo que quieres, un equipo top de gama y gastarte una buena pasta, o un equipo de gama media con precio ajustado?
    No es lo mismo comparar el i7 980x con un dual Xeon que con un 930/920 o AMD.

    Para mí, en equipos de rendimiento, AMD no existe. Al menos hasta qué lancen su próxima arquitectura y volveremos a darle una oportunidad.

    Respecto al dual Xeon, el i7 980x posiblemente sea menos caro, con un rendimiento superior, sí, he dicho superior, 6 Cores a 3,3 GHz rinden más que 8 Cores a 2,4ghz. Y además el i7 980x permite OC sin forzar placa ni memoria. Es la virtud de los micros Extreme Edition.

    Si lo comparamos con el 920/930, simeplemente no hay color. Cierto, el i7 980x es bastante más caro. 1000 euros vs 250EUR, pero la diferencia de rendimiento es también muy grande. 3,3 GHz vs 2,6ghz, que además el i7 980x lo puedes subir a 4ghz sin despeinarse y sin forzar el equipo, pero es que, además el i7 980x es 6CORES y el 920/930 solo 4CORES.

    En resumen, el i7 980x es más del doble de rápido que el 920/930 renderizando y trabajando.

    Para mí estaría claro, si hay presupuesto, el i7 980x. Y la diferencia de precio la rentabilizas en poco tiempo.

    Del tema placas, el usb3 y el sata3 son los nuevos estándares, pero no hay que tirar cohetes.

    Si el equipo lo quieres para granja de render, no necesitas nada de eso. Con un simple disco duro barato sata2 vas sobrado.

    Si el equipo lo quieres para trabajo, y vas a montar un SD, pues incluso con el sata2 vas bien, la controladora permite 300mb/s y un SD de los buenos tiene transferencias de 150-250 mb/s.

    Si vas a montar un raid de discos SD, entonces es cuando necesitas el sata3, pero realmente vas a montar esa burrada? Pues está claro que no lo necesitas.

    El usb3, está muy reciente. Así que tardarán en aparecer periféricos que lo aprovechen, y si estas pensando en discos duros externos: e-sata y que me quiten todo lo demás.

    Además, siempre podrás en un futuro añadir una tarjeta PCI Express sata3 o usb3.

    Del tema garantías, todas las marcas dan más o menos la misma garantía. 2 años. Es lo que exige la ley.

    Juan A, estas mosca con Asus por que se te jodió una gráfica en 6 meses? Estaba en garantía, cuál es el problema? Eso es cuestión de suerte, pero además estoy seguro que se joden más gráficas de marcas baratas como club3d que de Asus o gigabyte.

    Sin duda si comparamos Asus o gigabyte con supermicro o tyan, no hay color, pero porque son marcas de sectores diferentes. Asus y gigabyte, son marcas de consumo, y tienen buena calidad en comparación con otras marcas del mismo sector. Y también hay que tener en cuenta el modelo, que no es lo mismo una Asus de gama baja de 80 euros que una pedazo de Asus de 300EUR.

    Respecto a la ram, trabajo a diario con escenas que necesitan más de 4 gigas de RAM, y los equipos van como la seda con Windowsxp-64 y Windows7-64, en 3dsmax(64) y Vray(64) o Mental Ray(64).

    Si lanzas un render que necesita más Ram de la que tienes, pues se ralentiza por el disco duro, pero no se cierra. Si Blender se cierra, muy mal por esa aplicación, pensaba qué estaba más madura.

    Aun así, estoy por ver si eso es cierto, porque me suena a qué estas trabajando en 32bits.
    Pues no creo que Amd sea una comparados con esos--- viendo los números está bastante bien, y eso que ando con una 5750 y sin ocear.

    -- IMÁGENES ADJUNTAS --
    Miniaturas adjuntas Miniaturas adjuntas Clic en la imagen para ver su versión completa. 

Nombre: 20130925_023508.jpg 
Visitas: 241 
Tamaño: 3.09 MB 
ID: 186282  

Página 1 de 2 12 ÚltimoÚltimo

Temas similares

  1. Hardware Workstation Dual Xeon e5620 16 núcleos
    Por davidematanza en el foro Mercadillo
    Respuestas: 3
    : 06-02-2014, 01:10
  2. Hardware Intel xeon x5570 vs Intel xeon e5620
    Por konig en el foro Hardware
    Respuestas: 8
    : 27-10-2013, 18:46
  3. Hardware Workstation Dual Xeon e5620
    Por mcflait en el foro Mercadillo
    Respuestas: 2
    : 18-04-2013, 17:14
  4. Hardware Core i7 dual Intel xeon
    Por Buzzz07 en el foro Hardware
    Respuestas: 11
    : 15-06-2009, 11:10
  5. Hardware Dual-Core Intel Xeon Quad-Core Intel Xeon
    Por render67 en el foro Hardware
    Respuestas: 3
    : 16-03-2007, 12:01

Etiquetas para este tema