Nueva serie de Nvidia GeForce 3, se espera que Nvidia desvele su nueva gama GeForce. Pero ya hay información disponible, aquí está lo esencial.
Amperios de Arquitectura, 7nm.
Esta nueva serie se basará en la arquitectura Ampere, ya destacada la pasada primavera en la GTC (GPU Technology Conference). Será grabado en 7 nanómetros, y será compatible con PCIe 4.0 (aunque este último punto todavía no aporta ninguna ganancia real para los juegos, las GPU no pueden saturar el puerto PCI Express 3.0 para estos usos).
En el lado de la memoria, se espera GDDR6 en la versión "X" y 19Gb por segundo en el extremo superior, lo que traerá frecuencias más altas y ancho de banda revisado de la serie 2000.
Los nuevos mapas deben adoptar HDMI 2.1.
Por último, en el lado central, deberíamos tener derecho a la segunda generación de núcleos RT (utilizados para la tecnología RTX, incluyendo Raytracing), Tensor Cores 3a generación.
Estos elementos provienen en parte de las fugas del fabricante Gainward.
RTX 3090, 3080, 3070: ¿tres modelos en el lanzamiento?
Se espera que Nvidia comience la renovación de la gama desde la parte superior, con tres modelos llamados GeForce RTX 3070, 3080 y 3090. Para estas dos últimas, ya hay una hoja técnica bastante completa:
RTX 3090: 5248 núcleos CUDA, 24GO GDDR6X, interfaz de 384 bits, alimentación de 350W.
Gainward evoca frecuencias de impulso de 1695MHz para el 3090, 1710MHz para el 3080, con dos variantes "GS" (muestra de oro) para ahorrar alrededor de treinta MHz.
Para el 3070, no hay datos todavía, pero 2944 CUDA Cores, del GDDR6 non X a 16Gb por segundo, 220W de entrada de energía, 256 bits para la interfaz.
Cambios en la potencia y la refrigeración 320, 350 vatios. Nos acercamos aquí peligrosamente los 375 vatios de potencia máxima teórica utilizando dos conectores de 8 pines.
Nvidia menciona estos temas en un video publicado hace unos días. La compañía presenta un conector específico (12 pines) para sus nuevos mapas, se proporcionará un adaptador para evitar tener que recomprar una fuente de alimentación o cables.
Además, el vídeo confirma las fugas con respecto al sistema de refrigeración de la versión Nvidia, con dos ventiladores y un radiador rediseñado. Las dimensiones del 3080/3090 deben ser sustanciales (dos ranuras y media de altura en algunos casos, o incluso más).
Por supuesto, los constructores que diseñan sus propios mapas a partir del diseño de referencia serán libres de mantenerse en enfoques más convencionales: Gainward y Zotac son en este caso, ya que los gráficos filtrados muestran dos o incluso tres ventiladores todos situados en el mismo lado, como de costumbre.
En cuanto al NVLink, conector que puede ser útil para renderizar en GPU. Al parecer, sólo se reservaría para el RTX 3090.
En cuanto a los precios, pues va a ser un jarro de agua fría, al menos hasta que salga algo de competencia, parece que se cifra en 1.400 dólares para la 3090, como comento, no hay competencia en este segmento por parte de AMD, así que Nvidia puede pedir lo que quiera, y hasta que no haya una alternativa no mostrará interés alguno en bajar los precios.
El lanzamiento de estos nuevos productos debería ser ya en septiembre para la 3080/3090, probablemente la 3070 tarde un poco más. Tendremos que esperar un poco más para el resto de la gama.
-- IMÁGENES ADJUNTAS --
|Agradecer cuando alguien te ayuda es de ser agradecido|
Pues esperemos que el puente NVLink no sea solo para la 3090, sería un gran paso hacia atrás, ya por precio/rendimiento salen mejor tener dos 3080 que una 3090. Con respecto a los nanómetros de fabricación en principio no pueden ser de 7 nanómetros, ya que TSMC no tenia capacidad suficiente para producir chips para Nvidia.
Todo apunta a un nodo especial mejorado de 8 nanómetros de Samsung, o incluso una mezcla, que las gráficas potentes sean en 7 nanómetros fabricados por TSMC y las demás en 8 nanómetros fabricados por Samsung.
Al final el nodo es del Samsung a 8 nm. Al final Nvidia vuelve a tener unos precio más normales, y comparados con las actuales, hasta parecen una ganga. Una 3090 para render con la gran mejora en RTX, va a ser espectacular el salto que van a dar. Tenemos que esperar unas semanas para confirmarlo.
Cuadro de especificaciones GPU Nvidia GeForce serie 3000
Pues ya por conductos oficiales Nvidia ha presentado las GPU para juegos GeForce RTX 3070, GeForce RTX 3080 y GeForce RTX 3090, su serie GeForce RTX 3000 de última generación, basadas en su nueva arquitectura de GPU Ampere.
La firma pone a la venta las tarjetas Ampere como un avance significativo con respecto a sus predecesores, describiendo incluso a la RTX 3070 como más rápida que el modelo insignia anterior, el RTX 2080 Ti.
Hablan de tarjetas de para juegos, pero no olvidemos que Nvidia ahora incluye Arnold, Blender y Vray, adjunto dejo el cuadro de especificaciones de GPU Nvidia GeForce RTX.
Mejoras considerables, pero iterativas, en el rendimiento desde la perspectiva de la computación GPU, Ampere no se ve muy diferente a Turing, su predecesor, es una mejora iterativa, no una revolución.
A diferencia de Turing, y sus núcleos de trazado de rayos RT dedicados, Nvidia no ha introducido ningún tipo de hardware nuevo, aunque los diseños de los núcleos sí se han actualizado.
Nvidia cifra los núcleos RT de segunda generación de las tarjetas Ampere en 1.7 veces más rápidos ante sus predecesores, y sus núcleos de aprendizaje automático Tensor de tercera generación como una mejora de 2,7 veces.
En cuanto a las aplicaciones DCC, Nvidia muestra los núcleos RT de segunda generación como aproximadamente el doble en rendimiento a la hora de hacer un render con RayTrace, incluidos Arnold de Autodesk, Vray de Chaos Group y el motor Cycles de Blender.
Los recuentos de núcleos CUDA estándar también han aumentado, con todas las tarjetas Ampere con un rendimiento de gestión teórico más alto de FP32 que la anterior GeForce RTX 2080 Ti.
Nvidia describe todas las tarjetas Ampere, incluso las GeForce RTX 3070, tan rápidas que la RTX 2080 Ti, y la RTX 3090 como hasta un 50% más rápida a 4K que la RT Titan X, su estación de trabajo híbrida.
Mayor capacidad de memoria gráfica y compatibilidad con NVLink para la representación por GPU, usando una nueva tecnología introducida en las tarjetas Ampere es la memoria GDDR6X, destinada a aumentar el ancho de banda de memoria con respecto a la memoria GDDR6 de la generación anterior de tarjetas.
La capacidad de memoria gráfica también ha aumentado, con el GeForce RTX 3090 con 24 GB de Ram integrada.
La RTX 3090 también es compatible con NVLink, lo que permite agrupar la memoria GPU entre tarjetas, una característica que parece estar dirigida más a los artistas de CG que a los jugadores.
Sin embargo, según las mediciones de Nvidia, el consumo de energía está subiendo, reflejado en el TDP del RTX 3090 de 360W, casi 100W más que la 2080 Ti, por lo que la electricidad puede suponer un gasto periódico a tener en cuenta para el trabajo continuado.
En cuanto a las API de gráficos, todas las nuevas tarjetas admiten DirectX 12, OpenGL 4.6 y Vulkan RT.
-- IMÁGENES ADJUNTAS --
|Agradecer cuando alguien te ayuda es de ser agradecido|
Pues esperemos que el puente NVLink no sea solo para la 3090, sería un gran paso hacia atrás.
Pues de momento, según el cuadro de especificaciones de la serie 3000 solo la 3090 indica que tenga compatibilidad con NVLink, y sí, es una pena, esto quizá obedece más a temas marketing y ventas que a limitaciones de hardware.
|Agradecer cuando alguien te ayuda es de ser agradecido|
El problema es en qué equipo puedes montar dos unidades de esas, porque con el tamaño y refrigeración propuesto por Nvidia, en un equipo normal no las puedes montar.
La RTX 3070 se retrasa por escasez. era de esperar, Nvidia anuncia que la RTX 3070, originalmente programado para el 15 de octubre, finalmente se pondrá a la venta el 29 de octubre en tiendas físicas y online.
El anuncio no debería sorprender a nadie, en el lanzamiento de las 3080 y 3090 pasó lo mismo, se agotaron de forma inmediata por distintos motivos. Además de la fuerte demanda de estos nuevos modelos, se sabe que los scripts (más rápidos que los humanos) se utilizaron para ordenar compras masivas que posteriormente fueron revendidos a un precio más alto en sitios como Ebay. Cabe señalar que Nvidia ha tratado de filtrar los pedidos realizados para cancelar este tipo de transacción.
-- IMÁGENES ADJUNTAS --
|Agradecer cuando alguien te ayuda es de ser agradecido|
Nvidia RTX 3090 y 3080 en Unreal Engine, en distintas pruebas que se pueden ver por internet realizadas por terceros, ambas tarjetas superan tanto a la Titan RTX como a la 2080 TI, y la verdad es que con diferencia notable, y encima son más baratas, así que poco resta por decir.
Con resoluciones de 4k, la Nvidia RTX 3090 se acerca a una mejora promedio del 75% en FPS sobre la Titán, y sobre el 15% más rápida que la Nvidia RTX 3080.
Así que parece que para el uso de estas tarjetas con Unreal Engine, más que la diferencia de precio entre las dos nuevas, hay que fijarse en si necesitamos más o menos VRAM.
|Agradecer cuando alguien te ayuda es de ser agradecido|
Pues parece que el tema de prescindir de los conectores SLI queda aclarado por Nvidia, lo he publicado en la sección de noticias, pero dejo aquí un extracto que lo explica.
Nvidia abandona el soporte a los perfiles SLI, algo que se echaba de menos en las nuevas Nvidia eran las conexiones SLI, estas han perdido interés por el gran público aficionado a los videojuegos, en parte debido al aumento de precio de las tarjetas de gama alta y por otro lado la ganancia de potencia real transmitida al usuario cada vez era menor, ya que a mayor potencia gráfica más cuellos de botella encontraremos en el resto del hardware en general de cada PC.
En los videos y documentos publicados que hemos podido ver cuando anunciaban las tarjetas gráficas GeForce RTX 3000 de Nvidia, que sólo el modelo RTX 3090 tenía un conector para conectar dos tarjetas gráficas físicamente.
Nvidia ha querido aclarar estos cambios, en resumen sería, adiós a los conductores, dando paso a los desarrolladores.
Nvidia explica que con la llegada de DirectX 12 y Vulkan, los desarrolladores de juegos pueden implementar la gestión de múltiples tarjetas gráficas de forma nativa y directa en los juegos, sin tener que depender de un perfil SLI.
Para las tarjetas RTX 2000 y series anteriores, no se agregarán perfiles SLI adicionales a los controladores a partir del 1 de enero de 2021.
Los perfiles ya existentes seguirán siendo probados y mantenidos.
Por último, para el RTX 3090 y futuras GPU que pueden beneficiarse de la SLI, este soporte sólo se realizará a través de una implementación nativa en los juegos.
Por último, Nvidia menciona en su comunicado de prensa el caso de aplicaciones distintas de los juegos, y en particular las herramientas creativas. Estas últimas gestionan la multi GPU sin necesidad de perfiles SLI, por lo que la evolución anunciada no les afecta en nada.
|Agradecer cuando alguien te ayuda es de ser agradecido|
Dejo un extracto de lo publicado en el hilo de Omniverse de Nvidia, plataforma de colaboración abierta para trabajar en red, pero en la presentación última que han realizado, muestran el uso de las nuevas Gforce, por lo que es interesante que parte de esa información esté también en este hilo.
En la demostración que ha llevado a cabo Nvidia destaca la nuevas reflexiones de su RTX 3090, la demostración basada en la física gracias a la investigación de Nvidia muestra luces dinámicas trazadas por rayos (RayTrace), trazado de rutas y 100 millones de polígonos, todos ejecutándose en tiempo real en una sola GPU GeForce RTX 3090.
En la demostración, los artistas elaboraron manualmente todo en el proyecto de mármoles utilizando RTX Renderer y una variedad de aplicaciones creativas como 3dsMax, Autodesk Maya, Cinema 4D, ZBrush y Blender. La plataforma de simulación permitió al equipo creativo ver todo el contenido con la mayor calidad posible en tiempo real, lo que dio un resultado de menor tiempo en los ciclos y más iteraciones.
La demostración final, dio como resultado más de 500 GB de datos de textura, más de 100 objetos únicos, más de 5.000 mallas y cerca de 100 millones de polígonos.
Antes, se limitaban a usar menos de 10 luces. Pero hoy en día, con las posibilidades de Omniverse que usaban RTX, pudieron colocar tantas luces como quisieron. Esa es la belleza de esto, puedes decidir creativamente cuál es el límite que funciona para ti.
|Agradecer cuando alguien te ayuda es de ser agradecido|
Se comenta que entre enero y febrero van a sacar la 3060TI y la 3050TI. Esta última con solo 4\5GB y con 3480 núcleos. Me parece bastante bueno este movimiento y espero que sea por poco más de 200€. Blender ya no es que vaya rápido, es que ni te va a dar tiempo de despegar el dedo del F12.
De ser así yo actualizaré mi Pc en poco tiempo.
No creo que saquen una gráfica con solo 4 gigas, Deberían tener como mínimo 8, aunque supongo que sacarán alguna versión con 6, pero 8 sería lo mínimo, porque el chip grafico es muy potente aunque sea gama baja, más aun cuando AMD, por ahora solo tiene graficas con 16Gb.
No creo que saquen una gráfica con solo 4 gigas, Deberían tener como mínimo 8, aunque supongo que sacarán alguna versión con 6, pero 8 sería lo mínimo, porque el chip grafico es muy potente aunque sea gama baja, más aun cuando AMD, por ahora solo tiene graficas con 16Gb.
Se comenta que entre enero y febrero van a sacar la 3060TI y la 3050TI.
Pues así ha sido, Nvidia confirma que la nueva GPU GeForce RTX 3060 ofrece tareas de seguimiento de RayTrace por hardware y soporte para Nvidia DLSS, además de otras tecnologías, el precio 329 dólares.
Hay un impulso imparable detrás del RayTrace, que ha redefinido rápidamente el nuevo estándar de juego, señaló Matt Wuebbling, vicepresidente de marketing global de GeForce en Nvidia. La arquitectura Nvidia Ampere ha sido la gráfica más vendida de la historia, y la RTX 3060 aporta los puntos fuertes de la serie RTX 3000 a millones de jugadores.
La GeForce RTX 3060 aporta el doble de rendimiento más rápido y diez veces el rendimiento de RayTrace de la GTX 1060, por lo que es una gran solución para manejar juegos como Cyberpunk 2077 y Fortnite con RTX On a 60 fotogramas por segundo.
Las especificaciones clave de la RTX 3060 incluyen:
13 shader-TFLOPs.
25 RT-TFLOPs para RayTrace.
101 tensor-TFLOPs para alimentar NVIDIA DLSS (Deep Learning Super Sampling).
Interfaz de memoria de 192 bits.
12 GB de memoria GDDR6.
|Agradecer cuando alguien te ayuda es de ser agradecido|
Voy a aprovechar este tema para abrir un debate.
¿Para 3D qué es lo más importante: CPU o GPU? Digamos que para un uso como el mío que está centrado en el modelado (algo de simulación de físicas con ropas y cuerpos blandos) creo que habría que invertir el 85 por ciento del presupuesto a la GPU, como una RTX 3070 mínimo, el resto entre 24 GB de Ram y una CPU poco exigente (Celeron o Athlon, i3 o Ryzen 3 a lo sumo).
Para el viewport y para hacer el cálculo de luces y render final quien cuenta es la gráfica. Photoshop y similares ya usan OpenCL para moverse.
Voy a aprovechar este tema para abrir un debate.
¿Para 3D qué es lo más importante: CPU o GPU? Digamos que para un uso como el mío que está centrado en el modelado (algo de simulación de físicas con ropas y cuerpos blandos) creo que habría que invertir el 85 por ciento del presupuesto a la GPU, como una RTX 3070 mínimo, el resto entre 24 GB de Ram y una CPU poco exigente (Celeron o Athlon, i3 o Ryzen 3 a lo sumo).
Para el viewport y para hacer el cálculo de luces y render final quien cuenta es la gráfica. Photoshop y similares ya usan OpenCL para moverse.
No sé qué tal veis esta idea.
Esa tarjeta vale uno 700 euros, si te lo puedes permitir, es de lo mejorcito.
En Blender y utilizando Cycles, si usas la GPU tarda menos en los render, por lo que depende mucho de lo que vayas a renderizar.
Para un simple render, da lo mismo casi, que sean 15 minutos o 18 minutos pero para un vídeo (como ejemplo), si tiene una duración un poco larga, como no trabajes con una buena tarjeta, te puedes tirar días renderizando, por lo que cualquier mejora de tiempo siempre es bienvenida.
Si no utilizas Blender profesionalmente o simplemente no te importan unos minutos mas, con una de la serie RTX 2080 ya te valdría o hasta comprar dos de la serie GTX 1080 que seguro en el mercado de segunda mano se venden a buen precio.
Voy a aprovechar este tema para abrir un debate.
¿Para 3D qué es lo más importante: CPU o GPU? Digamos que para un uso como el mío que está centrado en el modelado (algo de simulación de físicas con ropas y cuerpos blandos) creo que habría que invertir el 85 por ciento del presupuesto a la GPU, como una RTX 3070 mínimo, el resto entre 24 GB de Ram y una CPU poco exigente (Celeron o Athlon, i3 o Ryzen 3 a lo sumo).
Para el viewport y para hacer el cálculo de luces y render final quien cuenta es la gráfica. Photoshop y similares ya usan OpenCL para moverse.
No sé qué tal veis esta idea.
Tienes que ser más claro, 3d engloba mucho. Para el modelado influye la CPU y la GPU, cuando estas creando los objetos estos se calculan con el CPU, pero para moverlos en el viewport se hace con la grafica. EL render puedes renderizar con CPU o con GPU, si lo haces con GPU no puedes renderizar proyectos grandes, porque te limita la memoria, y vas a tener que optimizar las escenas. Por ejemplo en Vray a lo poco que pongas un displacement ya te quedas sin memoria y sin poder renderizar, tendrás que controlar el tamaña de las texturas y demás, aparte de que tienes cálculos y preparación que se hace con CPU, por lo tanto también es bueno tener una CPU decente. Para la simulación de físicas depende del programa que uses, porque puede ser por CPU o GPU, o incluso los dos, por ejemplo tyFlow trabaja con CPU, pero para ciertos cálculos puede hacerlos mediante GPU.
Sí, era en plan meterlo todo en el mismo saco. Pero veo que no es posible y que se depende de la CPU y la memoria bastante todavía.
Entonces creo que sería mejor invertir en CPU y memoria y tener una GPU de 4 o 6 GB para renderizados y trabajos pequeños. En este caso: ¿no sería mejor una Apu de AMD, como la futura 5700G (8/16)? Su IGP es una Vega 11.
Sí, era en plan meterlo todo en el mismo saco. Pero veo que no es posible y que se depende de la CPU y la memoria bastante todavía.
Entonces creo que sería mejor invertir en CPU y memoria y tener una GPU de 4 o 6 GB para renderizados y trabajos pequeños. En este caso: ¿no sería mejor una Apu de AMD, como la futura 5700G (8/16)? Su IGP es una Vega 11.
Según que programa utilices, AMD y Blender (Cycles), no se llevan muy bien. Mejor siempre Nvidia, ya sean GTX o RTX).
Está claro que Nvidia predomina en el mercado, tanto en cantidad de software afín como en resultados. Lo que no tengo nada claro es porqué no existen unas bases reguladoras que implementen la tecnología necesaria para asegurar la compatibilidad de unas tarjetas y otras independientemente de la marca.
|Agradecer cuando alguien te ayuda es de ser agradecido|
Ya las tienes, ambas soportan los estándares como OpenCL, DirectX, pero cada compañía también trabajan con sus propios lenguajes, en el caso de Nvidia con los Cudas, y después son los programadores los que deciden aprovecharlo y desarrollar tareas que rinden mejor si se aprovechan. Vray trabajaba con Cudas Cores para graficas Nvidia, y con OpenCL para graficas AMD e Intel, pero como tenían poco uso debido sobre todo a su poco rendimiento decidieron no darle soporte. Ahora toca esperar si Vray vuelve a dar soporte a OpenCL, ya que AMD vuelve a tener grafica potentes.
Gracias por la información amigo. Entiendo que de alguna forma sea el propio rendimiento del hardware el que condiciona el desarrollo del código y al revés, pero creo que debería haber un estándar apostando por el que más rendimiento ofrezca, para luego no encontrarnos con problemas dependiendo del programa que usemos por tener una u otra tarjeta gráfica, un saludo.
|Agradecer cuando alguien te ayuda es de ser agradecido|
Pobre del que se dedique a esto profesionalmente y deba actualizar.
Yo al final voy a comprar una Apu 8/16 (si es que a AMD le sale de lo que le cuelga ponerlos a la venta y no solo al mercado OEM) junto con 32 Gigas de Ram este próximo noviembre. ¿Qué no puedo usar Cycles con la IGP? Pues a pedalear, que le vamos a hacer.
Nvidia RTX 3080 Ti de 20 GB es 5% menos potente que la RTX 3090
El rendimiento de la tarjeta gráfica, según las pruebas, estaría a la par de la RTX 3090, con un precio algo más bajo. Este modelo podría rivalizar con la RX 6900 XT, que viene con 16GB de memoria VRAM.
Los primeros números de rendimiento de esta tarjeta grafica fueron ubicado en Bilibili, que parece tener una configuración de núcleos distinta a la de la RTX 3080 de 10GB. Esto nos da a entender de que se trata de un modelo Ti.
La configuración de la memoria consta de 20GB de VRAM GDDR6X, que tiene una velocidad de 19Gbps. La velocidad de memoria está ligeramente por debajo de los 19,5 Gbps de la RTX 3090. La interfaz bus seria de 320 bits con un ancho de banda total de 760 GB/s. El valor TGP también seria similar a la de una RTX 3080 tradicional con 320 vatios de consumo.
Desde luego, si la diferencia es tan poca como parece, habrá que mirarse muy bien de no invertir en una 3090. No entiendo la jugada de Nvidia con este modelo.
Nvidia serie 3000 la escasez continúa latente, ya llevamos varios meses donde los estudios, artistas freelance y jugadores de PC han notado la escases de gráficas, el mercado de tarjetas gráficas está en un estado lamentable.
El producto se agota tal y como aparece en las tiendas online, además a unos precios muy altos.
Estas dificultades obviamente no se pueden atribuir sólo a la minería de criptomoneda que están aumentando la demanda, ni por el rendimiento de las tarjetas Nvidia serie 3000.
Todas las industrias que utilizan semiconductores se ven afectadas, de ahí las dificultades que afectan tanto a Nvidia, como a la oferta de consolas de última generación o el sector automotriz.
Entre bambalinas, las fundiciones de semiconductores, como el grupo taiwanés TSMC, están luchando para satisfacer una demanda muy fuerte de toda la industria de alta tecnología.
TSMC anunció recientemente una inversión de 100.000 millones de dólares en los próximos tres años para mejorar la producción.
Mientras que Intel ha anunciado planes para invertir 20.000 millones de dólares en dos nuevas plantas que producirán chips para clientes externos, pero estos anuncios obviamente tardarán en tener un efecto real en el mercado.
Nvidia planteó abiertamente la cuestión en un comunicado financiero publicado en el transcurso del GTC 2021. Colette Kress, vicepresidenta ejecutiva y directora financiera de Nvidia, dice:
Aunque nuestro primer trimestre del año fiscal 2022 aún no está completo, los ingresos totales del primer trimestre están por encima de las perspectivas de 5.300 millones de dólares de ganancias para el año fiscal.
Estamos experimentando un gran crecimiento, con todas nuestras plataformas de mercado al alza a nuestras perspectivas iniciales.
La demanda general sigue siendo muy fuerte y sigue superando la oferta, mientras que nuestros inventarios siguen siendo bastante magros.
Esperamos que la demanda siga superando la oferta durante gran parte de este año.
Creemos que tendremos suficiente oferta para apoyar el crecimiento secuencial más allá del primer trimestre.
En pocas palabras, esperan que siga habiendo habiendo más demanda que oferta para poder seguir inflando los precios.
Los últimos estados financieros de Nvidia, con un marcado aumento de las ventas en los dos últimos trimestres del año fiscal 2021, que terminó el 31 de enero.
Es que uso mucho el Freestyle y eso consume lo suyo cuando te metes en escenarios que superan el millón de caras.
Lo de intentar poner el pin en su lugar mejor dejarlo, porque como se parta u ocurra otra cosa, ya sí que me quedo sin el Pc.
Nvidia ha presentado las GeForce RTX 3090 Ti y GeForce RTX 3050, son las últimas tarjetas de su actual generación de GPU para juegos que requieran GeForce RTX basadas en su nueva arquitectura de GPU Ampere.
Las tarjetas llenan los extremos alto y bajo de la Serie 3000, ahora también cada vez más utilizada para la representación por GPU. Vemos la RTX 3050 que proporciona una tarjeta de 8 GB capaz de trazado de rayos acelerado por hardware por menos de 250 dólares.
Nvidia lo describe como "llevar el trazado de rayos y la IA acelerada a los escritorios convencionales". También han anunciado nuevas versiones para computadoras portátiles de las GPU de escritorio GeForce RTX 3080 Ti y RTX 3070 Ti existentes. Todas las nuevas tarjetas se han anunciado en CES 2022 a principios de esta semana.
Especificaciones y puntos de referencia
Las dos nuevas tarjetas de escritorio completan los extremos de la serie GeForce RTX 3000.
Nvidia dice que próximamente anunciará todos los detalles de la GeForce RTX 3090 Ti. Tarjeta que describe como un monstruo gráfico; es posible que lo anuncie a finales de este mes.
Se espera que sea una versión turboalimentada de la GeForce RTX 3090 actual, pero con todos los núcleos de su GPU GA102 desbloqueados.
La cosa va de CUDAS y Teraflops
Si bien eso no proporciona un gran aumento en el recuento de núcleos CUDA, Nvidia está citando un rendimiento de cómputo FP32 de 40 Teraflops; lo que supone más del 10 por ciento que la RTX 3090.
La mayor parte de ese aumento de rendimiento parece deberse a una mayor velocidad de reloj de la memoria, que se eleva a 21 Gbit por segundo; frente a 19.5 Gbit por segundo de la RTX 3090. Lo que también da como resultado un mayor consumo de energía claro está.
Nvidia aún no ha publicado ningún punto de referencia para la RTX 3090 Ti. Pero podemos hacernos una idea de cómo trabajará con las aplicaciones DCC más utilizadas escalando su potencia a partir de los datos disponibles de la GeForce RTX 3090.
La GeForce RTX 3050 con RayTrace
Esta es una tarjeta básica que lo más relevante que aporta es el trazado de rayos a los equipos de escritorio.
Con 2.560 núcleos CUDA y un rendimiento de cómputo FP32 de 9 Teraflops, está un paso por detrás en potencia de cálculo general comparada con la GPU de las RTX 3060 Ti y RTX 3060 actuales, pero su precio también es más bajo.
Las dos últimas tarjetas que se anunciarán, las GeForce RTX 3080 Ti y RTX 3070 Ti, son las ediciones portátiles de las tarjetas de sobremesa actuales.
Los precios que podemos encontrar
Aunque la GeForce RTX 3050 se pondrá a la venta a finales de este mes con un precio anunciado de 249 dólares, dudo mucho que dado el mercado actual se pueda obtener por ese precio.
A pesar de que Nvidia limita la tasa de hash Ethereum de las nuevas tarjetas GeForce RTX 30 Series en un intento de reducir su atractivo para los mineros de criptomonedas, siguen siendo escasas en las tiendas en línea.
Aunque las nuevas tarjetas portátiles estarán disponibles principalmente como parte de equipos completos, la publicación del blog de Nvidia que anuncia las nuevas tarjetas marca un precio de compra de 2.499 dólares para la GeForce RTX 3080 Ti; y de 1.499 dólares para la RTX 3070 Ti.
Ojo, aunque esté un escalón por debajo de sus hermanas mayores, no hay que menospreciar en absoluto la GeForce RTX 3050. Está construida con el potente rendimiento gráfico de la arquitectura Nvidia Ampere. Ofrece núcleos RT de segunda generación dedicados y núcleos Tensor de tercera generación. Nuevos multiprocesadores de transmisión y memoria G6 de alta velocidad para abordar los últimos juegos.
Transmisión comparativa con Nvidia GeForce RTX, donde se ponen a prueba la tecnología NVENC contra la tecnología x264.
Nvidia pone en las tiendas la GeForce RTX 3090 Ti, la nueva tarjeta tope de gama en su GeForce RTX serie 3000 con GPU Gaming basada en su nueva arquitectura GPU Ampere.
La GPU de 24 GB tiene un precio de salida de 1.999 dólares, está dirigida al trabajo DCC y la representación gráfica mediante GPU. Por supuesto también es válida para los juegos. Nvidia dice que es la tarjeta gráfica más rápida del mundo.
Especificaciones y puntos de referencia Originalmente anunciados en CES 2022. La GeForce RTX 3090 Ti es una versión turboalimentada de la GeForce RTX 3090 existente con todos los núcleos de su GPU GA102 desbloqueados.
Si bien eso no resulta en un gran aumento en el número de núcleos CUDA, utilizados para el procesado en general por GPU. Nvidia cita un rendimiento de cómputo FP32 de 40 Tflops; más del 10 por ciento por encima del rendimiento de la RTX 3090.
Un considerable aumento de velocidad
La mayor parte de ese aumento de rendimiento se debe a una mayor velocidad de reloj de la memoria. Que se eleva a 21 Gbit por segundo, frente a 19.5 Gbit por segundo en la tarjeta anterior.
La cifra es lo suficientemente alta como para que Nvidia pueda afirmar en una publicación de blog que la GeForce RTX 3090 TI es la tarjeta gráfica más rápida del mundo. Ya que su rendimiento de cómputo FP32 supera incluso a la RTX A6000.
El cambio en las especificaciones importantes para la representación de GPU es menor. La RTX 3090 Ti tiene dos núcleos de RayTrace RT más que la RTX 3090, pero la capacidad de memoria de la GPU no ha cambiado, a 24 GB GDDR6X.
Además, ha habido un gran aumento en el consumo de energía. La RTX 3090 Ti tiene un TDP de 450W, un total de 100W más que la RTX 3090.
Nvidia no ha publicado ningún punto de referencia para la RTX 3090 Ti, pero podemos hacernos una idea de cómo debe funcionar con las aplicaciones DCC más comunes escalando a partir de las revisiones de la GeForce RTX 3090.
GeForce RTX 3090 Ti a la venta y agotada el mismo día
Aunque ya está a la venta, si vas a su página web para realizar la compra, te dice que ya está agotada. Pero si haces lo mismo en la web del Reino Unido, aún hay unidades disponibles, eso sí, a 2.470 dólares. Es decir 471 dólares más que el precio de salida.
|Agradecer cuando alguien te ayuda es de ser agradecido|