• 0
Xeann

TEMA OFICIAL: NVIDIA GT500 y GT400

Pregunta

NVIDIA GT300, especificaciones reveladas

Tiempo ha pasado desde que se habló por primera vez del GT300, pero hasta la fecha no se habían obtenido detalles acerca de lo que sería la siguiente generación en la arquitectura de GPUs de NVIDIA. Ahora teniendo revelados los primeros detalles de la próxima GPU de NVIDIA se ha visto que las diferencias contra su predecesora GT200 son notorios, tanto como para considerársele al GT300 como una CPU debido al tipo de intrucciones que contará como las SIMD que serán empleadas para el multiproceso paralelo.

nvidia2.jpg

¿Qué es el GT300?

Principalmente el GT300 se caracterzará por incluir las instrucciones SIMD. El GT300 contará con funciones similares a las MIMD (Multiple-Intruccion Multiple Data) donde todas las unidades trabajarán con multiproceso paralelo en modo MPMD permitiendo ejecutar shaders simples y operaciones complejas "on-the-go".Dentro las primeras incógnitas que traerá consigo la siguiente-arquitectura es si será correcto llamarles "Shader Processor" o Shader Core" ya que éstas unidades son casi iguales en términos de FPUs introducidos en los más recientes procesadores de AMD e Intel.

En cuanto a sus núcleos, el GT300 contendrá 16 grupos con 32 núcelos dando como resultado 512 núcleos. Si comparamos el poder del cómputo del GT300 vs. el GT200, estaríamos hablando de que al menos el GT300 será dos veces más poderoso que su predecesor. Imaginando que NVIDIA decide colocar 2GHz de velocidad para los 512 núcleos MIMD, el poder de cómputo obtenido sería de almenos 3 teraFLOPS en números de punto flotante Single-Precision, y para números flotantes Dual-Precision su rendimiento podría ser de 6-15x veces más sobre el GT200, aunque todo dependerá de lo optimizado de las unidades MIMD.

Otro cambio en el GT300 será la organización de clústers que ya no serán estáticos. Ahora se utilizará el caché "Scratch" que permitirá una interactividad más grande entre los núcleos dentro del clúster, permitiendo al GPU realizar aplicaciones basadas en tecnologías como el GPGPU.

De momento no se tienen detalles tangibles en cuanto a su rendimiento en aplicaciones reales. Pero sin duda, el GT300 no será una GPU con frencuencias más altas, más bien será una GPU convertida en un CPU. Se espera que su lanzamiento se efectue para finales del 2009 y principios del 2010.

Fuente

BRIGHTSIDEOFNEWS

vía

TCMAGAZINE

Compartir este post


Enlace al post
Compartir en otros sitios

243 respuestas a esta pregunta

  • 0

Huy, huy, huy, vaya noticiota eso sí no me lo imaginaba, por lo visto Nvidia quiso agarrar una rebanada del pastel (SIMD) que Intel ya planeaba masificar en Larrabee a nivel gráfico jeje.

Sobre el rendimiento, eso sí es sorprendente, qué bien que con el GT300 se volverá a innovar, y no resultó ser un refrito como lo fue la GTX280 vs la 8800 GTX xD (sí, sí, sé que hay algunas diferencias en la arquitectura, pero no resultaron tan buenas, ni tampoco que ofreciera un rendimiento exponencial).

Gracias por la noticia Xeann :D. A esperar más tiempo, ah y quita esa foto porque nunca faltará el que crea que esa es la GT300, y se supone que esta noticia se habla de eso.

Un Saludo

Editado por Power Computer

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

la verdad es que suena exepcionalmente impresionante, este mini preview, pero bueno, yo nunca he podido adquirir el top para mi pc, así que a mi me intereza, que ofrecerá para competir con la HD4770, pero, tomando como referencia esta nota, creo que la batalla sera impresionante y muy buena...

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0
Huy, huy, huy, vaya noticiota eso sí no me lo imaginaba, por lo visto Nvidia quiso agarrar una rebanada del pastel (SIMD) que Intel ya planeaba masificar en Larrabee a nivel gráfico jeje.

Sobre el rendimiento, eso sí es sorprendente, qué bien que con el GT300 se volverá a innovar, y no resultó ser un refrito como lo fue la GTX280 vs la 8800 GTX xD (sí, sí, sé que hay algunas diferencias en la arquitectura, pero no resultaron tan buenas, ni tampoco que ofreciera un rendimiento exponencial).

Gracias por la noticia Xeann :D. A esperar más tiempo, ah y quita esa foto porque nunca faltará el que crea que esa es la GT300, y se supone que esta noticia se habla de eso.

Un Saludo

A petición y a que puede que se mal interprete la imagen... IMAGEN CAMBIADA

Saludos

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0
a mi me intereza, que ofrecerá para competir con la HD4770

pues un refrito :wootrock:

yo presiento que Nvidia debe tener bajo la manga alguna tarjeta mainstream basada en el GTX280 si no la han sacado es por que aun les queda mucho stok de G92 . . . o porque esta es mejor que el nuevo chip xD

si yo fuera el dueño enmarcaria en mi oficina un G80 y al lado sus hijitos G92 para recordar como con un mismo modelo me mantube en el mercado por casi 2 años xD

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Más detalles: NVIDIA GT300, con bus de 512-bit?

Recientemente se ha publicado Nueva información con respecto a la próxima arquitectura GT300 de NVIDIA. El nuevo rumor apunta a que NVIDIA seguirá usando un controlador de memoria con 512-bit, logrando así las primeras GPUs con soporte DirectX 11 y en exceder un ancho de banda de 300Gb/s por GPU.

De ser cierto, NVIDIA podrá colocar 8 controladores de 32-bit conectados a 32-núcleos múltiples dando un total de 512-nucleos. Por lo tanto, si los 512-bit van a estarán conectados a 1-2Gb GDDR5 con una frecuencia de 1050 o 1150Mhz (frecuencias de las ATI 5870/5870X2) se podrá alcanzar fácilmente ancho de banda entre 268.8-294.4GB/s.

En casos más prácticos, si las memorias de las tarjetas de fabricantes como EVGA, BFG, Gainward u XFX pudieran ser overclockeadas a 1180 ot 1200MHz QDR, se podría alcanzar 4.7-4.8GT/s, convirtiendolas en las primeras GPUs con soporte DirectX 11 y en exceder un ancho de banda de 300Gb/s por GPU.

Fuente

HARDWAREINFOS

BRIGHTSIDEOFNEWS

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0
Más detalles: NVIDIA GT300, con bus de 512-bit?

Recientemente se ha publicado Nueva información con respecto a la próxima arquitectura GT300 de NVIDIA. El nuevo rumor apunta a que NVIDIA seguirá usando un controlador de memoria con 512-bit, logrando así las primeras GPUs con soporte DirectX 11 y en exceder un ancho de banda de 300Gb/s por GPU.

De ser cierto, NVIDIA podrá colocar 8 controladores de 32-bit conectados a 32-núcleos múltiples dando un total de 512-nucleos. Por lo tanto, si los 512-bit van a estarán conectados a 1-2Gb GDDR5 con una frecuencia de 1050 o 1150Mhz (frecuencias de las ATI 5870/5870X2) se podrá alcanzar fácilmente ancho de banda entre 268.8-294.4GB/s.

En casos más prácticos, si las memorias de las tarjetas de fabricantes como EVGA, BFG, Gainward u XFX pudieran ser overclockeadas a 1180 ot 1200MHz QDR, se podría alcanzar 4.7-4.8GT/s, convirtiendolas en las primeras GPUs con soporte DirectX 11 y en exceder un ancho de banda de 300Gb/s por GPU.

Fuente

HARDWAREINFOS

BRIGHTSIDEOFNEWS

perdonen la mala palabra : holy shit... si esto es lo que sale.

de igual manera recordemos, hay que esperar producto final.

ahora en el papel. se ve impresionante,

obviamente esto de darse, lo podremos llamar arquitectura unificada de tercera generacion.

el uso de MIMD hara de la arquitecura unificada sea mucho mas flexible.

procurare hacer mi concecuente guia de arquitectura cuando el momento llegue :)

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

NVIDIA GT300: Frecuencias reveladas

Con cada paso que da el desarrollo del chip GT300 de NVIDIA nos asombramos aún más, el empeño dedicado a este chip aunque ya comienza a verse en las impresionantes cifras de rendimiento, todo se reducirá en productos de gran rendimiento y precio. Actualmente ya se sabe que el GT300 tendrá tres variantes enfocados a tres sectores.

El GT300 estará dividido en: el G300(enfocado para el público en general, serie GeForce), el GT300 (para tarjetas dedicadas al cómputo, como la serie Tesla) y el G200GL (enfocado para el mercado professional/enterprise, serie Quadro).

Por el momento se sabe que las primeras tarjetas G300 estarán basadas en el stepping A1 y contarán con 1024MB de memoria GDDR5. Se habla también de tarjetas con 2048MB pero de momento no se ha confirmado su nombre código.

Resumiendo lo que se ha mencionado hasta ahora acerca del chip GT300 A1, se sabe que podría alcanzar una velocidad de 0.7Ghz, con 512 núcleos trabajando a 1.6Ghz. Las memorias GDDR5 podrían alcanzar una velocidad de 1.1Ghz o 4GT/s, dando como resultado un ancho de banda de 281.6Gb/s, que signfica dos veces el ancho de banda de la GTX280.

Por lo tanto las frecuencias hasta ahora conocidas del G300, podrían llegar a ser:

  • GPU: 700Mhz
  • Shaders: 1600MHz
  • Memoria: 1100MHz DDR5

Los números llegan a ser nuevamente impresionantes, tan sólo con los 1.6Ghz para 512 shaders, el chip podría alcanzar los 2457 GFLOPS. Un aumento bastante considerable si lo comparamos con los 933GFLOPS de la GTX280.

Ahora la preocupación, no es su fecha de lanzamiento o lo complicado de su fabricación del GT300, sino más bien la eficiencia que se pueda lograr con el cálculo de operaciones con números flotantes de doble-precisión, de no ser como lo esperado, de nada servirián si no se pueden aprovechar en aplicaciones reales.

Fuente

BRIGHTSIDEOFNEWS

EXPREVIEW

Editado por SCrashNeT

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Esperemos sean las especificaciones finales, muchas veces se comenta y cambian las cosas.

Saludos!!!

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

¿La demostración del GT300 se dará en Septiembre?

Parece ser que los chips GT300 ya han salido de los laboratorios de prueba, por lo que se estima que para el mes de Septiembre se podrían comenzar a ver las primeras demostraciones de la nueva arquitectura de NVIDIA caracterizándose por contar con soporte a DirectX 11. Si ponemos atención a esta fecha, nos daremos cuenta que coincide con el mes en el que ATI lanzará oficialmente sus chips "Evergreen". ¿Coincidencia?, para nada!!!. Prácticamente existe un un fin de semana que nos separa de la revelación de dos arquitecturas más esperadas de nuestros tiempos.

Fuente

GURU3D

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Yo veo claramente la estrategia de nvidia de que aunque vayan a salir sus graficas a finales de año, tienen que mostrar que las suyas son mejores que las ATI para que así los usuarios se abstengan de comprar ATI y esperen a la salida de las nvidia.

Algunos se esperaran, y otros compraran ATI, yo en esta ocasion esperare a que salga todo :rolleyes:

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

de acuerdo con chrys ya pase una mala experiencia de comprar en pre orden que para el segundo trimestre del lanzamiento la tarjeta bajo como 80$.... :P

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

X3, lo mejor es esperar a que ambas nuevas generaciones estén ya en el mercado para poder compararlas y así realizar una mejor compra :).

Salu2

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Yo de plano esperare... algo asi como 8 meses, por lo mientras con una GTX 260 core 216 no pido mas, no se por que tanto en SLI y Crossfire si realmente para juegos pues no es necesario estar in al 100%.

Pero bueno habra gente que lo quiera y que lo pueda, asi que adelante!

Gracias por la noticia.

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

De igual manera me gustaria esperarme, no me quisiera adelantar a ninguna de las dos soluciones.

Por lo del DX11, si aun no se ha explotado bien el DX10.1 imaginense el 11, ja. Me imagino que los primeros titulos de DX11 saldran a mediados del siguiente año o hasta finales del 2010. Aun hoy en dia no existe un juego DX10 hecho desde la base sin ocupar DX9, es decir, ni se ha emigrado al DX10 aun.

Me gustaria creer que el motor grafico de Crytek podra ocupar DX11 dejando de nuevo atras a las pobres consolas.

Saludos!!!

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Pues a mi me gustaria repetir la historia de la generación pasada... mi HD4850 me costó 2300 pesos impuestos incluidos, y la tenia en mis manos, el mismo dia de su lanzamiento... después, subio el dolar de 9.50 a 13 pesos, jojojo.... desgraciadamente esta vez tendré que esperar... pero bueno ya veremos que ofrecen, eso es lo interesante

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0
Pues a mi me gustaria repetir la historia de la generación pasada... mi HD4850 me costó 2300 pesos impuestos incluidos, y la tenia en mis manos, el mismo dia de su lanzamiento... después, subio el dolar de 9.50 a 13 pesos, jojojo.... desgraciadamente esta vez tendré que esperar... pero bueno ya veremos que ofrecen, eso es lo interesante

yop quiero una ati, por el lado de ati me atrae las nuevas cosas que traen :3, y de nvida pues no mucho solo ver que juegos aprovechen physX, sera esperar tambien a ver que ofrecen :3

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

[Rumor]EL GT300 ofrece poco rendimiento, pero aún hay esperanza

En lo que que se revela la otra cara de la moneda, y la nada mal vista línea de tarjetas AMD "Evergreen" presentada hace unos días. Han comenzado a surgir algunos rumores acerca del pobre rendimiento que ofrece el chip GT300 de NVIDIA. Ante esto, más de una persona ha afirmado que la GT300 superará sin problemas a la Radeon HD 5870 ("Cypress")

El rumor afirma que el rendimiento del GT300 es bastante pobre comparado con el que se esperaba. De acuerdo a lo que se menciona, del primer lote de cuatro obleas de 300mm sólo siete chips GT300 fueron aprobados. En decir, que de las cuatro obleas con 104 chips gráficos GT300 cada una, sólo se obtuvieron sólo 1.7% chips funcionales, mientras que lo normal hubiera sido 50% -20%. Esto es hasta ahora un rumor, pero que puede hacer brincar a más de uno, ya que son cifras realmente decepcionantes.

Tanto ATI como NVIDIA han dado sus respectivos saltos al proceso de 40nm y cada uno enfrentándose a diferentes obstáculos. Sin embargo, ATI ha tenido una mayor participación en esta transición, tal es el caso de la GPU RV740 que ha sido bien recibida. Por el lado de NVIDIA, hasta hace poco se han comenzado a ver las primeras pistas de 40nm en sus tarjetas de video comenzando con tarjetas GT200b low-end enfocadas al segmento OEM.

El proceso a 40nm puede provocar cierto nivel de incertidumbre para quienes esperen la apuesta de NVIDIA. Aunque considerando que la arquitecutura del GT300 es totalmente nueva y el buen currículum de NVIDIA en el desarrollo de chips gráficos de los últimos años, lo más seguro es que el GT300 no llegue a ser un "too good to be real".

Fuente

GURU3D

VR-ZONE

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

El sitio FUDZILLA informa que el próximo chip gráfico de NVIDIA conocido como GT300, tendrá por nombre código "Fermi". Lo anterior podría hacer referencia al físico italiano Enrico Fermi, mejor conocido por desarrollar el primer reactor nuclear. ¿Lo anterior nos da a entender qué tendremos un reactor portátil dentro de nuestras PCs?.

Hasta la fecha, sabemos que GT300 se defenderá principalmente por ofrecer mejores prestaciones en el cómputo paralelo, soporte a memoria GDDR5, soporte a DirectX 11 y OpenGL 3.1. Se espera que la tarjeta sea mucho más grande y poderosa que la recien anunciada Radeon HD 5870, incluso se ha rumorado la existencia de una versión con doble GPU, denominada anteriormente como GX2. Por el momento, estemos atentos a la respuesta de NVIDIA.

Se espera que el discutido chip sea lanzado a finales del 2009 ó principios del 2010.

Fuente

FUDZILLA

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0
...y para alimentarla también se requerirá una planta nuclear? jajajaja

pss a ver ke rollo,...

Saludos!

haha de hecho las versiones que han sacado de la 295 que requieren fuentes de arriba de 1000 watts estan ya medio bestiales no quiero ni saber como vienen las nuevas.

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

de que versiones te refieres havokz, yo tengo una fuente de 850 watts y una gtx295 y me va bien

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Creo que todos sabemos que vana ser un cañon, pero lo que va a ser mas importante es su precio y el consumo, porque con que consuman mas que las GT200 se va a necesitar fuente de mas de 800w si o si.

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Qué horribles consumos de energía :blink: .

Luego no será un reactor nuclear, sino un mini sol, luego el bosón de higgs, luego....

Editado por Power Computer

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Pues... con una GTX 285 no se necesita más que una fuente de 650W, y eso con un COre i7.

No hay que ser tan alarmistas ;).

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0
Pues... con una GTX 285 no se necesita más que una fuente de 650W, y eso con un COre i7.

No hay que ser tan alarmistas ;).

+1

Compartir este post


Enlace al post
Compartir en otros sitios
  • 0

Pero la GTX 285 consume menos energía, creo que toda la serie, la 285 está muy optimizada con el tema de consumo, lástima que no incorpora un chip digital para la gestión del voltaje, una pena. Hay que hacerlo a la antigua usanza: un par de resistencias variables y un excelente pulso de relojero suizo :whistling:

En stock con una buena fuente de 600 W y un i7 no hay problema, sin embargo el OC máx del i7 está limitado a un consumo pico de 450 W, alrededor de 3.6 GHz +/-.

Compartir este post


Enlace al post
Compartir en otros sitios
Invitado
Este tema esta cerrado para más respuestas.



  • Navegando Recientemente

    No registered users viewing this page.