Hogar Espacios en blanco para el invierno ¿Cuándo se publicará nvidia pascal. Tarjetas de video. El lío y la historia del origen de Pascal

¿Cuándo se publicará nvidia pascal. Tarjetas de video. El lío y la historia del origen de Pascal

Durante la conferencia con inversores, NVIDIA presentó interesantes estadísticas sobre las ventas de tarjetas de video de la nueva arquitectura Turing.

A pesar de la creencia popular de que Turing no está a la venta, ocurre lo contrario. La compañía comparó las ventas de tarjetas gráficas de escritorio Pascal y Turing a un precio superior a $ 299 en las primeras 8 semanas y descubrió que las nuevas soluciones se vendían un 45% mejor.

Actualmente, Turing tiene una base de instalación del 2%, mientras que Pascal tiene el 50% y el 48% se basa en tarjetas de video de arquitecturas pasadas. La compañía también informó que el 90% de los propietarios de aceleradores GeForce tienen tarjetas de video más lentas que la GeForce GTX 1660 Ti.


Por lo tanto, NVIDIA resumió que su futuro parece brillante, ya que la mayoría de los jugadores continúan reequipando con un aumento en la clase del acelerador. ¿Cómo podría ser de otra manera en una reunión con inversores?

NVIDIA: Turing es más eficiente energéticamente que Vega 20

25 de abril

Muchos esperaban que NVIDIA presentara la GPU Ampere durante el GTC, que se fabricaría a 7 nm. Pero eso no sucedió porque NVIDIA está absolutamente feliz con Turing.

Zen-Hsun Huang, fundador y director ejecutivo de NVIDIA, dijo que su empresa no está dispuesta a iniciar la producción en masa de productos de 7 nm porque tiene Turing. A pesar de estar fabricado a 12nm, es mucho más eficiente que los 14nm de AMD (Vega 10 = Radeon RX Vega 64) e incluso 7nm (Vega 20 = Radeon VII).

Juan dijo: “Lo que nos hace especiales es nuestra capacidad para crear las GPU con mayor eficiencia energética del mundo de todos los tiempos, utilizando las tecnologías más disponibles. Eche un vistazo a Turing. La eficiencia energética es muy buena en comparación con incluso 7 nm para algunos "..

Director ejecutivo de NVIDIA Zen-Hsun "Jensen" Huang

AMD fue el primero en lograr los estándares de 7 nm en la fabricación de GPU. Pero incluso con una tecnología tan perfecta, Radeon VII no pudo alcanzar a NVIDIA Turing ni en eficiencia ni en rendimiento. Incluso el Pascal de 14 nm es más eficiente energéticamente que el Vega 20.

Obviamente, los ingenieros de NVIDIA han hecho un gran trabajo en las últimas generaciones de procesadores desde el fiasco de la generación Fermi.

NVIDIA agrega el trazado de rayos a tarjetas gráficas y motores de juegos más antiguos

22 de marzo

NVIDIA decidió proporcionar la funcionalidad de trazado de rayos en tiempo real para tarjetas gráficas sin soporte de hardware RTX.

Actualmente, el rastreo solo está disponible para mapas de la serie RTX. Después de los cambios, el rastreo se llevará a cabo en todas las tarjetas de video, a partir de la GTX 1060.

Sin embargo, la empresa advierte que habrá una serie de restricciones. Por ejemplo, en Battlefield V, puedes obtener una mejor calidad con una pérdida mínima, mientras que en Metro Exodus a 1440p, el rendimiento puede caer a unos inaceptables 18 cuadros por segundo.


La cuestión es que en Battlefield V, el trazado se utiliza para los reflejos y puedes reducir la fuerza de los efectos para mantener el rendimiento. Metro Exodus utiliza el trazado para crear efectos de iluminación global altamente realistas simulando la luz del mundo real. Este es el primer juego que libera todo el potencial de RTX. Debido a la alta intensidad de cálculo, las tarjetas GTX no son capaces de realizar dichos cálculos, solo los núcleos RTX pueden hacer frente a tal carga.

Debido a esto, las tarjetas RTX funcionan 3 veces más rápido que la serie GTX 10 en estas condiciones. Sin embargo, en Shadow of the Tomb Raider, la ralentización llegará a 2x, y en Battlefield V - 1.6x. La situación con las tarjetas de la serie 16xx es un poco mejor, ya que tienen núcleos enteros.

Según NVIDIA, la tecnología RTX actualizada ya es compatible con Unity y Unreal Engine. Crytek anunció recientemente la implementación del trazado de rayos en tiempo real en el motor CryEngine 5 en cualquier tarjeta gráfica. Además, NVIDIA decidió apoyar el desarrollo de Christophe Sheed, quien comenzó a reelaborar el viejo Quake II para proporcionar soporte RTX, y llevó el procesamiento de trazado de rayos completo al motor IdTech2 hace veinte años. Resultó impresionante, juzga por ti mismo:

Se ha lanzado el ensamblaje final de MSI Afterburner 4.6.0

10 de marzo

Como prometió Alexey Nikolaychuk, lanzó el ensamblaje final de la utilidad MSI Afterburner versión 4.6.0, que recibió soporte para las últimas tarjetas de video AMD y NVIDIA, así como cambios significativos en la interfaz e incluso una nueva máscara.

Se han realizado una gran cantidad de cambios en la utilidad de overclocking. El propio autor contó más de cien. Además de la utilidad MSI Afterburner, también se ha actualizado la herramienta complementaria para monitorear RivaTuner Statistic Server. La aplicación RTSS ha recibido la versión RTSS número 7.2.1.


Los cambios más importantes en MSI Afterburner se enumeran a continuación. Una lista completa está disponible en sitio del foro Guru of 3D.

  • Soporte agregado para la arquitectura Turing, control de voltaje agregado en tarjetas de video de referencia; Control mejorado de GPU Boost con la capacidad de controlar la potencia y la disipación de calor a través del gráfico de potencia / frecuencia.
  • Se agregó soporte independiente para múltiples ventiladores.
  • Soporte agregado para la tecnología NVIDIA Scanner.
  • Se agregaron varios sensores de monitoreo de voltaje de hardware.
  • Se agregó soporte para la arquitectura Vega 20. Para Radeon VII, se agregó soporte para Overdrive 8, se agregó monitoreo de temperatura de GPU de doble canal, VRM. Se agregó monitoreo de carga de GPU en Radeon VII.
  • Control de ventilador agregado en el controlador AMD Adrenalin 2019.
  • Módulo de monitoreo de hardware mejorado: compensación de temperatura agregada al monitorear AMD Ryzen 7 2700X.
  • El gráfico "Uso del archivo de paginación" ha sido renombrado a "Cargando archivo de paginación". Se agregó una notificación en el monitoreo sobre si los cambios se pueden aplicar a todos o a los horarios de monitoreo seleccionados. Los gráficos se pueden seleccionar por tipo y por grupo a través del menú contextual de monitoreo.
  • Los elementos de visualización en pantalla (OSD: texto, gráficos o combinación) ahora se muestran en la columna de propiedades del programa de monitoreo activo.
  • Se agregó una tecla de acceso rápido programable para borrar el historial de monitoreo.
  • El botón "Aplicar" se ha agregado a la ventana de propiedades de la aplicación.
  • Se agregaron los comandos "Marcar máximo" y "Marcar mínimo" al menú contextual de monitoreo.
  • Para capturar una captura de pantalla fácil de imprimir, presione F11.
  • Para eliminar gráficos no deseados, puede mantener presionada la tecla Supr y hacer clic en ellos con el mouse.
  • Editor OSD mejorado. Ahora hay 250 ranuras con variables disponibles para su visualización. Se agregó soporte para gráficos incrustados en el texto. Además, los gráficos se pueden colocar sobre el texto. Se agregó la capacidad de agregar separadores.
  • Se agregó soporte para macros para agregar cualquier dato al texto OSD (por ejemplo,% de temperatura de CPU%).
  • Se agregó soporte para formateo de hipertexto en OSD.
  • Compatibilidad mejorada con el complemento HwInfo: carga agregada de UPS, energía, voltaje de entrada y nivel de batería a la configuración predeterminada.
  • El editor de frecuencia / voltaje mejorado ahora está disponible para las GPU de AMD.
  • Ahora puede usar las teclas Tab y Shift + Tab para cambiar entre puntos en la curva de frecuencia / voltaje. El ajuste suave de los valores se realiza con las teclas arriba / abajo, y con una presión adicional de Ctrl, la conmutación se realiza a 10 MHz.
  • Para editar el punto de compensación de frecuencia en el gráfico, presione Enter; presionando Shift + Enter, puede establecer la frecuencia objetivo absoluta.
  • Cambió ligeramente el control del teclado del gráfico de frecuencia / voltaje en las tarjetas AMD. Anteriormente, se usaban las teclas de flecha arriba / abajo para establecer la frecuencia, y se usaban los voltajes izquierda / derecha. Ahora la frecuencia y el voltaje están regulados por flechas, y el enfoque cambia por PageUp / PageDown.
  • En las tarjetas AMD, para mover toda la curva de frecuencia / voltaje, debe mantener presionada la tecla Alt, al igual que en las tarjetas de video NVIDIA.
  • Se agregó soporte para deshacer / rehacer mediante combinaciones de teclas Ctrl + Z y Ctrl + Y. Después de aplicar la curva, se borra el historial de cambios.
  • Se ha ampliado el rango de control de voltaje en la curva de voltaje / frecuencia. Ahora puede reducir el voltaje de la GPU para reducir el consumo de energía.
  • Para volver a leer la curva de voltaje / frecuencia de la tarjeta de video, debe presionar F5.
  • Los ejes de tensión en el gráfico ahora se escalan automáticamente.
  • Control de hardware mejorado de la interfaz de memoria dividida, lo que permite el control del gráfico de frecuencia / voltaje, pruebas de estrés externas y overclocking automático para aplicaciones relacionadas con MSI Afterburner.
  • La distribución incluye una nueva aplicación de overclocking automático MSI Overclocking Scanner. La aplicación está disponible en tarjetas gráficas NVIDIA GTX 10x0 y NVIDIA RTX 20x0 con un sistema operativo de 64 bits. El escáner utiliza la prueba de carga incorporada de NVIDIA para la prueba de esfuerzo de la GPU.
  • Se agregó un grupo de configuraciones de limitador de velocidad de cuadros OSD. Le permite asignar teclas de acceso rápido para habilitar, deshabilitar y aproximar límites de velocidad de fotogramas para los técnicos en RivaTuner Statistics Server.
  • Se agregó visualización de datos de topología del procesador en la ventana del sistema.
  • Acceso fijo a las funciones de monitoreo de hardware en las GPU AMD Vega. Ahora los valores de temperatura, consumo de energía y voltaje no están distorsionados.
  • Monitoreo fijo de carga de GPU de bajo nivel para la familia AMD Polaris.
  • La configuración del multiplicador duro en el gráfico de voltaje / frecuencia se ha reemplazado por una heurística, que proporciona un control de curva unificado para Pascal y las GPU más nuevas.
  • Escalado mejorado de la interfaz del editor de curvas de voltaje / frecuencia.
  • Se mejoró el rendimiento de las ventanas y curvas de monitoreo cuando se establecen valores superiores al 100%.
  • La interfaz multilingüe está vinculada a la resolución y no a la escala del sistema operativo, lo que da como resultado una nitidez con altas densidades de píxeles.
  • La escala de piel ahora es asincrónica. Esto significa que la ampliación de la máscara no ralentiza el tiempo de actualización de la interfaz.

MSI Afterburner se ha actualizado a la versión 4.6.0 beta 10

28 de diciembre de 2018

Alexey Nikolaychuk ha publicado una nueva versión beta de su utilidad MSI Afterburner, en la que implementó la esperada función de overclocking automático para tarjetas de video no solo de la serie RTX, sino también para aceleradores con chip Pascal. Además, se ha agregado soporte para nuevo hardware y se ha ampliado la gama de sensores compatibles, así como también se ha mejorado el soporte para tarjetas gráficas AMD.

Esto es lo que dijo el propio autor: “Además de actualizar el OC-scanner, los cambios también afectaron al editor de la curva de frecuencia / voltaje, espero que deleiten a los fanáticos de la reducción del consumo de energía del sistema (tanto de NV como de AMD). Los límites de frecuencia / voltaje de la ventana del editor ahora son configurables, por lo que aquellos propietarios de tarjetas gráficas NVIDIA GTX / RTX que usaron la función de fijar el voltaje mínimo en la ventana del editor encontrarán más fácil hacer que el voltaje operativo sea aún más bajo. Los propietarios de GPU AMD ahora también pueden usar el Editor de curvas de frecuencia / voltaje para ajustar de forma independiente los estados P. Además, tradicionalmente hay decenas de puntos de pequeñas mejoras en la configuración de monitoreo, etc., que mejoran la usabilidad del software "..


A continuación se muestra una lista de los cambios más interesantes:

  • Se agregó soporte para los controladores de voltaje Monolithic Power Systems MP2884A y MP2888A.
  • Se agregó monitoreo de temperatura VRM y VRM2 para tarjetas gráficas RTX 2080Ti personalizadas. También se han ampliado las opciones para controlar el voltaje, la frecuencia de la GPU y la memoria en estas tarjetas de video.
  • Módulo de monitoreo de hardware mejorado:
    • Compensación de temperatura agregada para la CPU AMD Ryzen 7 2700X /.
    • Las mismas temperaturas ahora se clonan en todos los núcleos de las CPU AMD.
    • Se ha cambiado el nombre del gráfico "Uso de archivos de intercambio" a "Cargo de confirmación".
    • Editor OSD mejorado.
  • Complemento HwInfo mejorado: se agregó la carga, la potencia, el voltaje de entrada y el nivel de carga del UPS a la configuración predeterminada.
  • Editor de voltaje / frecuencia mejorado:
    • El Editor de voltaje / frecuencia ahora está disponible en las GPU de AMD. Le permite editar las frecuencias centrales y los voltajes de forma independiente para cada estado de energía.
    • Al igual que con las GPU NVIDIA, ahora es posible ajustar cada punto de voltaje y frecuencia de forma independiente usando el mouse y el teclado.
  • Ya no se realiza un seguimiento de los estados de energía de solo lectura.
  • El rango de voltaje y la frecuencia predeterminada aumentan ligeramente. Ahora puede bloquear el voltaje para descargar la tarjeta de video.
  • Puede actualizar la curva desde el hardware haciendo clic en el editor.
  • Los ejes de tensión y frecuencia se escalan dinámicamente.
  • La tecnología MSI Overclocking Scanner ahora es compatible con las tarjetas de las series NVIDIA GTX 10x0 y NVIDIA RTX 20x0 en sistemas operativos de 64 bits.
  • Control de hardware mejorado de la interfaz de memoria distribuida. Anteriormente, MSI Remote Server permitía controlar la GPU desde aplicaciones de terceros. Ahora es posible realizar pruebas de estrés desde aplicaciones externas.

La utilidad complementaria RivaTuner Statistic Server también se ha actualizado a la versión 7.2.1 beta 4. Ahora las posibilidades de personalizar el OSD se han ampliado significativamente, las posibilidades de escalar y posicionar fuentes, ajustar el tamaño de los objetos incrustados y su relleno se han mejorado. Se agregó un modo para escalar máscaras, se agregó la capacidad de limitar la velocidad de fotogramas.

La GeForce GTX 1080 Ti tiene 11GB de memoria GDDR5X, una GPU de 1583MHz (overclockeada a 2000MHz con un sistema de enfriamiento estándar), memoria QDR de 11GHz y un 35% mejor desempeño que la GeForce GTX 1080. Y eso a un precio con descuento de $ 699.

La nueva tarjeta gráfica desplaza a la GeForce GTX 1080 de la posición del buque insignia en la línea GeForce y se convierte en el más rápido la tarjeta gráfica que existe hoy en día, así como la tarjeta más poderosa en la arquitectura Pascal.

La tarjeta de juego NVIDIA GeForce GTX 1080 Ti más potente

NVIDIA GeForce GTX 1080 Ti es el sueño de un jugador quienes finalmente podrán disfrutar de los últimos juegos AAA, jugar en auriculares VR de alta definición, disfrutar de la claridad y precisión de los gráficos.

La GTX 1080 Ti fue diseñada como la primera tarjeta gráfica completa para juegos 4K. Está equipado con el hardware más nuevo y tecnológicamente avanzado del que ninguna otra tarjeta de video puede presumir en la actualidad.

Aquí presentación oficial NVIDIA GeForce GTX 1080 Ti

“Es hora de algo nuevo. El que es un 35% más rápido que la GTX 1080. El que es más rápido que la Titan X. Llamemos a esto el máximo ...

Los videojuegos se han vuelto cada vez más hermosos cada año, por lo que presentamos un producto superior de próxima generación para que disfrutes de la próxima generación de juegos ".

Jen-Xun

Especificaciones de NVIDIA GeForce GTX 1080 Ti

NVIDIA no escatimó en hardware para su nueva y ultrapotente tarjeta gráfica.

Está equipado con el mismo GPU La GPU Pascal GP102 es la misma que la Titan X (P), pero supera a esta última en todos los aspectos.

El procesador está equipado con 12 mil millones de transistores y tiene seis grupos de procesamiento de gráficos, dos de los cuales están bloqueados. Esto da un total de 28 procesadores multiproceso 128 núcleos cada uno.

Así, la tarjeta de video GeForce GTX 1080 Ti tiene 3584 núcleos CUDA, 224 unidades de mapeo de texturas y 88 ROP (unidades responsables de z-buffering, anti-aliasing, grabación de la imagen final en el frame buffer de la memoria de video).

El rango de overclocking comienza desde 1582 MHz hasta 2 GHz. La arquitectura de Pascal se creó principalmente para overclocking en referencia y overclocking más extremo en modelos no estándar.

La GeForce GTX 1080 Ti también incluye Memoria GDDR5X de 11GB operando sobre un bus de 352 bits. El buque insignia también está equipado con la solución G5X más rápida hasta la fecha.

Con el nuevo sistema de compresión y almacenamiento en caché de mosaicos, el ancho de banda de la GTX 1080 Ti se puede aumentar a 1200 GB / s, superando la tecnología HBM2 de AMD.

Especificaciones de NVIDIA GeForce GTX 1080 Ti:

Especificaciones GTX TItan X Pascal GTX 1080 Ti GTX 1080
Proceso técnico 16 millas náuticas 16 nm 16 millas náuticas
Transistores 12 mil millones 12 mil millones 7.2 mil millones
Área de cristal 471 mm² 471 mm² 314 mm²
Memoria GDDR5X de 12 GB GDDR5X de 11 GB GDDR5X de 8 GB
Velocidad de memoria 10 GB / s 11 GB / s 11 GB / s
Interfaz de memoria 384 bits 352 bits 256 bits
Banda ancha 480 GB / s 484 GB / s 320 GB / s
Núcleo CUDA 3584 3584 2560
Frecuencia base 1417 1607
Frecuencia de overclocking 1530 MHz 1583 MHz 1730 MHz
Poder computacional 11 teraflops 11,5 teraflops 9 teraflops
Energía térmica 250W 250W 180W
Precio 1200$ 699 dólares 499$

Refrigeración de la tarjeta gráfica NVIDIA GeForce GTX 1080 Ti

GeForce GTX 1080 Ti Founders presenta una nueva solución de gestión del flujo de aire que permite una mejor refrigeración de la placa y también es más silenciosa que los diseños anteriores. Todo esto hace posible overclockear más la tarjeta de video y lograr una velocidad aún mayor. Además, la eficiencia de enfriamiento se mejora al Fuente de alimentación de 7 fases en 14 transistores dualFET de alta eficiencia.

La GeForce GTX 1080 Ti viene con el último diseño NVT TM, que presenta una nueva cámara de enfriamiento de vapor que duplica la superficie de enfriamiento de la Titan X (P). Este nuevo diseño térmico ayuda a lograr una refrigeración óptima y aumenta la GPU de su tarjeta gráfica más allá de las especificaciones con la tecnología GPU Boost 3.0.

NVIDIA GeForce GTX 1080 Ti es el sueño de un overclocker

Entonces, ¿qué hacemos con esta impresionante potencia de tarjeta gráfica? La respuesta es obvia: hacer overclock al límite. Durante el evento, NVIDIA mostró el extraordinario potencial de overclocking de su tarjeta gráfica GTX 1080 Ti. Recordemos que lograron alcanzar una frecuencia de procesador de 2.03GHz a 60 FPS bloqueados.

2016 ya está llegando a su fin, pero su contribución a la industria del juego permanecerá con nosotros durante mucho tiempo. En primer lugar, las tarjetas de video del campo rojo recibieron una actualización inesperadamente exitosa en el rango de precio medio, y en segundo lugar, NVIDIA demostró una vez más que no en vano ocupa el 70% del mercado. Los Maxwell eran buenos, la GTX 970 fue considerada legítimamente como una de las mejores tarjetas por el dinero, pero la Pascal es otra cuestión.

La nueva generación de hardware en la persona de GTX 1080 y 1070 literalmente enterró los resultados de los sistemas del año pasado y el mercado de hardware usado insignia, y las líneas "más jóvenes" en la persona de GTX 1060 y 1050 consolidaron su éxito en más segmentos asequibles. Los propietarios de GTX980Ti y otros Titans lloran lágrimas de cocodrilo: sus súper armas por muchos miles de rublos perdieron el 50% de su valor y el 100% de presunción a la vez. La propia NVIDIA afirma que la 1080 es más rápida que la TitanX del año pasado, la 1070 se acumula fácilmente en la 980Ti, y la 1060 relativamente económica perjudicará a todas las demás tarjetas.

Si esto es así, de dónde crecen las piernas del alto rendimiento y qué hacer con todo esto en la víspera de las vacaciones y las alegrías financieras repentinas, así como qué es exactamente lo que debe complacer a sí mismo, puede averiguarlo en este largo y breve artículo aburrido.

Puedes amar a la empresa Nvidia o ... no amar, pero negar que es ella quien es el líder en el campo de la construcción de tarjetas de video en este momento solo se convertirá en un extraño de un universo alternativo. Dado que Vega de AMD aún no se ha anunciado, no hemos visto RX emblemáticos en Polaris, y la R9 Fury con sus 4 GB de memoria experimental no puede considerarse una tarjeta prometedora (VR y 4K, sin embargo, querrán un poco más, que ella tiene) - tenemos lo que tenemos. Si bien el 1080 Ti y el RX 490 condicional, RX Fury y RX 580 son solo rumores y expectativas, tenemos tiempo para clasificar la línea actual de NVIDIA y ver qué ha logrado la compañía en los últimos años.

El lío y la historia del origen de Pascal

NVIDIA suele dar razones para "no gustarle a usted mismo". La historia con la GTX 970 y su "memoria de 3,5 GB", "NVIDIA, ¡vete a la mierda!" de Linus Torvalds, pornografía completa en líneas gráficas de escritorio, negativa a trabajar con el sistema FreeSync gratuito y mucho más extendido en favor de su propietario ... En general, hay bastantes razones. Uno de los más molestos para mí personalmente es lo que sucedió con las últimas dos generaciones de tarjetas de video. Si tomamos una descripción aproximada, los procesadores gráficos "modernos" han pasado de los días del soporte DX10. Y si busca al "abuelo" de la décima serie hoy, entonces el comienzo de la arquitectura moderna estará en el área de la serie 400 de aceleradores de video y la arquitectura Fermi. Fue en él que la idea de una construcción de "bloques" de la llamada. "Núcleos CUDA" en terminología de NVIDIA.

Fermi

Si las tarjetas de video de las series 8000, 9000 y 200 fueron los primeros pasos para dominar el concepto mismo de "arquitectura moderna" con procesadores de sombreado universales (como AMD, sí), entonces la serie 400 ya estaba lo más cerca posible de lo que vemos. en unos 1070. Sí, Fermi todavía tiene una pequeña muleta Legacy de generaciones anteriores: la unidad de sombreado funcionaba al doble de la frecuencia del núcleo, que era responsable de calcular la geometría, pero la imagen general de algunas GTX 480 no difiere mucho de cualquier otra cosa. 780, los multiprocesadores SM se combinan en clústeres, los clústeres se comunican a través de una caché compartida con controladores de memoria y los resultados del trabajo se generan mediante una unidad de rasterización común para el clúster:


Diagrama de bloques del procesador GF100 utilizado en la GTX 480.

En la serie 500, estaba el mismo Fermi, ligeramente mejorado "por dentro" y con menos defectos, por lo que las mejores soluciones recibieron 512 núcleos CUDA en lugar de los 480 de la generación anterior. Visualmente, los diagramas de flujo generalmente parecen ser gemelos:


La GF110 es el corazón de la GTX 580.

En algunos lugares aumentamos las frecuencias, cambiamos ligeramente el diseño del chip en sí, no hubo revolución. Toda la misma tecnología de proceso de 40 nm y 1,5 GB de memoria de vídeo en un bus de 384 bits.

Kepler

Con la llegada de la arquitectura Kepler, muchas cosas han cambiado. Podemos decir que fue esta generación la que dio a las tarjetas de video NVIDIA el vector de desarrollo que condujo al surgimiento de los modelos actuales. No solo ha cambiado la arquitectura de la GPU, sino que también ha cambiado la propia cocina de desarrollar nuevo hardware dentro de NVIDIA. Mientras Fermi buscaba una solución que ofreciera un alto rendimiento, Kepler se basó en la eficiencia energética, la eficiencia de los recursos, las altas frecuencias y la facilidad de optimizar un motor de juego para una arquitectura de alto rendimiento.

Se hicieron cambios importantes en el diseño de la GPU: no tomaron el "buque insignia" GF100 / GF110, sino el "económico" GF104 / GF114, que se usó en una de las tarjetas más populares de esa época: la GTX 460.


La arquitectura general del procesador se simplifica utilizando solo dos bloques grandes con cuatro unidades de sombreado multiprocesador unificadas. El diseño de los nuevos buques insignia se veía así:


GK104 instalado en GTX 680.

Como puede ver, cada una de las unidades computacionales ha aumentado significativamente en peso en relación con la arquitectura anterior y se denominó SMX. Compare la estructura de bloques con la que se muestra arriba en la sección Fermi.


Multiprocesador GK104 GPU SMX

La serie número seiscientos no tenía tarjetas de video en un procesador completo que contuviera seis bloques de módulos computacionales, el buque insignia era la GTX 680 con la GK104 instalada, y más fría que sólo la 690 de "dos cabezas", en la que solo Se divorciaron dos procesadores con todo el arnés y la memoria necesarios. Un año después, el buque insignia GTX 680 con cambios menores se convirtió en el GTX 770, y la corona de la evolución de la arquitectura Kepler fueron las tarjetas de video basadas en el cristal GK110: GTX Titan y Titan Z, 780Ti y el 780 habitual. todos iguales 28 nanómetros, la única mejora cualitativa (que NO se aplicó a las tarjetas de video de consumo basadas en GK110) - rendimiento con operaciones de doble precisión.

Maxwell

La primera tarjeta gráfica basada en la arquitectura Maxwell fue ... NVIDIA GTX 750Ti. Un poco más tarde, su recorte apareció en la cara de la GTX 750 y 745 (se suministró solo como una solución integrada), y en el momento de su aparición, las tarjetas más jóvenes realmente sacudieron el mercado de aceleradores de video económicos. La nueva arquitectura se probó en el chip GK107: una pequeña pieza de futuros buques insignia con enormes disipadores de calor y un precio aterrador. Se veía algo como esto:


Sí, solo hay una unidad de cálculo, pero cuánto más complicado es que el de su predecesor, compárelo usted mismo:


En lugar del gran bloque SMX que se utilizó como bloque de construcción básico en la creación de la GPU, se utilizan bloques SMM nuevos y más compactos. Las unidades informáticas básicas de Kepler eran buenas, pero adolecían de una utilización deficiente de la capacidad, un hambre banal de instrucciones: el sistema no podía distribuir las instrucciones en una gran cantidad de elementos ejecutivos. El Pentium 4 tenía aproximadamente los mismos problemas: la energía estaba inactiva y el error en la predicción de la rama era muy costoso. En Maxwell, cada módulo computacional se dividió en cuatro partes, a cada una de las cuales se le asignó su propio búfer de instrucciones y un programador warp, el mismo tipo de operaciones en un grupo de subprocesos. Como resultado, la eficiencia ha aumentado y los propios procesadores gráficos se han vuelto más flexibles que sus predecesores y, lo que es más importante, a costa de un poco de sangre y un cristal bastante simple, desarrollaron una nueva arquitectura. La historia se desarrolla en espiral, jeje.

Las soluciones móviles se han beneficiado al máximo de las innovaciones: el área de troqueles ha crecido en una cuarta parte y el número de unidades de ejecución de multiprocesadores casi se ha duplicado. Quiso la suerte que fueran las series 700 y 800 las que causaron el mayor lío en la clasificación. ¡Solo dentro del 700, había tarjetas de video basadas en arquitecturas Kepler, Maxwell e incluso Fermi! Es por eso que Maxwells de escritorio, para alejarse del desorden de las generaciones anteriores, recibió una serie 900 común, de la cual se derivaron las tarjetas móviles GTX 9xx M más tarde.

Pascal - desarrollo lógico de la arquitectura Maxwell

Lo que se estableció en Kepler y continuó en la generación Maxwell también se mantuvo en Pascal: las primeras tarjetas de video de consumo se lanzaron sobre la base del chip GP104 más grande, que consta de cuatro grupos de procesamiento de gráficos. La GP100 de tamaño completo y seis clústeres pasó a ser una costosa GPU semiprofesional con el nombre de marca TITAN X. Sin embargo, incluso el 1080 "de corte" enciende tanto que las generaciones pasadas se sienten mal.

Mejora del rendimiento

La base de lo básico

Maxwell se convirtió en la base de la nueva arquitectura, el diagrama de procesadores comparables (GM104 y GP104) se ve casi igual, la principal diferencia es la cantidad de multiprocesadores empaquetados en clústeres. En Kepler (generación 700) había dos grandes multiprocesadores SMX, que estaban divididos en 4 partes cada uno en Maxwell, equipados con el arnés necesario (cambiando el nombre a SMM). En Pascal, se agregaron dos más a los ocho existentes en el bloque, por lo que eran 10, y la abreviatura se interrumpió una vez más: ahora los multiprocesadores únicos se vuelven a llamar SM.


El resto es una completa similitud visual. Es cierto que hay aún más cambios en el interior.

El motor del progreso

Hay muchos cambios dentro del bloque de multiprocesadores. Para no entrar en detalles muy aburridos de lo que se rehizo, cómo se optimizó y cómo era antes, describiré los cambios muy brevemente, de lo contrario algunos ya están bostezando.

En primer lugar, Pascal corrigió la parte responsable del componente geométrico de la imagen. Esto es necesario para configuraciones de varios monitores y para trabajar con cascos de realidad virtual: con el soporte adecuado del motor del juego (y gracias a los esfuerzos de NVIDIA, este soporte aparecerá rápidamente), una tarjeta de video puede calcular la geometría una vez y obtener varias proyecciones de geometría para cada uno. de las pantallas. Esto reduce significativamente la carga en realidad virtual, no solo en el área de trabajo con triángulos (aquí la ganancia es solo el doble), sino también en el trabajo con el componente de píxeles.

El 980Ti condicional leerá la geometría dos veces (para cada ojo) y luego la rellenará con texturas y realizará un posprocesamiento para cada una de las imágenes, procesando un total de aproximadamente 4,2 millones de puntos, de los cuales aproximadamente el 70% se utilizará realmente. el resto se cortará o caerá en el área, que simplemente no se muestra para cada uno de los ojos.

1080 procesará la geometría una vez y los píxeles que no se incluirán en la imagen final simplemente no se calcularán.


Con el componente de píxeles, todo es aún más genial. Dado que el aumento del ancho de banda de la memoria solo se puede llevar a cabo en dos frentes (aumentando la frecuencia y el ancho de banda por reloj), y ambos métodos cuestan dinero, y el "hambre" de memoria de la GPU es cada vez más pronunciada a lo largo de los años debido al aumento en resolución y el desarrollo de la realidad virtual mejoran los métodos "gratuitos" para aumentar el ancho de banda. Si no puede expandir el bus y aumentar la frecuencia, debe comprimir los datos. En generaciones anteriores, la compresión por hardware ya estaba implementada, pero Pascal la ha llevado al siguiente nivel. Nuevamente, podemos prescindir de las matemáticas aburridas y tomar un ejemplo listo para usar de NVIDIA. A la izquierda, Maxwell, a la derecha, Pascal, esos puntos, cuyo componente de color se comprimió sin pérdida de calidad, están llenos de color rosa.


En lugar de transferir mosaicos específicos de 8x8 puntos, la memoria contiene el color "promedio" + una matriz de desviaciones del mismo, tales datos toman de ½ a ⅛ del volumen inicial. En tareas reales, la carga en el subsistema de memoria disminuyó del 10 al 30%, dependiendo del número de gradientes y la uniformidad de los rellenos en escenas complejas en la pantalla.


Esto no fue suficiente para los ingenieros, y para la tarjeta de video insignia (GTX 1080), se usó memoria con mayor ancho de banda: GDDR5X transmite el doble de bits de datos (no instrucciones) por reloj y genera más de 10 Gbps en el pico. La transferencia de datos a una velocidad tan loca requería un diseño completamente nuevo del diseño de la memoria en la placa y, en total, la eficiencia de trabajar con memoria aumentó en un 60-70% en comparación con los buques insignia de la generación anterior.

Reducción de la latencia y el tiempo de inactividad de la capacidad

Las tarjetas de video han estado involucradas durante mucho tiempo no solo en el procesamiento de gráficos, sino también en cálculos relacionados. La física a menudo está vinculada a los fotogramas de animación y es notablemente paralela, lo que significa que se calcula de manera mucho más eficiente en la GPU. Pero la industria de la realidad virtual se ha convertido en el mayor generador de problemas en los últimos años. Muchos motores de juegos, metodologías de desarrollo y un montón de otras tecnologías utilizadas para trabajar con gráficos simplemente no se diseñaron para la realidad virtual, el caso de un movimiento de la cámara o un cambio en la posición de la cabeza del usuario durante el proceso de renderizado simplemente no se manejó. Si dejas todo como está, la desincronización de la transmisión de video y tus movimientos provocarán ataques de mareo y simplemente interferirán con la inmersión en el mundo del juego, lo que significa que simplemente tendrás que descartar los fotogramas "incorrectos" después de dibujar y comenzar de nuevo. Y estos son nuevos retrasos en la visualización de imágenes en la pantalla. Esto no tiene un efecto positivo en el rendimiento.

Pascal tomó en cuenta este problema e introdujo el equilibrio dinámico de carga y la posibilidad de interrupciones asincrónicas: ahora las unidades de ejecución pueden interrumpir la tarea actual (guardando los resultados del trabajo en la caché) para procesar tareas más urgentes, o simplemente eliminar el sub-renderizado encuadre y comience uno nuevo, reduciendo significativamente la latencia en la formación de la imagen. El principal beneficiario aquí, por supuesto, es la realidad virtual y los juegos, pero incluso con cálculos de propósito general, esta tecnología puede ayudar: la simulación de colisiones de partículas ha recibido un aumento de rendimiento del 10-20%.

Impulso 3.0

El overclocking automático de las tarjetas de video NVIDIA se recibió hace mucho tiempo, en la generación 700 basada en la arquitectura Kepler. El overclocking se mejoró en Maxwell, pero aún así, por decirlo suavemente: sí, la tarjeta de video funcionó un poco más rápido, siempre que el paquete térmico lo permitiera, 20-30 megahertz adicionales en el núcleo cableado de fábrica y 50-100 en la memoria dio un aumento, pero no mucho ... Funcionó así:


Incluso si hubo un margen en la temperatura de la GPU, el rendimiento no aumentó. Con la llegada de Pascal, los ingenieros han sacudido este polvoriento pantano. Boost 3.0 opera en tres frentes: análisis de temperatura, overclocking y aumento de voltaje en el chip. Ahora todos los jugos se exprimen de la GPU: los controladores estándar de NVIDIA no hacen esto, pero el software del proveedor le permite crear una curva de perfil con un solo clic, que tendrá en cuenta la calidad de su tarjeta de video en particular.

Uno de los primeros en este campo fue EVGA, su utilidad Precision XOC tiene un escáner NVIDIA certificado que escanea constantemente todo el rango de temperaturas, frecuencias y voltajes, logrando el máximo rendimiento en todos los modos.

Agregue a esto un nuevo proceso técnico, memoria de alta velocidad, todo tipo de optimizaciones y una disminución en el paquete térmico de chips, y el resultado será simplemente indecente. Desde 1500 MHz "base" en la GTX 1060, puede exprimir más de 2000 MHz, si obtiene una buena copia, y el proveedor no arruina la refrigeración.

Mejorar la calidad de la imagen y la percepción del mundo del juego.

El rendimiento se ha incrementado en todos los frentes, pero hay una serie de puntos en los que no se han producido cambios cualitativos durante varios años: la calidad de la imagen mostrada. Y no estamos hablando de efectos gráficos, los proporcionan los desarrolladores del juego, sino de lo que vemos exactamente en el monitor y cómo se ve el juego para el consumidor final.

Sincronización vertical rápida

La característica más importante de Pascal es el búfer de salida de triple cuadro, que proporciona simultáneamente una latencia ultrabaja en el renderizado y asegura la sincronización vertical. La imagen de salida se almacena en un búfer, el último fotograma renderizado se almacena en el otro y el actual se dibuja en el tercero. Adiós rayas horizontales y desgarros, hola alto rendimiento. No hay retrasos que el V-Sync clásico se adapte aquí (ya que nadie está frenando el rendimiento de la tarjeta de video y siempre dibuja a la velocidad de cuadro más alta posible), y solo los cuadros completamente formados se envían al monitor. Creo que después del año nuevo escribiré una gran publicación separada sobre V-Sync, G-Sync, Free-Sync y este nuevo algoritmo de sincronización rápida de Nvidia, demasiados detalles.

Capturas de pantalla normales

No, esas capturas de pantalla que son ahora son una pena. Casi todos los juegos utilizan un montón de tecnologías para hacer que la imagen en movimiento sea asombrosa e impresionante, y las capturas de pantalla se convierten en una verdadera pesadilla: en lugar de una imagen increíblemente realista, que consiste en animación, efectos especiales que explotan las peculiaridades de la visión humana, ves algunos especie de nepony angular con colores extraños y una imagen completamente sin vida.

La nueva tecnología NVIDIA Ansel resuelve el problema de las pantallas. Sí, su implementación requiere la integración de código especial de los desarrolladores de juegos, pero hay un mínimo de manipulaciones reales, pero la ganancia es enorme. Ansel puede pausar el juego, transferir el control de la cámara a tus manos y luego hay margen para la creatividad. Puede tomar una foto sin una GUI y el ángulo que desee.


Puede renderizar una escena existente en resolución ultra alta, tomar panorámicas de 360 ​​grados, unirlas en un plano o dejarlas en 3D para verlas en un visor de realidad virtual. Tome una foto con 16 bits por canal, guárdela en una especie de archivo RAW y luego juegue con la exposición, el balance de blancos y otras configuraciones para que las capturas de pantalla vuelvan a ser atractivas. Estamos esperando toneladas de contenido genial de los fanáticos de los juegos en uno o dos años.

Procesamiento de sonido en una tarjeta de video

Las nuevas bibliotecas de NVIDIA Gameworks agregan muchas funciones disponibles para los desarrolladores. Están dirigidos principalmente a la realidad virtual y la aceleración de diversos cálculos, además de mejorar la calidad de la imagen, pero una de las características es la más interesante y digna de mención. VRWorks Audio lleva el trabajo con el sonido a un nivel fundamentalmente nuevo, considerando que el sonido no de acuerdo con fórmulas banales promediadas, dependiendo de la distancia y el grosor del obstáculo, sino que realiza un seguimiento completo de la señal de sonido, con todos los reflejos del entorno. Reverberación y absorción acústica en diversos materiales. NVIDIA tiene un buen ejemplo de video de cómo funciona esta tecnología:


Luce mejor con auriculares

En teoría, nada le impide ejecutar dicha simulación en Maxwell, pero las optimizaciones para la ejecución asíncrona de instrucciones y el nuevo sistema de interrupciones integrado en Pascal le permiten realizar cálculos sin afectar en gran medida la velocidad de fotogramas.

Pascal en total

De hecho, hay incluso más cambios, y muchos de ellos son tan profundos en la arquitectura que puedes escribir un gran artículo sobre cada uno de ellos. Las innovaciones clave son el diseño mejorado de los propios chips, la optimización al nivel más bajo en términos de geometría y trabajo asincrónico con manejo total de interrupciones, muchas características diseñadas para trabajar con altas resoluciones y realidad virtual y, por supuesto, frecuencias locas con las que no se había soñado. por generaciones pasadas de tarjetas de video. Hace dos años, el 780 Ti apenas cruzaba la línea de 1 GHz, hoy 1080 en algunos casos funciona en dos: y aquí el mérito no está solo en la tecnología de proceso reducido de 28 nm a 16 o 14 nm: muchas cosas están optimizadas en el nivel más bajo, comenzando con el diseño de transistores, terminando con su topología y atando dentro del propio chip.

Para cada caso individual

La línea de tarjetas de video de la serie 10 de NVIDIA resultó ser verdaderamente equilibrada y cubre con bastante precisión todos los casos de uso de juegos, desde la opción "estrategia de juego y diablo" hasta "Quiero los mejores juegos en 4k". Las pruebas del juego se eligieron de acuerdo con una técnica simple: cubrir una gama de pruebas lo más amplia posible con el conjunto de pruebas más pequeño posible. BF1 es un gran ejemplo de buena optimización y le permite comparar el rendimiento de DX11 con DX12 en las mismas condiciones. DOOM se elige por la misma razón, solo que te permite comparar OpenGL y Vulkan. El tercer "Witcher" aquí actúa como un juguete bastante optimizado, en el que la configuración de gráficos máxima permite que cualquier buque insignia sea atornillado simplemente por el poder del código de mierda. Utiliza el clásico DX11, que ha sido probado en el tiempo y perfectamente trabajado en controladores y familiar para los desarrolladores de juegos. Overwatch está asombrado por todos los juegos de "torneo" en los que el código está bien optimizado, de hecho, es interesante ver qué tan alto es el FPS promedio en un juego no muy pesado gráficamente, afinado para funcionar en una configuración "promedio" disponible alrededor el mundo.

Daré algunos comentarios generales enseguida: Vulkan es muy glotón en cuanto a memoria de video, por ello esta característica es uno de los principales indicadores, y veréis reflejada esta tesis en los benchmarks. DX12 en las tarjetas AMD se comporta mucho mejor que en las tarjetas NVIDIA, si las "verdes" en promedio muestran una reducción de FPS en las nuevas API, las "rojas", por el contrario, muestran un aumento.

División junior

GTX 1050

La NVIDIA más joven (sin las letras Ti) no es tan interesante como su hermana cargada con las letras Ti. Su destino es una solución de juego para juegos MOBA, estrategias, torneos de disparos y otros juegos donde el detalle y la calidad de la imagen son de poco interés para cualquiera, y una velocidad de cuadro estable por un dinero mínimo es lo que recetó el médico.


Todas las imágenes carecen de la frecuencia central, porque es individual para cada instancia: 1050 sin adicionales. Es posible que la fuente de alimentación no funcione, y su hermana con un conector de 6 pines puede tomar fácilmente el 1,9 GHz condicional. En términos de fuente de alimentación y longitud, se muestran las opciones más populares, siempre puede encontrar una tarjeta de video con un circuito diferente u otro enfriamiento que no se ajuste a los "estándares" especificados.

DOOM 2016 (1080p, ULTRA): OpenGL - 68 FPS, Vulkan - 55 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 38 FPS;
Campo de batalla 1 (1080p, ULTRA): DX11 - 49 FPS, DX12 - 40 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS;

La GTX 1050 tiene un procesador de gráficos GP107, heredado de la tarjeta anterior con un pequeño corte de bloques funcionales. 2 GB de memoria de video no le permitirán deambular, pero para las disciplinas de deportes electrónicos y jugar algún tipo de tanques, es perfecto, ya que el precio de una tarjeta junior comienza en 9.5 mil rublos. No se requiere energía adicional, la tarjeta de video necesita 75 vatios de la placa base a través de la ranura PCI-Express. Es cierto que en este segmento de precios también hay una AMD Radeon RX460, que con los mismos 2 GB de memoria es más barata, pero la calidad del trabajo no es casi inferior, y por aproximadamente el mismo dinero puede obtener una RX460, pero en un Versión de 4 GB. No es que le ayudaran mucho, sino una especie de reserva para el futuro. La elección del proveedor no es tan importante, puede tomar lo que esté disponible y no demore su bolsillo con mil rublos adicionales, que se gastan mejor en las preciadas letras Ti.

GTX 1050 Ti

Aproximadamente 10 mil para el 1050 habitual no está mal, pero para la versión cargada (o completa, llámela como quiera) no piden mucho más (en promedio, 1-1.5 mil más), pero su llenado es mucho. más interesante. Por cierto, toda la serie 1050 no se produce a partir del corte / rechazo de virutas "grandes", que no son adecuadas para la 1060, sino como un producto completamente independiente. Tiene una tecnología de proceso menor (14 nm), una planta diferente (los cristales son cultivados por la fábrica de Samsung), y hay ejemplares sumamente interesantes con adicionales. Fuente de alimentación: el paquete térmico y el consumo básico siguen siendo los mismos 75 W, pero el potencial de overclocking y la capacidad de ir más allá de lo permitido son completamente diferentes.


Si continúa jugando con una resolución FullHD (1920 x 1080), no planee actualizar, y el hardware restante de hace 3 a 5 años es una excelente manera de aumentar el rendimiento en juguetes con poca sangre. Debería centrarse en las soluciones ASUS y MSI con una fuente de alimentación adicional de 6 pines, las opciones de Gigabyte son bastante buenas, pero el precio no es tan agradable.

DOOM 2016 (1080p, ULTRA): OpenGL - 83 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 44 FPS;
Campo de batalla 1 (1080p, ULTRA): DX11 - 58 FPS, DX12 - 50 FPS;
Overwatch (1080p, ULTRA): DX11 - 104 FPS.

División media

Las tarjetas de video de la línea 60 se han considerado durante mucho tiempo la mejor opción para aquellos que no quieren gastar mucho dinero y al mismo tiempo jugar con configuraciones de gráficos altos en todo lo que se lanzará en los próximos años. Comenzó en los días de la GTX 260, que tenía dos versiones (más simple, 192 procesadores de flujo y más gruesa, 216 "piedras"), continuó en 400, 500 y 700 generaciones, y ahora NVIDIA volvió a caer en un estado casi perfecto. combinación de precios y calidad. Dos versiones del "rango medio" están nuevamente disponibles: GTX 1060 con 3 y 6 GB de memoria de video difieren no solo en la cantidad de RAM disponible, sino también en el rendimiento.

GTX 1060 de 3 GB

La reina de los deportes electrónicos. Precio razonable, rendimiento asombroso para FullHD (y en los deportes electrónicos rara vez usan una resolución más alta: los resultados son más importantes allí), cantidad razonable de memoria (3 GB, por un minuto, estaba hace dos años en el buque insignia GTX 780 Ti, que cuestan dinero indecente). En términos de rendimiento, el 1060 más joven se acumula fácilmente en la GTX 970 del año pasado con los siempre memorables 3.5 GB de memoria, y arrastra fácilmente al superflagman 780 Ti por las orejas.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 87 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 70 FPS;
Campo de batalla 1 (1080p, ULTRA): DX11 - 92 FPS, DX12 - 85 FPS;
Overwatch (1080p, ULTRA): DX11 - 93 FPS.

Aquí, el favorito indiscutible en términos de relación precio-emisiones es la versión de MSI. Frecuencias decentes, sistema de refrigeración silencioso y sensatas dimensiones. No piden nada en absoluto, en la región de 15 mil rublos.

GTX 1060 de 6 GB

La versión de 6GB es un boleto económico para la realidad virtual y altas resoluciones. No se morirá de hambre en memoria, será un poco más rápido en todas las pruebas y seguramente superará a la GTX 980 donde 4 GB de memoria de video no son suficientes para la tarjeta de video del año pasado.


DOOM 2016 (1080p, ULTRA): OpenGL - 117 FPS, Vulkan - 121 FPS;
The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 - 73 FPS;
Campo de batalla 1 (1080p, ULTRA): DX11 - 94 FPS, DX12 - 90 FPS;
Overwatch (1080p, ULTRA): DX11 - 166 FPS.

Me gustaría señalar una vez más el comportamiento de las tarjetas de video al usar la API de Vulkan. 1050 con 2 GB de memoria: reducción de FPS. 1050 Ti con 4GB está casi a la par. 1060 3 GB - reducción. 1060 6 GB - crecimiento de resultados. La tendencia, creo, es clara: para Vulkan necesitas más de 4 GB de memoria de video.

El problema es que ambos 1060 no son tarjetas gráficas pequeñas. Parece que el paquete de calor es razonable, y la placa es realmente pequeña allí, pero muchos proveedores decidieron simplemente unificar el sistema de enfriamiento entre 1080, 1070 y 1060. Alguien tiene una tarjeta de video con 2 ranuras de altura, pero más de 28 centímetros de largo, alguien los hizo más cortos, pero más gruesos (2,5 ranuras). Elija cuidadosamente.

Desafortunadamente, 3 GB adicionales de memoria de video y una unidad informática desbloqueada le costarán ~ 5-6 mil rublos por encima del precio de la versión de 3 gigas. En este caso, Palit tiene las opciones más interesantes en cuanto a precio y calidad se refiere. ASUS ha lanzado monstruosos sistemas de enfriamiento de 28 centímetros que se moldean en 1080, 1070 y 1060, y una tarjeta de video de este tipo no se ajusta mucho, las versiones sin overclocking de fábrica cuestan casi lo mismo, y el escape es menor, y para MSI relativamente compacto, pedir más que la competencia con aproximadamente el mismo nivel de calidad y overclocking de fábrica.

Liga Mayor

Es difícil jugar por todo el dinero en 2016. Sí, 1080 es increíblemente genial, pero los perfeccionistas y los expertos en hardware saben que NVIDIA OCULTA la existencia de un súper insignia 1080 Ti, que debería ser increíblemente genial. Las primeras especificaciones ya se están filtrando en la red, y está claro que los verdes están esperando un paso más allá del rojo y el blanco: una especie de súper arma que el nuevo rey de los gráficos 3D puede poner en su lugar instantáneamente. la grandiosa y poderosa GTX 1080 Ti. Mientras tanto, tenemos lo que tenemos.

GTX 1070

Las aventuras del año pasado de la mega-popular GTX 970 y su memoria no del todo honesta de 4 gigabytes fueron activamente resueltas y succionadas en Internet. Esto no impidió que se convirtiera en la tarjeta de video para juegos más popular del mundo. Anticipándose al cambio de año en el calendario, ocupa el primer lugar en la Encuesta de hardware y software de Steam. Esto es comprensible: la combinación de precio y rendimiento fue simplemente perfecta. Y si se perdió la actualización del año pasado y el 1060 no es lo suficientemente bueno para usted, el GTX 1070 es su elección.

Resoluciones 2560x1440 y 3840x2160, la tarjeta de video resuelve con una explosión. El sistema de overclocking Boost 3.0 intentará arrojar leña cuando la carga en la GPU aumente (es decir, en las escenas más difíciles, cuando el FPS se hunde bajo la avalancha de efectos especiales), overclocking el procesador de la tarjeta de video a un 2100 alucinante. + MHz. La memoria obtiene fácilmente un 15-18% de la frecuencia efectiva sobre la configuración de fábrica. Cosa monstruosa.


Atención, todas las pruebas se realizaron en 2.5k (2560x1440):

DOOM 2016 (1440p, ULTRA): OpenGL - 91 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (1440p, MAX, HairWorks Off): DX11 - 73 FPS;
Campo de batalla 1 (1440p, ULTRA): DX11 - 91 FPS, DX12 - 83 FPS;
Overwatch (1440p, ULTRA): DX11 - 142 FPS.

Está claro que estirar los ultra-ajustes en 4k y nunca caer por debajo de 60 fotogramas por segundo está más allá del poder de esta tarjeta o 1080, pero puedes jugar con ajustes "altos" condicionales desactivando o reduciendo ligeramente las funciones más voraces en resolución completa y, en términos de rendimiento real, la tarjeta de video ajusta fácilmente la temperatura incluso al 980 Ti del año pasado, que costó casi el doble. Gigabyte tiene la opción más interesante: lograron meter un 1070 completo en un estuche estándar ITX. Gracias al humilde paquete térmico y al diseño energéticamente eficiente. Los precios de las tarjetas comienzan desde 29-30 mil rublos para opciones deliciosas.

GTX 1080

Sí, el buque insignia no tiene letras Ti. Sí, no utiliza la GPU más grande disponible de NVIDIA. Sí, no hay una memoria HBM 2 más genial y la tarjeta de video no parece una Estrella de la Muerte o, en casos extremos, un crucero clase Destructor Estelar Imperial. Y sí, esta es la tarjeta gráfica para juegos más genial que existe. Uno toma y ejecuta DOOM en una resolución de 5k3k con 60 cuadros por segundo en configuraciones ultra. Todos los juguetes nuevos están sujetos a él, y durante el próximo año o dos no experimentará ningún problema: mientras las nuevas tecnologías integradas en Pascal se generalizan, mientras los motores de juego aprenden a cargar de manera eficiente los recursos disponibles ... Sí, en un En un par de años diremos: "Mira GTX 1260, hace un par de años necesitabas un buque insignia para jugar con esta configuración", pero por ahora, la mejor de las mejores tarjetas de video está disponible antes del año nuevo en un precio muy razonable.


Atención, todas las pruebas se realizaron en 4k (3840x2160):

DOOM 2016 (2160p, ULTRA): OpenGL - 54 FPS, Vulkan - 78 FPS;
The Witcher 3: Wild Hunt (2160p, MAX, HairWorks Off): DX11 - 55 FPS;
Campo de batalla 1 (2160p, ULTRA): DX11 - 65 FPS, DX12 - 59 FPS;
Overwatch (2160p, ULTRA): DX11 - 93 FPS.

Todo lo que queda es decidir: lo necesita, o puede ahorrar dinero y tomar 1070. No hay mucha diferencia entre jugar en configuraciones "ultra" o "altas", ya que los motores modernos dibujan perfectamente una imagen en alta resolución incluso a media Configuración: después de todo, tenemos que no son consolas de jabón que no pueden proporcionar suficiente rendimiento para 4k honesto y 60 fps estables.

Si descartamos las opciones más económicas, Palit volverá a ofrecer la mejor combinación de precio y calidad en la versión GameRock (alrededor de 43-45 mil rublos): sí, el sistema de enfriamiento es "grueso", 2.5 ranuras, pero el La tarjeta de video es más corta que la competencia y rara vez se instala un par de 1080 ... SLI está muriendo lentamente, e incluso la inyección vivificante de puentes de alta velocidad realmente no lo ayuda. La opción ASUS ROG no es mala si tiene muchos complementos instalados. dispositivos y no desea superponer las ranuras de expansión adicionales: su tarjeta de video tiene exactamente 2 ranuras de grosor, pero requiere 29 centímetros de espacio libre desde la pared trasera hasta la canasta con discos duros. Me pregunto si Gigabyte dominará el lanzamiento de este monstruo en formato ITX.

Resultados

Las nuevas tarjetas gráficas NVIDIA simplemente han enterrado el mercado de hardware usado. Solo GTX 970 sobrevive en él, que se puede arrebatar por 10-12 mil rublos. Los compradores potenciales de 7970 y R9 280 usados ​​a menudo no tienen dónde colocarlo y simplemente no lo alimentan, y muchas opciones del mercado secundario son simplemente poco prometedoras y no tienen valor como actualización barata para los próximos años: hay poca memoria, no se admiten nuevas tecnologías. La belleza de la nueva generación de tarjetas de video es que incluso los juguetes que no están optimizados para ellas son mucho más alegres que en las listas de GPU veteranas de años anteriores, y lo que sucederá en un año en que los motores de juegos aprendan a usar toda la potencia de las nuevas tecnologías son difíciles de imaginar.

GTX 1050 y 1050Ti

Por desgracia, no puedo recomendar la compra del Pascal más económico. La RX 460 se suele vender por mil o dos menos, y si tu presupuesto es tan limitado que te llevas una tarjeta de video "para lo último", entonces Radeon es objetivamente una inversión de dinero más interesante. Por otro lado, la 1050 es un poco más rápida, y si los precios en tu ciudad para estas dos tarjetas de video son casi los mismos, tómalo.

El 1050Ti, a su vez, es una gran opción para aquellos que prefieren la trama y el juego a las campanas y silbidos y el pelo de nariz realista. Ella no tiene un cuello de botella en forma de 2 GB de memoria de video, no "saldrá" en un año. Puedes dar dinero por ello, hazlo. The Witcher en configuraciones altas, GTA V, DOOM, BF 1, no hay problema. Sí, tendrás que renunciar a una serie de mejoras, como sombras ultralargas, teselados complejos o renderizado "costoso" de modelos de auto-sombreado con trazado de rayos limitado, pero en el fragor de la batalla te olvidarás de estas cosas hermosas. después de 10 minutos de juego, y 50-60 cuadros por segundo estables darán un efecto mucho más inmersivo que los saltos nerviosos de 25 a 40, pero con ajustes en "máximo".

Si tiene alguna tarjeta de video Radeon 7850, GTX 760 o inferior con 2 GB de memoria de video o menos, puede cambiarlas de manera segura.

GTX 1060

El 1060 más joven hará las delicias de aquellos para quienes una velocidad de fotogramas de 100 FPS es más importante que las campanas y los silbidos gráficos. Al mismo tiempo, te permitirá jugar cómodamente todos los juguetes lanzados en resolución FullHD con configuraciones altas o máximas y 60 cuadros por segundo estables, y el precio es muy diferente a todo lo que viene después. El antiguo 1060 con 6 gigabytes de memoria es una solución inflexible para FullHD con un margen de rendimiento de uno o dos años, conocimiento de la realidad virtual y un candidato perfectamente aceptable para jugar a altas resoluciones en configuraciones medias.

No tiene sentido cambiar tu GTX 970 a GTX 1060, sufrirá un año más. Pero las molestas unidades 960, 770, 780, R9 280X y anteriores se pueden actualizar de forma segura a 1060.

Segmento superior: GTX 1070 y 1080

Es poco probable que el 1070 se vuelva tan popular como el GTX 970 (aunque la mayoría de los usuarios tienen un ciclo de actualización de hardware bienal), pero en términos de relación calidad-precio, definitivamente es una digna continuación de la línea 70. Simplemente muele juegos con una resolución convencional de 1080p, se adapta fácilmente a 2560x1440, soporta la prueba de 21 a 9 no optimizados y es bastante capaz de mostrar 4k, aunque no en la configuración máxima.


Sí, SLI puede ser así.

Decimos “vamos, adiós” a todo tipo de 780 Ti, R9 390X y otros 980 del año pasado, sobre todo si queremos jugar en alta definición. Y sí, esta es la mejor opción para aquellos que les gusta armar una caja infernal en formato Mini-ITX y asustar a los invitados con juegos 4k en un televisor de 60-70 pulgadas, que corren en una computadora del tamaño de una cafetera.
gtx 1050 historial de tarjetas gráficas Agregar etiqueta

Revisión de Nvidia GeForce GTX 1080 Pascal | Presentamos la GPU GP104

En vísperas de la exposición Computex, Nvidia decidió presentar su tan esperada novedad: la arquitectura Pascal adaptada para los jugadores. En las nuevas tarjetas gráficas GeForce GTX 1080 y 1070, el fabricante instala la GPU GP104. Hoy, consideraremos el modelo más antiguo, y el más joven debería estar en nuestras manos a principios de junio.

La arquitectura Pascal promete un rendimiento más rápido y eficiente, más módulos de cómputo, un área de matriz más pequeña y una memoria más rápida con un controlador actualizado. Es más adecuado para la realidad virtual, los juegos 4K y otras tareas de alto rendimiento.

Como siempre, intentaremos comprender las promesas del fabricante y probarlas en la práctica. Empecemos.

¿La GeForce GTX 1080 cambiará el equilibrio de poder en el segmento de gama alta?

La Nvidia GeForce GTX 1080 es la más rápida de las dos tarjetas gráficas para juegos anunciadas a principios de este mes. Ambos usan la GPU GP104, que, por cierto, es la segunda GPU con la microarquitectura Pascal (la primera fue la GP100, que apareció en GTC en abril). El CEO de Nvidia, Ren-Sun Huan, se burló de los entusiastas cuando presentó el nuevo producto al público en general, afirmando que la GeForce GTX 1080 superará a dos 980 en SLI.

También señaló que la GTX 1080, con mayor rendimiento, tiene menos consumo de energía que la serie 900. Es dos veces más productiva y tres veces más eficiente que la antigua insignia GeForce Titan X, pero si miras de cerca los gráficos y diagramas que la acompañan, resulta que una diferencia tan impresionante se manifiesta en ciertas tareas relacionadas con la realidad virtual. Pero incluso si estas promesas solo se confirman parcialmente, todavía tendremos momentos muy interesantes en términos de desarrollo de juegos de PC de alta gama.

La realidad virtual está comenzando a ganar impulso, pero los altos requisitos de hardware para el subsistema de gráficos crean una barrera significativa para acceder a estas tecnologías. Además, la mayoría de los juegos disponibles en la actualidad no saben cómo aprovechar el renderizado multiprocesador. Es decir, generalmente está limitado por las capacidades de un adaptador de video rápido con una GPU. La GTX 1080 es capaz de superar a dos 980 en velocidad y no debería tener problemas en los juegos de realidad virtual actuales, eliminando la necesidad de configuraciones de múltiples procesadores en el futuro.

El ecosistema 4K avanza a un ritmo similar. Las interfaces de mayor ancho de banda como HDMI 2.0by DisplayPort 1.3 / 1.4 deberían abrir la puerta a los monitores 4K con paneles de 120Hz y soporte de frecuencia de actualización dinámica para fines de este año. Si bien las generaciones anteriores de GPU de gama alta de AMD y Nvidia se comercializaban como soluciones de juegos 4K, los usuarios tenían que hacer concesiones de calidad para mantener velocidades de cuadro aceptables. La GeForce Nvidia GTX 1080 podría ser la primera tarjeta gráfica que sea lo suficientemente rápida como para admitir altas velocidades de cuadro a 3840x2160 con una configuración de detalle máxima.

¿Cuál es la situación con las configuraciones de varios monitores? Muchos jugadores están listos para instalar tres monitores con una resolución de 1920x1080, pero siempre que el sistema gráfico pueda manejar la carga, porque en este caso la tarjeta tiene que renderizar medio millón de píxeles, ya que la resolución es de 7680x1440. Incluso hay entusiastas dispuestos a tomar tres pantallas 4K con una resolución agregada de 11520x2160 píxeles.

La última opción es demasiado exótica incluso para una nueva tarjeta de video insignia de juegos. Sin embargo, el procesador Nvidia GP104 está equipado con tecnología que promete mejorar la experiencia de las tareas del nuevo modelo, es decir, 4K y Surround. Pero antes de pasar a las nuevas tecnologías, echemos un vistazo más de cerca al procesador GP104 y su arquitectura Pascal subyacente.

¿De qué está hecho el GP104?

Desde principios de 2012, AMD y Nvidia han estado utilizando una tecnología de proceso de 28 nm. Al cambiarse a él, ambas compañías dieron un salto significativo con la introducción de las tarjetas gráficas Radeon HD 7970 y GeForce GTX 680. Sin embargo, durante los siguientes cuatro años, tuvieron que esquivar mucho para obtener más rendimiento de la tecnología existente. Los logros de Radeon R9 Fury X y GeForce GTX 980 Ti son maravillas dada su complejidad. El primer chip fabricado por Nvidia con la tecnología de proceso de 28 nm fue el GK104, que constaba de 3.500 millones de transistores. La GM200, que alimenta la GeForce GTX 980 Ti y la Titan X, ya tiene ocho mil millones de transistores.

El cambio a la tecnología FinFET Plus de 16 nm de TSMC permitió a los ingenieros de Nvidia dar vida a nuevas ideas. Según los datos técnicos, los chips 16FF + son un 65% más rápidos, pueden tener el doble de densidad que 28HPM o consumir 70 menos energía. Nvidia utiliza la combinación óptima de estas ventajas para construir sus GPU. TSMC afirma que se basó en desarrollos de ingeniería del proceso existente de 20 nm, pero usó transistores FinFET en lugar de transistores planos. La compañía dice que este enfoque reduce la chatarra y aumenta el rendimiento de la chapa. También afirma que la empresa no tenía un proceso de 20 nm con transistores rápidos. Una vez más, el mundo de los gráficos por computadora ha estado "sentado" en la tecnología de proceso de 28 nm durante más de cuatro años.

Diagrama de bloques del procesador GP104

El sucesor del GM204 consta de 7.200 millones de transistores ubicados en un área de 314 mm2. En comparación, el GM204 tiene un área de matriz de 398 mm2 con 5,2 mil millones de transistores. En la versión completa, una GPU GP104 tiene cuatro grupos de procesamiento de gráficos (GPC). Cada GPC incluye cinco grupos de procesamiento de hilos / texturas (TPC) y una unidad ROP. TPC combina un motor Streaming Multiprocessor SM y PolyMorph. SM combina 128 núcleos CUDA de precisión simple, 256 KB de memoria de registro, 96 KB de memoria compartida, 48 KB de caché / texturas L1 y ocho unidades de textura. La cuarta generación del motor PolyMorph incluye un nuevo bloque lógico, que se encuentra al final de la tubería de geometría frente al bloque de rasterización, controla la función de proyección múltiple simultánea (más sobre eso a continuación). En total, obtenemos 20 SM, 2560 núcleos CUDA y 160 unidades de procesamiento de texturas.

Un multiprocesador de transmisión (SM) en GP104

El back-end de la GPU incluye ocho controladores de memoria de 32 bits (ancho total del canal de 256 bits), ocho ROP y 256 KB de caché L2 por bloque. Como resultado, tenemos 64 ROP y 2 MB de caché L2 compartida. Aunque el diagrama de bloques del procesador Nvidia GM204 mostraba cuatro controladores de 64 bits y 16 ROP, se han agrupado y son funcionalmente equivalentes.

Algunos de los componentes básicos del GP104 son similares al GM204, ya que la nueva GPU se creó a partir de los "componentes básicos" de su predecesor. No hay nada malo. Si recuerda, la empresa se centró en la eficiencia energética en la arquitectura Maxwell y no sacudió los bloques, que eran el punto fuerte de Kepler. Vemos una imagen similar aquí.

Es posible que la adición de cuatro SM no tenga un impacto notable en el rendimiento. Sin embargo, el GP104 tiene algunos trucos bajo la manga. La primera carta de triunfo son las velocidades de reloj significativamente más altas. La velocidad de reloj base de la GPU es 1607 MHz. Las especificaciones del GM204, a modo de comparación, indican 1126 MHz. La frecuencia máxima de GPU Boost alcanza los 1733 MHz, pero llevamos nuestra muestra a 2100 MHz usando la versión beta de la utilidad EVGA PrecisionX. ¿De dónde viene ese margen para el overclocking? Según John Albin, vicepresidente senior de desarrollo de GPU, su equipo sabía que el proceso 16FF + de TSMC afectaría la arquitectura del chip, por lo que se centraron en optimizar los tiempos del chip para eliminar los cuellos de botella que impiden velocidades de reloj más altas. Como resultado, la velocidad de cálculo de precisión simple GP104 alcanzó 8228 GFLOP (en la frecuencia base) en comparación con el techo de 4612 GFLOP para la GeForce GTX 980. La tasa de llenado de texel saltó de 155,6 Gtex / s para la 980 (con GPU Boost) a 277, 3 Gtex / s.

GPU GeForce GTX 1080 (GP104) GeForce GTX 980 (GM204)
SM 20 16
Número de núcleos CUDA 2560 2048
Frecuencia base de GPU, MHz 1607 1126
Frecuencia de GPU en modo Boost, MHz 1733 1216
Velocidad de cálculo, GFLOP (a frecuencia base) 8228 4612
Número de unidades de textura 160 128
Velocidad de llenado de texels, Gtex / s 277,3 155,6
Tasa de transferencia de datos de memoria, Gbps 10 7
Ancho de banda de memoria, GB / s 320 224
Número de unidades ROP 64 64
Tamaño de caché L2, MB 2 2
Paquete térmico, W 180 165
Numero de transistores 7.2 mil millones 5.2 mil millones
Área de cristal, mm2 314 398 milímetros
Tecnología de proceso, nm 16 28

El back-end todavía incluye 64 ROP y un bus de memoria de 256 bits, pero Nvidia ha implementado la memoria GDDR5X para aumentar el ancho de banda disponible. La compañía se ha esforzado mucho en promover el nuevo tipo de memoria, especialmente en el contexto de la memoria HBM, que se utiliza en varias tarjetas de video AMD y HBM2, que Nvidia instala en el Tesla P100. Existe la sensación de que el mercado ahora tiene escasez de memoria HBM2 y la empresa no está preparada para aceptar las limitaciones de HBM (cuatro pilas de 1 GB o las dificultades asociadas con la implementación de ocho pilas de 1 GB). Así, obtuvimos la memoria de video GDDR5X, cuya oferta, aparentemente, también es limitada, ya que la GeForce GTX 1070 ya usa la GDDR5 habitual. Pero esto no anula los méritos de la nueva solución. La memoria GDDR5 de la GeForce GTX 980 tenía una tasa de transferencia de datos de 7 Gbps. Esto proporcionó 224 GB / s de ancho de banda en el bus de 256 bits. GDDR5X comienza a 10 Gb / s, alcanzando un rendimiento de 320 GB / s (aumento de ~ 43%). Según Nvidia, las ganancias se deben al esquema de E / S rediseñado, sin aumentar el consumo de energía.

La arquitectura Maxwell ha hecho un uso más eficiente del ancho de banda optimizando la caché y los algoritmos de compresión, y Pascal está haciendo lo mismo con nuevas técnicas de compresión sin pérdidas para utilizar de manera más económica el ancho de banda disponible del subsistema de memoria. El algoritmo de compresión de color delta intenta lograr una ganancia de 2: 1, y este modo se ha mejorado para un uso más frecuente. También hay un nuevo modo 4: 1, que se utiliza en los casos en que las diferencias por píxel son muy pequeñas. Por último, Pascal introduce otro nuevo algoritmo 8: 1 que aplica compresión 4: 1 a bloques 2x2, cuya diferencia se procesa mediante un algoritmo 2: 1.



La diferencia no es difícil de ilustrar. La primera imagen muestra una captura de pantalla sin comprimir del juego Project CARS. La siguiente imagen muestra los elementos que una tarjeta Maxwell puede comprimir y son de color violeta. En el tercer plano, se puede ver que Pascal comprime aún más la escena. Según Nvidia, esta diferencia se traduce en una reducción de aproximadamente un 20% en la información de bytes que debe obtenerse de la memoria para cada fotograma.

ParámetroSentido
Nombre en clave del chipGP104
Producción tecnológicaFinFET de 16 nm
Numero de transistores7.2 mil millones
Área central314 mm²
Arquitectura
Soporte de hardware DirectX
Bus de memoria
1607 (1733) MHz
Unidades informáticas20 multiprocesadores de transmisión, incluidas 2560 ALU escalares para cálculos de punto flotante dentro del marco del estándar IEEE 754-2008;
Texturizar bloques160 unidades de direccionamiento y filtrado de texturas con soporte para componentes FP16 y FP32 en texturas y soporte para filtrado trilineal y anisotrópico para todos los formatos de textura
Soporte de monitor
Especificaciones de la tarjeta gráfica de referencia GeForce GTX 1080
ParámetroSentido
Frecuencia central1607 (1733) MHz
2560
Número de unidades de textura160
Número de bloques de mezcla64
Frecuencia de memoria efectiva10000 (4 × 2500) MHz
Tipo de memoriaGDDR5X
Bus de memoria256 bits
Memoria8 GB
320 GB / s
alrededor de 9 teraflops
103 gigapíxeles / s
257 gigatexels / s
NeumáticoPCI Express 3.0
Conectores
Consumo de energíahasta 180 W
Comida adicionalUn conector de 8 pines
2
Precio recomendado$ 599-699 (EE. UU.), 54990 rublos (Rusia)

El nuevo modelo de la tarjeta gráfica GeForce GTX 1080 recibió un nombre lógico para la primera solución de la nueva serie GeForce: se diferencia de su predecesor directo solo en el dígito de generación modificado. La novedad no solo reemplaza las mejores soluciones en la línea actual de la compañía, sino que también se convirtió en el buque insignia de la nueva serie durante algún tiempo, hasta que la Titan X se lanzó en GPU de mayor potencia. Debajo de él, en la jerarquía, se encuentra el modelo GeForce GTX 1070 ya anunciado, basado en una versión simplificada del chip GP104, que consideraremos a continuación.

Las nuevas GPU de Nvidia tienen MSRP de $ 599 y $ 699 para la edición regular y Founders Edition (ver más abajo), respectivamente, lo cual es un buen negocio considerando que la GTX 1080 supera no solo a la GTX 980 Ti, sino también a la Titan X. Hoy en día el nuevo producto es la mejor solución de rendimiento en el mercado para tarjetas de video de un solo chip sin ninguna pregunta, y al mismo tiempo cuesta menos que las tarjetas de video más productivas de la generación anterior. Hasta ahora, la GeForce GTX 1080 no tiene prácticamente ningún competidor de AMD, por lo que Nvidia pudo establecer un precio que les convenía.

La tarjeta de video en cuestión se basa en el chip GP104 con un bus de memoria de 256 bits, pero el nuevo tipo de memoria GDDR5X opera a una frecuencia efectiva muy alta de 10 GHz, lo que da un ancho de banda de pico alto de 320 GB / s, que está casi a la par con la GTX 980 Ti con bus de 384 bits. La cantidad de memoria instalada en una tarjeta de video con tal bus podría ser igual a 4 u 8 GB, pero sería una tontería establecer una cantidad menor para una solución tan poderosa en condiciones modernas, por lo que GTX 1080 recibió lógicamente 8 GB de memoria, y esta cantidad es suficiente para ejecutar cualquier aplicación 3D con cualquier configuración de calidad durante varios años.

El PCB GeForce GTX 1080 es, por razones obvias, decentemente diferente de los PCB anteriores de la compañía. El valor de consumo de energía típico del nuevo producto es de 180 W, que es un poco más alto que el de la GTX 980, pero notablemente más bajo que el de las menos potentes Titan X y GTX 980 Ti. La placa de referencia tiene el conjunto habitual de conectores para conectar dispositivos de salida de video: un DVI Dual-Link, un HDMI y tres DisplayPort.

Diseño de referencia de Founders Edition

Incluso con el anuncio de la GeForce GTX 1080 a principios de mayo, se anunció una edición especial de la tarjeta de video llamada Founders Edition, que tiene un precio más alto en comparación con las tarjetas de video habituales de los socios de la compañía. De hecho, esta edición es un diseño de referencia para la tarjeta y el sistema de enfriamiento, y es producido por la propia Nvidia. Puede relacionarse de manera diferente con tales opciones para tarjetas de video, pero el diseño de referencia desarrollado por los ingenieros de la compañía y la construcción realizada con el uso de componentes de alta calidad tiene sus fanáticos.

Pero si darán algunos miles de rublos más por una tarjeta de video de la propia Nvidia es una pregunta que solo la práctica puede responder. En cualquier caso, en un principio serán las tarjetas de video de referencia de Nvidia a un precio mayor las que saldrán a la venta, y no hay mucho para elegir - esto sucede con cada anuncio, pero la referencia GeForce GTX 1080 se diferencia en que Está previsto venderlo de esta forma durante todo su período de vida, hasta las soluciones de próxima generación.

Nvidia cree que esta edición tiene sus méritos incluso sobre los mejores trabajos de los socios. Por ejemplo, el diseño de doble ranura del enfriador hace que sea fácil construir sobre la base de esta poderosa tarjeta de video tanto PC para juegos de un factor de forma relativamente pequeño como sistemas de video de múltiples chips (aunque la compañía no recomienda operar en tres - y modo de cuatro chips). La GeForce GTX 1080 Founders Edition tiene algunos de los beneficios de un enfriador de cámara de vapor eficiente y un ventilador que expulsa aire caliente de la carcasa; esta es la primera solución de Nvidia de este tipo que consume menos de 250W de energía.

En comparación con los diseños de productos de referencia anteriores de la compañía, el circuito de alimentación se ha actualizado de cuatro fases a cinco fases. Nvidia también está hablando de los componentes mejorados en los que se basa el nuevo producto, así como de la reducción del ruido eléctrico, lo que permite una mejor estabilidad de voltaje y potencial de overclocking. Como resultado de todas las mejoras, la placa de referencia tiene un 6% más de eficiencia energética que la GeForce GTX 980.

Y para diferenciarse de los modelos "normales" de la GeForce GTX 1080 y exteriormente, se desarrolló un diseño de carcasa "picado" inusual para la Founders Edition. Lo que, sin embargo, probablemente también llevó a la complicación de la forma de la cámara de evaporación y el radiador (ver foto), que puede haber sido una de las razones del recargo de $ 100 por una edición tan especial. Repetimos que al inicio de las ventas, los compradores no tendrán muchas opciones, pero en el futuro podrán elegir tanto una solución con diseño propio de uno de los socios de la compañía, como hecha por la propia Nvidia.

La próxima generación de arquitectura gráfica Pascal

La GeForce GTX 1080 es la primera solución de la compañía basada en el chip GP104, que pertenece a la nueva generación de arquitectura gráfica Pascal de Nvidia. Aunque la nueva arquitectura se basa en las soluciones desarrolladas en Maxwell, también tiene importantes diferencias funcionales, sobre las que escribiremos más adelante. El principal cambio desde un punto de vista global fue el nuevo proceso tecnológico, según el cual se fabricó el nuevo procesador gráfico.

El uso de la tecnología de proceso FinFET de 16 nm en la producción de procesadores gráficos GP104 en las fábricas de la empresa taiwanesa TSMC hizo posible aumentar significativamente la complejidad del chip manteniendo un área y un costo relativamente bajos. Compare la cantidad de transistores y el área de los chips GP104 y GM204: están cerca en el área (el cristal de la novedad es incluso un poco más pequeño físicamente), pero el chip de arquitectura Pascal tiene un número notablemente mayor de transistores y, en consecuencia, las unidades de ejecución, incluidas las que proporcionan nuevas funcionalidades.

Desde un punto de vista arquitectónico, el primer juego Pascal es muy similar a soluciones similares de la arquitectura Maxwell, aunque existen algunas diferencias. Al igual que Maxwell, los procesadores Pascal tendrán diferentes configuraciones de grupos de procesamiento de gráficos (GPC), multiprocesadores de transmisión (SM) y controladores de memoria. El multiprocesador SM es un multiprocesador altamente paralelo que programa y ejecuta warps (warps, grupos de 32 subprocesos de instrucción) en núcleos CUDA y otras unidades de ejecución en un multiprocesador. Puede encontrar información detallada sobre el diseño de todos estos bloques en nuestras revisiones de soluciones anteriores de Nvidia.

Cada uno de los multiprocesadores SM está emparejado con el motor PolyMorph, que maneja el muestreo de texturas, la teselación, la transformación, la configuración de atributos de vértice y la corrección de perspectiva. A diferencia de las soluciones anteriores de la compañía, el motor PolyMorph en el chip GP104 también contiene la nueva unidad de proyección múltiple simultánea, que discutiremos a continuación. La combinación de un multiprocesador SM con un motor polimorfo se denomina tradicionalmente para Nvidia TPC - Texture Processor Cluster.

En total, el chip GP104 de la GeForce GTX 1080 contiene cuatro clústeres GPC y 20 multiprocesadores SM, así como ocho controladores de memoria combinados con 64 unidades ROP. Cada GPC tiene un motor de rasterización dedicado e incluye cinco multiprocesadores SM. Cada multiprocesador, a su vez, consta de 128 núcleos CUDA, 256 KB de archivo de registro, 96 KB de memoria compartida, 48 KB de caché L1 y ocho unidades de textura TMU. Es decir, en total, el GP104 contiene 2560 núcleos CUDA y 160 TMU.

Además, el procesador de gráficos en el que se basa la GeForce GTX 1080 contiene ocho controladores de memoria de 32 bits (a diferencia de los 64 bits utilizados anteriormente), lo que nos da un bus de memoria final de 256 bits. Ocho ROP y 256 KB de caché L2 están vinculados a cada controlador de memoria. Es decir, el chip GP104 contiene 64 ROP y 2048 KB de caché L2 en total.

Gracias a las optimizaciones arquitectónicas y una nueva tecnología de proceso, el primer Pascal para juegos se ha convertido en la GPU con mayor eficiencia energética de la historia. Además, la contribución a esto proviene tanto de uno de los procesos tecnológicos más avanzados de FinFET de 16 nm, como de las optimizaciones de la arquitectura en Pascal, en comparación con Maxwell. Nvidia pudo aumentar la velocidad del reloj incluso más de lo que esperaban al cambiar a la nueva tecnología de proceso. El GP104 funciona a una frecuencia más alta de lo que un GM204 hipotético funcionaría con un proceso de 16 nm. Para hacer esto, los ingenieros de Nvidia tuvieron que verificar y optimizar cuidadosamente todos los cuellos de botella de las soluciones anteriores, que no permitían el overclocking por encima de cierto umbral. Como resultado, la nueva GeForce GTX 1080 funciona un 40% más rápido que la GeForce GTX 980. Pero esos no son todos los cambios de reloj de la GPU.

Tecnología GPU Boost 3.0

Como sabemos bien por las tarjetas gráficas Nvidia anteriores, utilizan la tecnología de hardware GPU Boost en sus GPU, diseñada para aumentar la velocidad del reloj operativo de la GPU en los modos en los que aún no ha alcanzado los límites de consumo de energía y disipación de calor. A lo largo de los años, este algoritmo ha sufrido muchos cambios, y la tercera generación de esta tecnología se utiliza en el chip de video de la arquitectura Pascal: GPU Boost 3.0, cuya principal innovación es un ajuste más fino de las frecuencias turbo, dependiendo del voltaje.

Si recuerda el principio de funcionamiento de versiones anteriores de la tecnología, entonces se corrigió la diferencia entre la frecuencia base (valor de frecuencia mínima garantizada, por debajo del cual la GPU no cae, al menos en los juegos) y la frecuencia turbo. Es decir, la frecuencia turbo siempre fue un cierto número de megahercios más alta que la base. GPU Boost 3.0 introduce la capacidad de establecer compensaciones de frecuencia turbo para cada voltaje por separado. La forma más fácil de entender esto es a partir de la ilustración:

A la izquierda está el GPU Boost de la segunda versión, a la derecha, la tercera, que apareció en Pascal. La diferencia fija entre las frecuencias base y turbo no permitió revelar completamente las capacidades de la GPU, en algunos casos, las GPU de la generación anterior podrían funcionar más rápido al voltaje establecido, pero el exceso fijo de la frecuencia turbo no permitió hacer esto. . En GPU Boost 3.0, apareció tal oportunidad, y la frecuencia turbo se puede configurar para cada uno de los valores de voltaje individuales, exprimiendo completamente todo el jugo de la GPU.

Se requieren utilidades útiles para controlar el overclocking y establecer la curva de frecuencia turbo. La propia Nvidia no hace esto, pero ayuda a sus socios a crear tales utilidades para facilitar el overclocking (dentro de límites razonables, por supuesto). Por ejemplo, la nueva funcionalidad GPU Boost 3.0 ya se ha revelado en EVGA Precision XOC, que incluye un escáner de overclocking dedicado que detecta y establece automáticamente la diferencia no lineal entre la frecuencia base y la frecuencia turbo para diferentes voltajes mediante la ejecución de una prueba integrada de rendimiento y estabilidad. . Como resultado, el usuario tiene una curva de frecuencia turbo que se adapta idealmente a las capacidades de un chip en particular. Que, además, se puede modificar de cualquier forma en modo manual.

Como puede ver en la captura de pantalla de la utilidad, además de la información sobre la GPU y el sistema, también hay configuraciones para el overclocking: Power Target (determina el consumo de energía típico durante el overclocking, como un porcentaje del estándar), GPU Temp Objetivo (la temperatura central máxima permitida), Desplazamiento del reloj de la GPU (exceso sobre la frecuencia base para todos los valores de voltaje), Desplazamiento de la memoria (exceso de la frecuencia de la memoria de video sobre el valor predeterminado), Sobretensión (opción adicional para aumentar el voltaje).

Precision XOC Utility incluye tres modos de overclocking: Básico Básico, Lineal Lineal y Manual Manual. En el modo principal, puede establecer un único valor de sobrefrecuencia (frecuencia turbo fija) sobre el base, como lo era para las GPU anteriores. El modo lineal le permite configurar la frecuencia para que aumente de los valores de voltaje mínimo al máximo para la GPU. Bueno, en el modo manual, puede establecer valores únicos para la frecuencia de la GPU para cada punto de voltaje en el gráfico.

La utilidad también incluye un escáner especial para overclocking automático. Puede establecer sus propios niveles de frecuencia o dejar que Precision XOC escanee la GPU en todos los voltajes y encuentre las frecuencias más estables para cada punto en la curva de voltaje y frecuencia de forma completamente automática. Durante el proceso de escaneo, Precision XOC agrega gradualmente frecuencia de GPU y verifica su rendimiento en busca de estabilidad o artefactos, creando una curva de frecuencia y voltaje ideal que será única para cada chip específico.

Este escáner se puede personalizar para adaptarse a sus propios requisitos configurando el intervalo de tiempo para probar cada valor de voltaje, la frecuencia mínima y máxima que se probará y su paso. Está claro que para lograr resultados estables, sería mejor establecer un pequeño paso y una duración de prueba decente. Durante la prueba, se puede observar un funcionamiento inestable del controlador de video y del sistema, pero si el escáner no se congela, restablecerá el funcionamiento y continuará encontrando las frecuencias óptimas.

Nuevo tipo de memoria de video GDDR5X y compresión mejorada

Entonces, la potencia de la GPU ha crecido notablemente y el bus de memoria sigue siendo de solo 256 bits: ¿el ancho de banda de la memoria limitará el rendimiento general y qué puede hacer al respecto? Parece que la prometedora memoria HBM de segunda generación sigue siendo demasiado cara de fabricar, por lo que hubo que buscar otras opciones. Desde la introducción de la memoria GDDR5 en 2009, los ingenieros de Nvidia han estado explorando las posibilidades de utilizar nuevos tipos de memoria. Como resultado, el desarrollo llegó con la introducción del nuevo estándar de memoria GDDR5X, el estándar más complejo y avanzado hasta la fecha, que proporciona una tasa de transferencia de 10 Gbps.

Nvidia ofrece un ejemplo interesante de lo rápido que es. Solo pasan 100 picosegundos entre los bits transmitidos; durante este tiempo, el haz de luz recorre una distancia de solo una pulgada (aproximadamente 2,5 cm). Y cuando se usa la memoria GDDR5X, las cadenas de transmisión y recepción de datos deben seleccionar el valor del bit transmitido en menos de la mitad de este tiempo, antes de que se envíe el siguiente; esto es solo para que comprenda lo que han alcanzado las tecnologías modernas.

Para lograr esta velocidad, fue necesario desarrollar una nueva arquitectura para el sistema de E / S de datos, que requirió varios años de desarrollo conjunto con los fabricantes de chips de memoria. Además de la mayor velocidad de transferencia de datos, la eficiencia energética también ha aumentado: los chips de memoria GDDR5X usan un voltaje más bajo de 1.35 V y se producen con nuevas tecnologías, lo que brinda el mismo consumo de energía a una frecuencia un 43% más alta.

Los ingenieros de la compañía tuvieron que reelaborar las líneas de transferencia de datos entre el núcleo de la GPU y los chips de memoria, prestar más atención a evitar la pérdida y degradación de la señal desde la memoria hasta la GPU y viceversa. Entonces, la ilustración anterior muestra la señal capturada como un gran "ojo" simétrico, lo que indica una buena optimización de todo el circuito y la relativa facilidad de capturar datos de la señal. Además, los cambios descritos anteriormente han llevado no solo a la posibilidad de usar GDDR5X a 10 GHz, sino que también deberían ayudar a obtener un alto ancho de banda de memoria en productos futuros que utilicen la memoria GDDR5 más familiar.

Bueno, obtuvimos más del 40% de la ganancia de ancho de banda de la memoria al usar la nueva memoria. ¿Pero no es esto suficiente? Para mejorar aún más la eficiencia del ancho de banda de la memoria, Nvidia ha seguido mejorando la compresión de datos avanzada introducida en arquitecturas anteriores. El subsistema de memoria de la GeForce GTX 1080 utiliza técnicas nuevas y mejoradas de compresión de datos sin pérdidas diseñadas para reducir los requisitos de ancho de banda de memoria: la cuarta generación de compresión en chip.

Los algoritmos de compresión de datos en memoria brindan varios beneficios a la vez. La compresión reduce la cantidad de datos escritos en la memoria, lo mismo se aplica a los datos transferidos desde la memoria de video a la caché L2, lo que mejora la eficiencia de la caché L2, ya que un mosaico comprimido (un bloque de varios píxeles del búfer de cuadros) es más pequeño que un uno sin comprimir. También reduce la cantidad de datos enviados entre diferentes puntos, como la unidad de textura TMU y framebuffer.

La canalización de compresión de datos en la GPU utiliza varios algoritmos, que se determinan en función de la "compresibilidad" de los datos; se selecciona el mejor algoritmo disponible para ellos. Uno de los más importantes es el algoritmo de compresión de color delta. Este método de compresión codifica los datos como la diferencia entre valores sucesivos en lugar de los datos en sí. La GPU calcula la diferencia en los valores de color entre los píxeles de un bloque (mosaico) y almacena el bloque como un color promedio para todo el bloque más datos sobre la diferencia de valores para cada píxel. Para datos gráficos, este método suele ser adecuado, ya que el color dentro de los mosaicos pequeños para todos los píxeles a menudo no difiere demasiado.

La GPU GP104 de la GeForce GTX 1080 admite más algoritmos de compresión que los chips Maxwell anteriores. Así, el algoritmo de compresión 2: 1 se ha vuelto más eficiente y, además, han aparecido dos nuevos algoritmos: el modo de compresión 4: 1, adecuado para casos donde la diferencia en el valor de color de los píxeles del bloque es muy pequeña, y el modo 8: 1, que combina la relación de compresión constante 4: 1 de bloques de 2 × 2 píxeles con compresión delta 2x entre bloques. Cuando la compresión no es posible en absoluto, no se utiliza.

Sin embargo, en realidad, esto último ocurre muy raramente. Esto se puede ver en los ejemplos de capturas de pantalla del juego Project CARS, que fueron traídas por Nvidia para ilustrar el aumento de la relación de compresión en Pascal. En las ilustraciones, esos mosaicos de framebuffer que la GPU pudo comprimir están pintados de púrpura, y los que no tienen pérdida permanecieron con el color original (arriba - Maxwell, abajo - Pascal).

Como puede ver, los nuevos algoritmos de compresión en GP104 funcionan mucho mejor que en Maxwell. Aunque la arquitectura antigua también podía comprimir la mayoría de los mosaicos en la escena, una gran cantidad de césped y árboles alrededor de los bordes, así como partes de máquinas, no están sujetos a algoritmos de compresión heredados. Pero con la introducción de nuevas técnicas en Pascal, muy pocas áreas de la imagen quedaron sin comprimir; la eficiencia mejorada es evidente.

Como resultado de las mejoras en la compresión de datos, la GeForce GTX 1080 puede reducir significativamente la cantidad de datos enviados por cuadro. En términos de números, la compresión mejorada ahorra un 20% adicional en el ancho de banda de memoria efectivo. Además del ancho de banda de memoria más del 40% más alto de la GeForce GTX 1080 en comparación con la GTX 980 debido al uso de la memoria GDDR5X, todo esto en conjunto da un aumento del 70% en el ancho de banda de memoria efectivo en comparación con el modelo de la generación anterior.

Soporte de cómputo asíncrono

La mayoría de los juegos modernos utilizan cálculos complejos además de gráficos. Por ejemplo, los cálculos al calcular el comportamiento de los cuerpos físicos se pueden realizar no antes o después de los cálculos gráficos, sino simultáneamente con ellos, ya que no están relacionados entre sí y no dependen entre sí dentro de un marco. Otro ejemplo es el posprocesamiento de cuadros ya renderizados y el procesamiento de datos de audio, que también se puede realizar en paralelo con el renderizado.

Otro excelente ejemplo del uso de esta funcionalidad es la técnica Asynchronous Time Warp utilizada en los sistemas de realidad virtual para alterar el fotograma renderizado para que coincida con el movimiento de la cabeza del jugador justo antes de renderizarlo, interrumpiendo el siguiente renderizado. Tal carga asincrónica de la potencia de la GPU permite aumentar la eficiencia del uso de sus unidades de ejecución.

Estas cargas de trabajo crean dos nuevos escenarios para el uso de GPU. El primero de ellos incluye cargas superpuestas, ya que muchos tipos de tareas no utilizan completamente las capacidades de las GPU y algunos recursos están inactivos. En tales casos, simplemente puede ejecutar dos tareas diferentes en una GPU que separan sus unidades de ejecución para un uso más eficiente, por ejemplo, los efectos PhysX que se ejecutan junto con la representación 3D de un marco.

Para mejorar el rendimiento de este escenario, se ha introducido el equilibrio dinámico de carga en la arquitectura Pascal. En la arquitectura Maxwell anterior, las cargas de trabajo superpuestas se implementaron en forma de asignación estática de recursos de GPU a gráficos y computación. Este enfoque es eficaz siempre que el equilibrio entre las dos cargas de trabajo corresponda aproximadamente a la división de recursos y las tareas se completen al mismo tiempo. Si los cálculos no gráficos toman más tiempo que los gráficos, y ambos están esperando la finalización del trabajo común, entonces parte de la GPU estará inactiva durante el tiempo restante, lo que provocará una disminución en el rendimiento general y anulará todos los beneficios. El equilibrio de carga dinámico de hardware permite que los recursos de la GPU liberados se utilicen tan pronto como estén disponibles; aquí hay una ilustración para su comprensión.

También hay tareas que son críticas para el tiempo de ejecución, y este es el segundo escenario para los cálculos asincrónicos. Por ejemplo, la ejecución del algoritmo de distorsión de tiempo asíncrono en VR debe completarse antes del escaneo (escaneo) o el marco se descartará. En este caso, la GPU debe admitir una interrupción muy rápida de la tarea y cambiar a otra para eliminar una tarea menos crítica de la ejecución en la GPU, liberando sus recursos para tareas críticas; esto se denomina preferencia.

Un solo comando de renderizado del motor del juego puede contener cientos de llamadas de dibujo, cada llamada de dibujo a su vez contiene cientos de triángulos procesados, cada uno con cientos de píxeles para ser calculados y dibujados. El enfoque tradicional de GPU utiliza solo interrupción de tareas de alto nivel, y la canalización de gráficos tiene que esperar a que se complete todo este trabajo antes de cambiar la tarea, lo que da como resultado una latencia muy alta.

Para solucionar este problema, la arquitectura Pascal fue la primera en introducir la capacidad de interrumpir la tarea a nivel de píxel: preferencia de nivel de píxel. Las unidades de ejecución de Pascal GPU pueden monitorear continuamente el progreso de las tareas de renderizado, y cuando se solicita una interrupción, pueden detener la ejecución, guardando el contexto para su posterior finalización al cambiar rápidamente a otra tarea.

La interrupción y el cambio a nivel de subproceso para operaciones computacionales funcionan de manera similar a la interrupción a nivel de píxel para el cálculo de gráficos. Las cargas de trabajo computacionales constan de varias cuadrículas, cada una de las cuales contiene muchos subprocesos. Cuando se recibe una solicitud de interrupción, los subprocesos que se ejecutan en el multiprocesador finalizan la ejecución. Otros bloques guardan su propio estado para continuar desde el mismo punto en el futuro y la GPU cambia a otra tarea. Todo el proceso de cambio de tareas tarda menos de 100 microsegundos después de que finalizan los subprocesos en ejecución.

Para cargas de trabajo de juegos, la combinación de interrupciones a nivel de píxeles para gráficos e interrupciones a nivel de subprocesos para tareas de computación le da a las GPU Pascal la capacidad de cambiar rápidamente entre tareas con una mínima pérdida de tiempo. Y para tareas computacionales en CUDA, también es posible interrumpir con una granularidad mínima, en el nivel de instrucción. En este modo, todos los subprocesos detienen la ejecución inmediatamente y cambian inmediatamente a otra tarea. Este enfoque requiere almacenar más información sobre el estado de todos los registros de cada hilo, pero en algunos casos de cálculos no gráficos, está bastante justificado.

El uso de interrupción rápida y cambio de tareas en tareas gráficas y computacionales se agregó a la arquitectura Pascal para que las tareas gráficas y no gráficas puedan interrumpirse a nivel de instrucciones individuales, en lugar de subprocesos completos, como fue el caso en Maxwell y Kepler. . Estas tecnologías pueden mejorar la ejecución asincrónica de varias cargas de trabajo de GPU y mejorar la capacidad de respuesta al realizar varias tareas al mismo tiempo. En el evento, Nvidia mostró una demostración de computación asincrónica utilizando el ejemplo de computación de efectos físicos. Si sin cálculos asincrónicos, el rendimiento estaba en el nivel de 77-79 FPS, entonces, con la inclusión de estas características, la velocidad de fotogramas aumentó a 93-94 FPS.

Ya hemos citado como ejemplo una de las posibilidades de utilizar esta funcionalidad en juegos en forma de distorsión de tiempo asincrónica en VR. La ilustración muestra cómo funciona esta tecnología con preferencia y rapidez. En el primer caso, se intenta realizar el proceso de distorsión del tiempo asincrónico lo más tarde posible, pero antes del inicio de la actualización de la imagen en la pantalla. Pero el trabajo del algoritmo debe entregarse para su ejecución en la GPU unos milisegundos antes, ya que sin una interrupción rápida no hay forma de realizar el trabajo con precisión en el momento adecuado, y la GPU está inactiva durante algún tiempo.

En el caso de interrupciones precisas a nivel de píxel y flujo (en la ilustración de la derecha), esto permite una mayor precisión en la determinación del momento de interrupción, y la distorsión de tiempo asincrónica se puede activar mucho más tarde con confianza en la finalización del trabajo antes de la la información se actualiza en la pantalla. Y la GPU que ha estado inactiva durante algún tiempo en el primer caso se puede cargar con algún trabajo gráfico adicional.

Tecnología de proyección múltiple simultánea

La nueva GPU GP104 agrega soporte para la nueva tecnología de proyección múltiple simultánea (SMP), que permite que las GPU procesen datos de manera más eficiente en sistemas de visualización modernos. SMP permite que el chip de video emita datos simultáneamente en varias proyecciones, lo que requirió la introducción de una nueva unidad de hardware en la GPU en el motor PolyMorph al final de la tubería de geometría antes de la unidad de rasterización. Este bloque es responsable de trabajar con múltiples proyecciones para un solo flujo de geometría.

El motor de multiproyección procesa datos geométricos simultáneamente para 16 proyecciones preconfiguradas que combinan un punto de proyección (cámara), estas proyecciones se pueden girar o inclinar de forma independiente. Dado que cada primitiva de geometría puede aparecer simultáneamente en múltiples proyecciones, el motor SMP proporciona esta funcionalidad, lo que permite que una aplicación instruya a la GPU para que replique la geometría hasta 32 veces (16 proyecciones en dos centros de proyección) sin procesamiento adicional.

Todo el proceso de procesamiento se acelera por hardware y, dado que la multiproyección funciona después del motor de geometría, no es necesario repetir todas las etapas del procesamiento de geometría varias veces. Los recursos ahorrados son importantes cuando la velocidad de renderizado está limitada por el rendimiento del procesamiento de geometría, como la teselación, donde se realiza el mismo trabajo de geometría varias veces para cada proyección. En consecuencia, en su punto máximo, la multiproyección puede reducir la necesidad de procesamiento de geometría hasta 32 veces.

Pero, ¿por qué es necesario todo esto? Hay algunos buenos ejemplos en los que la tecnología de multiproyección puede resultar útil. Por ejemplo, un sistema de varios monitores de tres pantallas instaladas en un ángulo entre sí lo suficientemente cerca del usuario (configuración de sonido envolvente). En una situación típica, la escena se representa en una proyección, lo que conduce a una distorsión geométrica y una representación incorrecta de la geometría. La forma correcta es tener tres proyecciones diferentes para cada uno de los monitores, según el ángulo en el que estén posicionados.

Con la ayuda de una tarjeta de video en un chip con arquitectura Pascal, esto se puede hacer en una pasada de geometría, especificando tres proyecciones diferentes, cada una para su propio monitor. Y el usuario, por lo tanto, podrá cambiar el ángulo en el que se ubican los monitores entre sí, no solo físicamente, sino también virtualmente, girando las proyecciones de los monitores laterales para obtener la perspectiva correcta en la escena 3D. con un ángulo de visión (FOV) notablemente más amplio. Sin embargo, existe una limitación: para tal soporte, la aplicación debe poder dibujar una escena con un campo de visión amplio y usar llamadas especiales de API SMP para configurarlo. Es decir, no puedes hacer eso en todos los juegos, necesitas un apoyo especial.

De todos modos, los días de una proyección en un solo monitor de pantalla plana se han ido, ahora hay muchas configuraciones de múltiples monitores y pantallas curvas que también pueden usar esta tecnología. Por no hablar de los sistemas de realidad virtual que utilizan lentes especiales entre las pantallas y los ojos del usuario, lo que requiere nuevas técnicas para proyectar una imagen 3D en una imagen 2D. Muchas de estas tecnologías y técnicas aún se encuentran en una etapa temprana de desarrollo, lo principal es que las GPU más antiguas no pueden usar de manera efectiva más de una proyección de plano. Requieren múltiples pasadas de renderizado, procesamiento múltiple de la misma geometría, etc.

Los chips Maxwell tenían soporte limitado para resolución múltiple para ayudar a aumentar la eficiencia, pero el SMP de Pascal puede hacer mucho más. Maxwell podía rotar la proyección 90 grados para el mapeo de cubos o diferentes resoluciones para la proyección, pero esto solo era útil en un número limitado de aplicaciones como VXGI.

Otras posibilidades de usar SMP incluyen renderizado con diferentes resoluciones y renderizado estéreo de un solo paso. Por ejemplo, Multi-Res Shading se puede utilizar en juegos para optimizar el rendimiento. Cuando se aplica, se usa una resolución más alta en el centro del cuadro y en la periferia se reduce para obtener una velocidad de renderizado más alta.

El renderizado estéreo de un solo paso se usa en VR y ya se ha agregado a VRWorks y utiliza la capacidad de proyección múltiple para reducir la cantidad de trabajo de geometría requerido para el renderizado de VR. En el caso de utilizar esta función, el procesador gráfico GeForce GTX 1080 procesa la geometría de la escena solo una vez, generando dos proyecciones para cada ojo a la vez, lo que reduce a la mitad la carga geométrica en la GPU y también reduce las pérdidas del controlador y el sistema operativo.

Una técnica aún más avanzada para aumentar la eficiencia del renderizado de realidad virtual es el sombreado combinado con lentes, donde múltiples proyecciones simulan la distorsión geométrica necesaria para el renderizado de realidad virtual. Este método usa multiproyección para renderizar una escena 3D en una superficie que se asemeja más o menos a la lente corregida cuando se renderiza para su salida a un visor de realidad virtual, lo que evita renderizar muchos píxeles adicionales en la periferia que serán descartados. La forma más fácil de comprender la esencia del método es mediante la ilustración: frente a cada ojo, se utilizan cuatro proyecciones ligeramente desplegadas (en Pascal, puede usar 16 proyecciones para cada ojo, para una imitación más precisa de una lente curva). de uno:

Este enfoque puede ahorrar mucha productividad. Entonces, una imagen típica de Oculus Rift es de 1.1 megapíxeles por ojo. Pero debido a la diferencia en las proyecciones, la imagen original de 2,1 megapíxeles se utiliza para renderizarla, ¡un 86% más de lo necesario! El uso de multiproyección, incrustado en la arquitectura Pascal, permite reducir la resolución de la imagen renderizada a 1.4 megapíxeles, obteniendo un ahorro de una vez y media en la velocidad de procesamiento de píxeles, y también ahorra ancho de banda de memoria.

Y junto con un ahorro doble en la velocidad de procesamiento de la geometría debido a la reproducción estéreo de un solo paso, el procesador de gráficos de la tarjeta de video GeForce GTX 1080 es capaz de proporcionar un aumento significativo en el rendimiento de la reproducción de realidad virtual, que es muy exigente en la velocidad del procesamiento de la geometría, y más aún en el procesamiento de píxeles.

Mejoras en bloques de salida y procesamiento de datos de video

Además del rendimiento y la nueva funcionalidad relacionada con la representación 3D, la salida de imagen y las capacidades de decodificación y codificación de video también deben mantenerse en un buen nivel. Y la primera GPU de la arquitectura Pascal no decepcionó: es compatible con todos los estándares modernos en este sentido, incluida la decodificación de hardware del formato HEVC requerido para ver videos 4K en una PC. Además, los futuros propietarios de tarjetas gráficas GeForce GTX 1080 pronto podrán disfrutar de la transmisión de video 4K de Netflix y otros proveedores en sus sistemas.

En términos de salida de pantalla, la GeForce GTX 1080 tiene soporte HDMI 2.0b con HDCP 2.2 y DisplayPort. Hasta ahora, DP 1.2 ha sido certificado, pero la GPU está lista para la certificación para versiones más nuevas del estándar: DP 1.3 Ready y DP 1.4 Ready. Este último le permite mostrar imágenes en pantallas 4K a 120 Hz y en pantallas 5K y 8K a 60 Hz utilizando un par de cables DisplayPort 1.3. Si para la GTX 980 la resolución máxima admitida fue 5120 × 3200 a 60 Hz, entonces para el nuevo modelo GTX 1080 aumentó a 7680 × 4320 a los mismos 60 Hz. La GeForce GTX 1080 de referencia tiene tres salidas DisplayPort, una HDMI 2.0by una DVI de doble enlace digital.

El nuevo modelo de la tarjeta de video Nvidia también recibió una unidad mejorada para decodificar y codificar datos de video. Por ejemplo, el chip GP104 cumple con los altos estándares de PlayReady 3.0 (SL3000) para la transmisión de video, lo que garantiza que el contenido de alta calidad de proveedores reconocidos como Netflix se reproduzca con la más alta calidad y eficiencia energética. Los detalles sobre la compatibilidad con varios formatos de video para la codificación y decodificación se dan en la tabla, el nuevo producto se diferencia claramente de las soluciones anteriores para mejor:

Pero una novedad aún más interesante se puede llamar soporte para las llamadas pantallas de alto rango dinámico (HDR), que están a punto de generalizarse en el mercado. Los televisores están a la venta en 2016 (con cuatro millones de televisores HDR planificados para venderse en solo un año) y los monitores el próximo año. HDR es el mayor avance en tecnología de visualización en años, ya que ofrece el doble de tonos de color (75% del espectro visible frente al 33% para RGB), pantallas más brillantes (1000 nits) con mayor contraste (10,000: 1) y colores ricos.

La aparición de la capacidad de reproducir contenido con una mayor diferencia de brillo y colores más ricos y saturados acercará la imagen en la pantalla a la realidad, los negros se volverán más profundos y la luz brillante deslumbrará, como en el mundo real. En consecuencia, los usuarios verán más detalles en las áreas brillantes y oscuras de las imágenes en comparación con los monitores y televisores estándar.

Para admitir pantallas HDR, la GeForce GTX 1080 tiene todo lo que necesita: la capacidad de emitir color de 12 bits, compatibilidad con los estándares BT.2020 y SMPTE 2084 y salida de imagen de acuerdo con el estándar HDMI 2.0b de 10/12 bits para HDR en resolución 4K, que tenía Maxwell. Además de esto, Pascal agrega soporte para decodificar el formato HEVC en resolución 4K a 60 Hz y color de 10 o 12 bits, que se usa para video HDR, además de codificar el mismo formato con los mismos parámetros, pero solo en 10 bits para grabación o transmisión de video HDR. Además, la novedad está lista para la estandarización de DisplayPort 1.4 para transmitir datos HDR a través de este conector.

Por cierto, la codificación de video HDR puede ser necesaria en el futuro para transferir dichos datos desde una PC doméstica a una consola de juegos SHIELD que pueda reproducir HEVC de 10 bits. Es decir, el usuario podrá transmitir el juego desde una PC en formato HDR. Detente, ¿dónde puedo conseguir juegos con ese apoyo? Nvidia trabaja constantemente con los desarrolladores de juegos para implementar este soporte, proporcionándoles todo lo que necesitan (soporte de controladores, ejemplos de código, etc.) para renderizar imágenes HDR correctamente, compatibles con pantallas existentes.

En el momento del lanzamiento de la tarjeta de video, la GeForce GTX 1080, la salida HDR es compatible con juegos como Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle y Shadow Warrior 2. Pero esta lista Se espera que se agregue en un futuro próximo. ...

Cambios en la representación SLI de varios chips

También hubo algunos cambios relacionados con la tecnología patentada de renderizado SLI de múltiples GPU, aunque nadie esperaba esto. Los entusiastas de los juegos de PC utilizan SLI para aumentar el rendimiento, ya sea a valores extremos, instalando las tarjetas de video de un solo chip más potentes en tándem, o para obtener velocidades de cuadro muy altas, limitándonos a un par de soluciones de rango medio. que a veces cuestan menos de un tope de gama (la decisión es controvertida, pero lo hacen). Con los monitores 4K, los jugadores casi no tienen más remedio que instalar un par de tarjetas de video, ya que incluso los modelos de gama alta a menudo no pueden proporcionar un juego cómodo con la configuración máxima en tales condiciones.

Uno de los componentes importantes de Nvidia SLI son los puentes que conectan las tarjetas de video en un subsistema de video común y sirven para organizar un canal digital para transferir datos entre ellos. Tradicionalmente, las tarjetas gráficas GeForce tenían conectores SLI duales, que se usaban para conectar dos o cuatro tarjetas de video en configuraciones SLI de 3 y 4 vías. Cada una de las tarjetas de video tenía que estar conectada a cada una, ya que todas las GPU enviaban los fotogramas que renderizaban a la GPU principal, por lo que se necesitaban dos interfaces en cada una de las tarjetas.

Comenzando con la GeForce GTX 1080, para todas las tarjetas gráficas basadas en Nvidia Pascal, las dos SLI están unidas para mejorar el rendimiento de la transferencia de datos entre las tarjetas gráficas, y este nuevo modo SLI de doble enlace mejora el rendimiento y la comodidad al mostrar información visual en niveles muy altos. -Pantallas de resolución. o sistemas multimonitor.

Para tal modo, también se necesitaban nuevos puentes, llamados SLI HB. Combinan un par de tarjetas gráficas GeForce GTX 1080 en dos canales SLI a la vez, aunque las nuevas tarjetas gráficas también son compatibles con los puentes antiguos. Para resoluciones de 1920 × 1080 y 2560 × 1440 píxeles a una frecuencia de actualización de 60 Hz, puede utilizar puentes estándar, pero en modos más exigentes (sistemas 4K, 5K y multimonitor), solo los puentes nuevos proporcionarán mejores resultados en términos de suavidad de cambios de marco, aunque los antiguos funcionarán, pero un poco peor.

Además, cuando se utilizan puentes SLI HB, la interfaz de datos GeForce GTX 1080 funciona a 650 MHz, en comparación con los 400 MHz de los puentes SLI convencionales en GPU más antiguas. Además, para algunos de los viejos puentes, también está disponible una frecuencia de transmisión de datos más alta con chips de video de la arquitectura Pascal. Con un aumento en la tasa de transferencia de datos entre GPU a través de una interfaz SLI duplicada con una frecuencia operativa aumentada, también se proporciona una visualización de cuadros más suave en comparación con las soluciones anteriores:

También debe tenerse en cuenta que la compatibilidad con la representación de múltiples GPU en DirectX 12 es algo diferente de lo que era habitual antes. En la última versión de la API de gráficos, Microsoft ha realizado muchos cambios relacionados con el funcionamiento de dichos sistemas de video. Para los desarrolladores de software, DX12 tiene dos opciones para usar múltiples GPU: los modos Adaptador de pantalla múltiple (MDA) y Adaptador de pantalla enlazada (LDA).

Además, el modo LDA tiene dos formas: LDA implícito (que Nvidia usa para SLI) y LDA explícito (cuando el desarrollador del juego asume las tareas de administrar el renderizado de múltiples chips. Los modos MDA y LDA explícito se implementaron en DirectX 12 en orden). para proporcionar a los desarrolladores de juegos más libertad y flexibilidad al usar sistemas de video de múltiples chips.La diferencia entre los modos es claramente visible en la siguiente tabla:

En el modo LDA, la memoria de cada GPU se puede vincular a la memoria de otra y mostrarse como un gran volumen total, por supuesto, con todas las limitaciones de rendimiento cuando se recuperan datos de la memoria "ajena". En el modo MDA, la memoria de cada GPU funciona por separado y diferentes GPU no pueden acceder directamente a los datos de la memoria de otra GPU. El modo LDA está diseñado para sistemas de múltiples chips de rendimiento similar, mientras que el modo MDA tiene menos restricciones, y las GPU discretas e integradas o las soluciones discretas con chips de diferentes fabricantes pueden trabajar juntas. Pero este modo también requiere más atención y trabajo por parte de los desarrolladores al programar la colaboración para que las GPU se comuniquen entre sí.

De forma predeterminada, el sistema SLI basado en tarjetas GeForce GTX 1080 solo admite dos GPU, y las configuraciones de tres y cuatro chips no se recomiendan oficialmente para su uso, ya que se vuelve más difícil proporcionar ganancias de rendimiento en juegos modernos a partir de la adición de un tercera y cuarta GPU. Por ejemplo, muchos juegos funcionan con las capacidades del procesador central del sistema cuando operan sistemas de video de múltiples chips, y los juegos nuevos utilizan cada vez más técnicas temporales (temporales) que usan datos de cuadros anteriores, en las que el funcionamiento eficiente de varias GPU es simplemente imposible. .

Sin embargo, el funcionamiento de sistemas en otros sistemas de varios chips (no SLI) sigue siendo posible, como los modos MDA o LDA explícito en DirectX 12 o un sistema SLI de dos chips con una tercera GPU dedicada para efectos físicos PhysX. Pero, ¿qué pasa con los registros de referencia, es realmente que Nvidia los abandona por completo? No, por supuesto, pero dado que estos sistemas tienen una demanda de este tipo en el mundo por casi unos pocos usuarios, para esos ultra entusiastas se les ocurrió una clave de entusiasta especial, que se puede descargar del sitio web de Nvidia y desbloquear esta función. Para hacer esto, primero debe obtener una ID de GPU única iniciando una aplicación especial, luego solicite la Clave de entusiasta en el sitio web y, después de descargarla, instale la clave en el sistema, desbloqueando así el 3-Way y el 4-Way Configuraciones SLI.

Tecnología Fast Sync

Se han producido algunos cambios en las tecnologías de sincronización al mostrar información en la pantalla. De cara al futuro, no hay nada nuevo en G-Sync y la tecnología Adaptive Sync tampoco es compatible. Pero Nvidia ha decidido mejorar la fluidez de la salida y la sincronización para juegos que muestran un rendimiento muy alto cuando la frecuencia de cuadros es notablemente más alta que la frecuencia de actualización del monitor. Esto es especialmente importante para los juegos que requieren una latencia mínima y una respuesta rápida, y en los que tienen lugar batallas y competiciones multijugador.

Fast Sync es una nueva alternativa de sincronización vertical que no tiene los artefactos visuales de las imágenes rotas en la imagen y no está vinculada a una frecuencia de actualización fija, lo que aumenta la latencia. ¿Cuál es el problema con la sincronización vertical en juegos como Counter-Strike: Global Offensive? Este juego se ejecuta en potentes GPU modernas a varios cientos de fotogramas por segundo, y el jugador tiene una opción: habilitar la sincronización vertical o no.

En los juegos multijugador, los usuarios a menudo persiguen la latencia mínima y deshabilitan VSync, obteniendo lágrimas claramente visibles en la imagen, que son extremadamente desagradables incluso a altas velocidades de cuadro. Si habilita la sincronización vertical, el jugador experimentará un aumento significativo en los retrasos entre sus acciones y la imagen en la pantalla cuando la canalización de gráficos se ralentice hasta la frecuencia de actualización del monitor.

Así es como funciona un transportador tradicional. Pero Nvidia decidió separar el proceso de renderizado y visualización utilizando la tecnología Fast Sync. Esto permite que la parte de la GPU que procesa fotogramas a toda velocidad continúe funcionando de la manera más eficiente posible, almacenando esos fotogramas en un búfer de último renderizado temporal especial.

Este método le permite cambiar el método de visualización y aprovechar al máximo los modos VSync On y VSync Off, obteniendo una latencia baja, pero sin artefactos de imagen. Con Fast Sync, no hay control de flujo de cuadros, el motor del juego se ejecuta en modo fuera de sincronización y no se le dice que espere hasta que se dibuje el siguiente, por lo que los retrasos son casi tan bajos como en el modo VSync Off. Pero dado que Fast Sync selecciona de forma independiente el búfer para mostrar y muestra el cuadro completo, tampoco hay saltos de imagen.

Fast Sync utiliza tres búferes diferentes, los dos primeros de los cuales funcionan de manera similar al doble búfer en una canalización clásica. El búfer principal (Front Buffer - FB) es un búfer desde el cual se muestra información en la pantalla, un marco completamente renderizado. El Back Buffer (BB) es el búfer en el que se recibe la información durante el renderizado.

Cuando se usa la sincronización vertical en un entorno de alta velocidad de fotogramas, el juego espera hasta que se alcanza el intervalo de actualización para intercambiar el búfer primario con el secundario para mostrar el fotograma completo en la pantalla. Esto ralentiza el proceso y agregar búferes adicionales como el búfer triple tradicional solo agregará latencia.

Fast Sync agrega un tercer último búfer renderizado (LRB) que se utiliza para contener todos los fotogramas recién renderizados en el búfer posterior. El nombre del búfer habla por sí mismo, contiene una copia del último fotograma completamente renderizado. Y cuando llega el momento de actualizar el búfer primario, este búfer LRB se copia al primario como un todo, y no en partes, como desde el secundario cuando la sincronización vertical está deshabilitada. Dado que copiar información de búferes es ineficaz, simplemente se intercambian (o se les cambia el nombre, como será más conveniente de entender), y la nueva lógica para intercambiar búferes introducida en GP104 controla este proceso.

En la práctica, habilitar el nuevo método de sincronización Fast Sync aún proporciona un retraso ligeramente mayor, en comparación con la sincronización vertical completamente deshabilitada: en promedio, 8 ms más, pero muestra los cuadros completos en el monitor, sin artefactos desagradables en la pantalla, rompiendo el imagen. El nuevo método se puede habilitar desde la configuración gráfica del Panel de control de Nvidia en la sección de control de sincronización vertical. Sin embargo, el valor predeterminado es el control de la aplicación, y simplemente no necesita habilitar Fast Sync en todas las aplicaciones 3D, es mejor elegir este método específicamente para juegos con alto FPS.

Tecnologías de realidad virtual Nvidia VRWorks

Ya hemos abordado el tema candente de la realidad virtual más de una vez en este artículo, pero se trataba principalmente de aumentar la velocidad de fotogramas y garantizar una baja latencia, que son muy importantes para la realidad virtual. Todo esto es muy importante y de hecho hay progreso, pero hasta ahora los juegos de realidad virtual parecen estar lejos de ser tan impresionantes como lo mejor de los juegos 3D modernos "normales". Esto sucede no solo porque los principales desarrolladores de juegos aún no están particularmente comprometidos con las aplicaciones de realidad virtual, sino también por las mayores exigencias de la realidad virtual en la velocidad de fotogramas, lo que impide el uso de muchas de las técnicas habituales en este tipo de juegos debido a las altas exigencias. .

Para reducir la diferencia de calidad entre los juegos de realidad virtual y los juegos normales, Nvidia decidió lanzar un paquete completo de tecnologías VRWorks correspondientes, que incluían una gran cantidad de API, bibliotecas, motores y tecnologías que pueden mejorar significativamente tanto la calidad como el rendimiento de la realidad virtual. .aplicaciones. ¿Cómo se relaciona esto con el anuncio de la primera solución de juego en Pascal? Es muy simple: se han introducido algunas tecnologías para ayudar a aumentar la productividad y mejorar la calidad, y ya hemos escrito sobre ellas.

Y aunque no se trata solo de gráficos, primero te contamos un poco al respecto. El conjunto de tecnologías VRWorks Graphics incluye las tecnologías mencionadas anteriormente, como Lens Matched Shading, que utilizan la función de multiproyección que apareció en la GeForce GTX 1080. El nuevo producto permite obtener un aumento de rendimiento de 1.5-2 veces en relación a soluciones que no cuentan con dicho soporte. También mencionamos otras tecnologías, como MultiRes Shading, diseñada para renderizar a diferentes resoluciones en el centro del encuadre y en su periferia.

Pero mucho más inesperado fue el anuncio de la tecnología VRWorks Audio, diseñada para el procesamiento de datos de audio de alta calidad en escenas 3D, que es especialmente importante en los sistemas de realidad virtual. En los motores convencionales, el posicionamiento de las fuentes de sonido en un entorno virtual se calcula de manera bastante correcta, si el enemigo dispara desde la derecha, entonces el sonido se escucha más fuerte desde este lado del sistema de audio, y este cálculo no es demasiado exigente con la potencia de cálculo. .

Pero en realidad, los sonidos no solo llegan al jugador, sino en todas las direcciones y se reflejan en varios materiales, de la misma manera que se reflejan los rayos de luz. Y en realidad, escuchamos estos reflejos, aunque no con tanta claridad como las ondas sonoras directas. Estos reflejos de sonido indirectos generalmente se simulan mediante efectos de reverberación especiales, pero este es un enfoque muy primitivo de la tarea.

VRWorks Audio utiliza el renderizado de ondas sonoras similar al trazado de rayos durante el renderizado, donde la trayectoria de los rayos de luz se rastrea a varios reflejos de objetos en la escena virtual. VRWorks Audio también simula la propagación de ondas sonoras en el entorno, donde se rastrean las ondas directas y reflejadas, según el ángulo de incidencia y las propiedades de los materiales reflectantes. En su trabajo, VRWorks Audio utiliza el motor de trazado de rayos de alto rendimiento Nvidia OptiX, conocido por tareas gráficas. OptiX se puede utilizar para una variedad de tareas, como calcular la iluminación indirecta y preparar mapas de luz, y ahora para rastrear ondas sonoras en VRWorks Audio.

Nvidia ha incorporado cálculos precisos de ondas de sonido en su demostración de VR Funhouse, que utiliza miles de haces y calcula hasta 12 reflejos de objetos. Y para conocer las ventajas de la tecnología con un ejemplo claro, te sugerimos que veas un video sobre el funcionamiento de la tecnología en ruso:

Es importante que el enfoque de Nvidia difiera de los motores de sonido tradicionales, incluido el método acelerado por hardware que utiliza un bloque especial en la GPU del principal competidor. Todos estos métodos solo proporcionan un posicionamiento preciso de las fuentes de sonido, pero no calculan los reflejos de las ondas sonoras de los objetos en una escena 3D, aunque pueden simular esto usando el efecto de reverberación. Y, sin embargo, el uso de la tecnología de trazado de rayos puede ser mucho más realista, ya que solo este enfoque proporcionará una imitación precisa de varios sonidos, teniendo en cuenta el tamaño, la forma y los materiales de los objetos en la escena. Es difícil decir si se requiere tal precisión de cálculos para un jugador típico, pero podemos decirlo con certeza: en la realidad virtual, puede agregar a los usuarios el realismo que aún falta en los juegos regulares.

Bueno, solo tenemos que contarte sobre la tecnología VR SLI, que funciona tanto en OpenGL como en DirectX. Su principio es extremadamente simple: un sistema de video de doble procesador en una aplicación de realidad virtual funcionará de tal manera que se asigne una GPU separada a cada ojo, en contraste con la representación AFR, que es habitual para las configuraciones SLI. Esto mejora significativamente el rendimiento general tan importante para los sistemas de realidad virtual. En teoría, puede usar más GPU, pero su número debería ser par.

Este enfoque fue necesario porque AFR no es muy adecuado para la realidad virtual, ya que con su ayuda, la primera GPU dibujará un cuadro par para ambos ojos y el segundo, uno impar, que no reduce de ninguna manera las latencias que son críticas. para sistemas de realidad virtual. Aunque la velocidad de fotogramas será bastante alta. Entonces, con la ayuda de VR SLI, el trabajo en cada cuadro se divide en dos GPU: uno trabaja en una parte del cuadro para el ojo izquierdo, el otro para el derecho, y luego estas mitades del cuadro se combinan en un todo.

Esta división del trabajo entre un par de GPU brinda casi el doble de ganancia de rendimiento, lo que permite velocidades de cuadro más altas y una latencia más baja que los sistemas de una sola GPU. Sin embargo, el uso de VR SLI requiere un apoyo especial de la aplicación para usar este método de escalado. Pero la tecnología VR SLI ya está integrada en aplicaciones de demostración de realidad virtual como The Lab de Valve y Trials on Tatooine de ILMxLAB, y esto es solo el comienzo: Nvidia promete la aparición inminente de otras aplicaciones, así como la introducción de tecnología en los motores de juegos. Unreal Engine 4, Unity y MaxPlay.

Plataforma de captura de pantalla del juego Ansel

Uno de los anuncios relacionados con el software más interesantes fue el lanzamiento de una tecnología para capturar capturas de pantalla de alta calidad en aplicaciones de juegos, que lleva el nombre de un famoso fotógrafo: Ansel. Los juegos se han convertido durante mucho tiempo no solo en juegos, sino también en un lugar donde varias personas creativas pueden usar las manos traviesas. Alguien cambia los guiones de los juegos, alguien lanza conjuntos de texturas de alta calidad para los juegos y alguien hace hermosas capturas de pantalla.

Nvidia decidió ayudar a este último introduciendo una nueva plataforma para crear (crear con precisión, porque no es un proceso tan simple) imágenes de juegos de alta calidad. Creen que Ansel puede ayudar a crear un nuevo tipo de arte contemporáneo. Después de todo, ya hay bastantes artistas que pasan la mayor parte de sus vidas en la PC, creando hermosas capturas de pantalla de juegos, y todavía no tenían una herramienta conveniente para esto.

Ansel te permite no solo capturar la imagen en el juego, sino cambiarla de la forma en que el creador la necesita. Con esta tecnología, puede mover la cámara por la escena, girarla e inclinarla en cualquier dirección para obtener la composición deseada del encuadre. Por ejemplo, en juegos como los de disparos en primera persona, solo puedes mover al jugador, no puedes cambiar nada más, por lo que todas las capturas de pantalla son bastante monótonas. Con una cámara gratuita en Ansel, puede ir mucho más allá de la cámara del juego, eligiendo el ángulo que se necesita para una imagen exitosa, o incluso capturar una imagen estéreo completa de 360 ​​grados desde el punto requerido, y en alta resolución para verla más tarde en un visor de realidad virtual.

Ansel funciona de manera bastante simple: utilizando una biblioteca especial de Nvidia, esta plataforma está incrustada en el código del juego. Para hacer esto, su desarrollador solo necesita agregar un pequeño fragmento de código a su proyecto para permitir que el controlador de video de Nvidia intercepte datos de búferes y sombreadores. Hay muy poco trabajo allí, la implementación de Ansel en el juego toma menos de un día. Entonces, la inclusión de esta función en el juego The Witness tomó alrededor de 40 líneas de código, y en The Witcher 3, alrededor de 150 líneas de código.

Ansel aparecerá con un paquete de desarrollo abierto: SDK. Lo principal es que el usuario recibe con él un conjunto estándar de configuraciones que le permiten cambiar la posición y el ángulo de la cámara, agregar efectos, etc.resultan en forma de captura de pantalla regular, imagen de 360 ​​grados, par estéreo o solo un panorama de gran resolución.

Una advertencia: no todos los juegos recibirán soporte para todas las características de la plataforma de capturas de pantalla del juego Ansel. Algunos de los desarrolladores de juegos, por una razón u otra, no quieren incluir una cámara completamente gratuita en sus juegos, por ejemplo, debido a la posibilidad de que los tramposos utilicen esta funcionalidad. O quieren restringir el cambio en el ángulo de visión por la misma razón, para que nadie obtenga una ventaja injusta. Bueno, o para que los usuarios no vean los miserables sprites de fondo. Todos estos son deseos bastante normales de los creadores de juegos.

Una de las características más interesantes de Ansel es la creación de capturas de pantalla de una resolución enorme. No importa que el juego admita resoluciones de hasta 4K, por ejemplo, y el monitor del usuario sea Full HD. Con la ayuda de la plataforma para tomar capturas de pantalla, puede capturar una imagen de calidad mucho mayor, bastante limitada por el volumen y el rendimiento de la unidad. ¡La plataforma captura fácilmente capturas de pantalla de hasta 4,5 gigapíxeles, unidas a partir de 3600 piezas!

Está claro que en tales imágenes puede ver todos los detalles, hasta el texto de los periódicos que se encuentran en la distancia, si ese nivel de detalle se proporciona, en principio, en el juego: Ansel puede controlar el nivel de detalle, establecer el nivel máximo para obtener la mejor calidad de imagen. Pero también puede habilitar el supermuestreo. Todo esto te permite crear imágenes a partir de juegos que puedes imprimir de forma segura en grandes pancartas y estar tranquilo acerca de su calidad.

Curiosamente, se utiliza un código acelerado por hardware especial basado en CUDA para unir imágenes grandes. Después de todo, ninguna tarjeta de video puede renderizar una imagen de varios gigapíxeles en su totalidad, pero puede hacerlo en piezas, que solo necesita combinar más tarde, teniendo en cuenta la posible diferencia de iluminación, color, etc.

Después de unir dichos panoramas, se utiliza un posprocesamiento especial para todo el fotograma, también acelerado en la GPU. Y para capturar imágenes de alto rango dinámico, puede utilizar un formato de imagen especial: EXR, un estándar abierto de Industrial Light and Magic, cuyos valores de croma en cada canal se registran en formato de punto flotante de 16 bits (FP16).

Este formato permite cambiar el brillo y rango dinámico de la imagen mediante postprocesamiento, llevándola al deseado para cada pantalla específica, de la misma forma que se hace con los formatos RAW de las cámaras. Y para la posterior aplicación de filtros de posprocesamiento en programas de procesamiento de imágenes, este formato es muy útil, ya que contiene muchos más datos que los formatos habituales para imágenes.

Pero la plataforma Ansel en sí contiene muchos filtros para el posprocesamiento, lo cual es especialmente importante porque tiene acceso no solo a la imagen final, sino también a todos los búferes que usa el juego para renderizar, que pueden usarse para efectos muy interesantes. como la profundidad de campo. Para hacer esto, Ansel tiene una API dedicada para el posprocesamiento, y cualquiera de los efectos se puede incluir en un juego con soporte para esta plataforma.

Los posfiltros de Ansel incluyen filtros como: curvas de color, espacio de color, transformación, desaturación, brillo / contraste, grano de la película, floración, destello de lente, deslumbramiento anamórfico, distorsión, neblina de calor, ojo de pez, aberración de color, mapeo de tonos, suciedad de la lente, haces de luz, viñeta , corrección de gamma, convolución, nitidez, detección de bordes, desenfoque, sepia, eliminación de ruido, FXAA y otros.

En cuanto a la aparición del soporte de Ansel en los juegos, entonces tendrás que esperar un poco mientras los desarrolladores lo implementan y prueban. Pero Nvidia promete que ese apoyo pronto aparecerá en juegos tan famosos como The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament y otros.

El nuevo proceso tecnológico FinFET de 16 nm y las optimizaciones de la arquitectura permitieron que la tarjeta gráfica GeForce GTX 1080 basada en la GPU GP104 alcanzara una alta velocidad de reloj de 1.6-1.7 GHz incluso en la forma de referencia, y una nueva generación garantiza el funcionamiento en las frecuencias más altas posibles. en juegos Tecnología GPU Boost. Junto con el mayor número de unidades de ejecución, estas mejoras han hecho que el nuevo producto no solo sea la tarjeta de video de un solo chip de mayor rendimiento hasta la fecha, sino también la solución con mayor eficiencia energética del mercado.

La GeForce GTX 1080 es la primera tarjeta gráfica que presenta un nuevo tipo de memoria gráfica, GDDR5X, una nueva generación de chips de alta velocidad que logran tasas de transferencia de datos muy altas. En el caso de la modificación GeForce GTX 1080, este tipo de memoria opera a una frecuencia efectiva de 10 GHz. Combinado con algoritmos mejorados para comprimir información en el framebuffer, esto ha llevado a un aumento de 1,7 veces en el ancho de banda de memoria efectivo para esta GPU, en comparación con su predecesora directa, la GeForce GTX 980.

Nvidia decidió sabiamente no lanzar una arquitectura radicalmente nueva en un proceso técnico completamente nuevo para sí mismo, para no enfrentar problemas innecesarios durante el desarrollo y la producción. En cambio, han mejorado seriamente la ya buena y altamente eficiente arquitectura Maxwell, agregando algunas características. Como resultado, todo está bien con la producción de nuevas GPU, y en el caso del modelo GeForce GTX 1080, los ingenieros han logrado un potencial de frecuencia muy alto: en las versiones overclockeadas de los socios, se espera que la frecuencia de la GPU sea de hasta 2 GHz. Esta impresionante frecuencia se ha hecho realidad gracias al perfecto proceso técnico y al minucioso trabajo de los ingenieros de Nvidia en el desarrollo de la GPU Pascal.

Si bien Pascal se ha convertido en un sucesor directo del caso Maxwell, y estas arquitecturas gráficas fundamentalmente no son muy diferentes entre sí, Nvidia ha implementado muchos cambios y mejoras, incluidas las capacidades de visualización, el motor de codificación y decodificación de video, la ejecución asincrónica mejorada de varios tipos de cálculos en la GPU, realizó cambios en el renderizado de múltiples chips e introdujo un nuevo método de sincronización Fast Sync.

Es imposible no destacar la tecnología de multiproyección Multi-Proyección simultánea, que ayuda a aumentar el rendimiento en sistemas de realidad virtual, obtener una visualización más correcta de escenas en sistemas de múltiples monitores e introducir nuevas técnicas para optimizar el rendimiento. Pero las aplicaciones de realidad virtual obtendrán la mayor ganancia en velocidad cuando sean compatibles con la tecnología multiproyección, que ayuda a ahorrar recursos de GPU a la mitad cuando se procesan datos geométricos y una vez y media en cálculos píxel por píxel.

Entre los cambios puramente de software, destaca la plataforma para crear capturas de pantalla en juegos llamada Ansel: será interesante probarla en la práctica no solo para muchos jugadores, sino también para aquellos simplemente interesados ​​en gráficos 3D de alta calidad. La novedad te permite llevar el arte de crear y retocar capturas de pantalla al siguiente nivel. Bueno, Nvidia simplemente continúa mejorando sus paquetes para desarrolladores de juegos, como GameWorks y VRWorks, paso a paso, por lo que, en este último, ha aparecido una posibilidad interesante de procesamiento de sonido de alta calidad, teniendo en cuenta numerosos reflejos de ondas de sonido utilizando trazado de rayos de hardware.

En general, un verdadero líder ingresó al mercado en forma de la tarjeta de video Nvidia GeForce GTX 1080, teniendo todas las cualidades necesarias para ello: alto rendimiento y amplia funcionalidad, así como soporte para nuevas características y algoritmos. Los primeros compradores de esta tarjeta de video podrán apreciar inmediatamente muchas de las ventajas mencionadas, y otras posibilidades de la solución se revelarán un poco más tarde, cuando exista un soporte generalizado del software. Lo principal es que la GeForce GTX 1080 resultó ser muy rápida y eficiente, y algunas de las áreas problemáticas (los mismos cálculos asincrónicos), como realmente esperamos, fueron manejadas por ingenieros de Nvidia para solucionarlo.

Acelerador de gráficos GeForce GTX 1070

ParámetroSentido
Nombre en clave del chipGP104
Producción tecnológicaFinFET de 16 nm
Numero de transistores7.2 mil millones
Área central314 mm²
ArquitecturaUnificado, con una serie de procesadores comunes para el procesamiento en streaming de numerosos tipos de datos: vértices, píxeles, etc.
Soporte de hardware DirectXDirectX 12, compatible con el nivel de funciones 12_1
Bus de memoria256 bits: ocho controladores de memoria independientes de 32 bits que admiten memoria GDDR5 y GDDR5X
Frecuencia de la GPU1506 (1683) MHz
Unidades informáticas15 multiprocesadores de transmisión activos (de 20 en el chip), incluidas 1920 (de 2560) ALU escalares para cálculos de punto flotante dentro del marco del estándar IEEE 754-2008;
Texturizar bloques120 unidades de filtrado y direccionamiento de texturas activas (de 160 en el chip) con soporte para componentes FP16 y FP32 en texturas y soporte para filtrado trilineal y anisotrópico para todos los formatos de textura
Bloques de operaciones de ráster (ROP)8 bloques ROP anchos (64 píxeles) con soporte para varios modos anti-aliasing, incluidos los programables con formato de framebuffer FP16 o FP32. Los bloques consisten en una matriz de ALU configurables y son responsables de la generación y comparación de profundidad, multimuestreo y mezcla.
Soporte de monitorSoporte integrado para hasta cuatro monitores Dual Link DVI, HDMI 2.0by DisplayPort 1.2 (1.3 / 1.4 Ready)

Especificaciones de la tarjeta gráfica de referencia GeForce GTX 1070
ParámetroSentido
Frecuencia central1506 (1683) MHz
Número de procesadores universales1920
Número de unidades de textura120
Número de bloques de mezcla64
Frecuencia de memoria efectiva8000 (4 × 2000) MHz
Tipo de memoriaGDDR5
Bus de memoria256 bits
Memoria8 GB
Ancho de banda de memoria256 GB / s
Rendimiento computacional (FP32)alrededor de 6,5 teraflops
Tasa de llenado máxima teórica96 gigapíxeles / s
Tasa de muestreo de textura teórica181 gigatexels / s
NeumáticoPCI Express 3.0
ConectoresUn DVI de doble enlace, un HDMI y tres DisplayPort
Consumo de energíahasta 150 W
Comida adicionalUn conector de 8 pines
El número de ranuras ocupadas en el chasis del sistema.2
Precio recomendado$ 379-449 (EE. UU.), 34990 (Rusia)

La tarjeta de video GeForce GTX 1070 también recibió un nombre lógico, similar a la misma solución de la anterior serie GeForce. Se diferencia de su predecesora directa, la GeForce GTX 970, solo en el número de generación modificado. La novedad se convierte en la línea actual de la compañía un escalón por debajo de la actual solución de gama alta GeForce GTX 1080, que se ha convertido en el buque insignia temporal de la nueva serie hasta el lanzamiento de soluciones en GPU de aún mayor potencia.

Los precios recomendados para la nueva tarjeta gráfica de gama alta de Nvidia son $ 379 y $ 449 para las versiones regulares de los socios de Nvidia y la Founders Edition especial, respectivamente. En comparación con el modelo superior, este es un precio muy bueno dado que la GTX 1070 está aproximadamente un 25% por detrás en el peor de los casos. Y en el momento del anuncio y lanzamiento, la GTX 1070 se convierte en la mejor solución de rendimiento de su clase. Al igual que la GeForce GTX 1080, la GTX 1070 no tiene competidores directos de AMD y solo se puede comparar con la Radeon R9 390X y Fury.

Decidieron dejar el bus de memoria completo de 256 bits para el procesador gráfico GP104 en la modificación GeForce GTX 1070, aunque no usaron un nuevo tipo de memoria GDDR5X, sino una GDDR5 muy rápida, que opera a una alta frecuencia efectiva de 8 GHz. . La cantidad de memoria instalada en una tarjeta de video con dicho bus puede ser igual a 4 u 8 GB, y para garantizar el máximo rendimiento de la nueva solución en condiciones de configuraciones altas y resoluciones de renderizado, se utilizó el modelo de tarjeta de video GeForce GTX 1070 También está equipado con 8 GB de memoria de video, como su hermana mayor. Este volumen es suficiente para ejecutar cualquier aplicación 3D con la máxima calidad durante varios años.

Edición especial GeForce GTX 1070 Founders Edition

Cuando se anunció la GeForce GTX 1080 a principios de mayo, se anunció una edición especial de la tarjeta gráfica llamada Founders Edition, que tiene un precio más alto que las tarjetas gráficas habituales de los socios de la compañía. Lo mismo se aplica al nuevo producto. En este artículo, volveremos a hablar sobre una edición especial de la tarjeta gráfica GeForce GTX 1070 llamada Founders Edition. Como en el caso del modelo anterior, Nvidia decidió lanzar esta versión de la tarjeta de video de referencia del fabricante a un precio más alto. Argumentan que muchos jugadores y entusiastas que compran tarjetas gráficas de alta gama quieren un producto con una apariencia y una sensación premium.

En consecuencia, es para estos usuarios que se lanzará al mercado la GeForce GTX 1070 Founders Edition, que está diseñada y construida por ingenieros de Nvidia a partir de materiales y componentes premium, como la cubierta de aluminio de la GeForce GTX 1070 Founders Edition, también. como una placa posterior de bajo perfil que cubre la parte posterior de la PCB y es bastante popular entre los entusiastas.

Como puede ver en las fotos de la placa, la GeForce GTX 1070 Founders Edition hereda exactamente el mismo diseño industrial inherente a la versión de referencia de la GeForce GTX 1080 Founders Edition. Ambos modelos usan un ventilador radial que sopla aire caliente hacia afuera, lo cual es muy útil tanto en carcasas pequeñas como en configuraciones SLI de múltiples chips con espacio físico limitado. Al soplar aire caliente al exterior en lugar de hacerlo circular dentro del chasis, se puede reducir el estrés térmico, mejorar los resultados del overclocking y extender la vida útil de los componentes del sistema.

Debajo de la cubierta del sistema de refrigeración de referencia GeForce GTX 1070, hay un disipador de calor de aluminio de forma especial con tres tubos de calor de cobre incorporados que eliminan el calor de la propia GPU. El calor disipado por los tubos de calor es luego disipado por un disipador de calor de aluminio. Bueno, la placa de metal de bajo perfil en la parte posterior de la placa también está diseñada para proporcionar un mejor rendimiento térmico. También tiene una sección retráctil para un mejor flujo de aire entre varias tarjetas gráficas en configuraciones SLI.

En cuanto a la fuente de alimentación de la placa, la GeForce GTX 1070 Founders Edition tiene un sistema de alimentación de cuatro fases optimizado para una fuente de alimentación estable. Nvidia dice que la GTX 1070 Founders Edition ha mejorado la eficiencia energética, la estabilidad y la confiabilidad en comparación con la GeForce GTX 970 para un mejor rendimiento de overclocking. En las propias pruebas de la empresa, las GPU GeForce GTX 1070 superaron fácilmente el valor de 1,9 GHz, que está cerca de los resultados del modelo GTX 1080 anterior.

La tarjeta gráfica Nvidia GeForce GTX 1070 estará disponible en las tiendas minoristas a partir del 10 de junio. Los precios recomendados para GeForce GTX 1070 Founders Edition y las soluciones de socios difieren, y esa es la pregunta más importante para esta edición especial. Si los socios de Nvidia venden sus tarjetas gráficas GeForce GTX 1070 a partir de $ 379 (en el mercado estadounidense), entonces la Founders Edition del diseño de referencia de Nvidia costará $ 449. ¿Hay muchos entusiastas que estén dispuestos a pagar de más por, francamente, las dudosas ventajas de la versión de referencia? El tiempo lo dirá, pero creemos que la placa de referencia es más interesante como una opción disponible para la compra al comienzo de las ventas, y luego el punto de adquirirla (¡e incluso a un precio alto!) Ya está reducida a cero.

Resta agregar que la placa de circuito impreso de la referencia GeForce GTX 1070 es similar a la de la tarjeta de video más antigua y ambas difieren del dispositivo de las placas anteriores de la compañía. El valor de consumo de energía típico del nuevo producto es de 150 W, que es casi un 20% menos que el valor de la GTX 1080 y se acerca al consumo de energía de la GeForce GTX 970 de la generación anterior. La placa Nvidia de referencia tiene un conjunto familiar de conectores para conectar dispositivos de salida de imagen: un DVI de doble enlace, un HDMI y tres DisplayPort. Además, apareció el soporte para nuevas versiones de HDMI y DisplayPort, sobre lo que escribimos anteriormente en la revisión del modelo GTX 1080.

Cambios arquitectónicos

La tarjeta gráfica GeForce GTX 1070 se basa en el chip GP104, el primero de la arquitectura de gráficos Pascal de próxima generación de Nvidia. Esta arquitectura tomó como base las soluciones desarrolladas en Maxwell, pero también tiene algunas diferencias funcionales, sobre las que escribimos en detalle anteriormente, en la parte dedicada a la tarjeta de video GeForce GTX 1080 de gama alta.

El principal cambio en la nueva arquitectura fue el proceso tecnológico mediante el cual se ejecutarán todas las GPU nuevas. El uso de la tecnología de proceso FinFET de 16 nm en la producción de GP104 hizo posible aumentar significativamente la complejidad del chip mientras se mantenía un área y un costo relativamente bajos, y el primer chip de la arquitectura Pascal tiene un número de ejecución notablemente mayor. unidades, incluidas las que ofrecen nuevas funciones, en comparación con los chips Maxwell de posicionamiento similar.

El chip de video GP104 es similar en su estructura a soluciones similares de la arquitectura Maxwell, y puede encontrar información detallada sobre el dispositivo de las GPU modernas en nuestras revisiones de soluciones anteriores de Nvidia. Al igual que las GPU anteriores, los nuevos chips de arquitectura tendrán diferentes configuraciones de grupos de procesamiento de gráficos (GPC), multiprocesadores de transmisión (SM) y controladores de memoria, y ya se han producido algunos cambios en la GeForce GTX 1070: parte del chip estaba bloqueado e inactivo ( resaltado en gris):

Aunque la GPU GP104 incluye cuatro clústeres GPC y 20 multiprocesadores SM, en la versión para GeForce GTX 1070 recibió una modificación simplificada con un clúster GPC desactivado por hardware. Dado que cada GPC tiene un motor de rasterización dedicado e incluye cinco multiprocesadores SM, y cada multiprocesador consta de 128 núcleos CUDA y ocho unidades de textura TMU, en esta versión de GP104 1920 núcleos CUDA y 120 TMU de 2560 procesadores de flujo están activos y 160 unidades de textura disponible físicamente.

El procesador gráfico en el que se basa la GeForce GTX 1070 contiene ocho controladores de memoria de 32 bits, lo que proporciona el bus de memoria final de 256 bits, como en el caso del modelo anterior GTX 1080. El subsistema de memoria no se ha cortado para proporcionar suficiente memoria de gran ancho de banda con la condición de usar memoria GDDR5 en la GeForce GTX 1070. Ocho ROP y 256 KB de caché L2 están vinculados a cada uno de los controladores de memoria, por lo que el chip GP104 en esta modificación también contiene 64 ROP y 2048 KB de caché L2 nivel.

Gracias a optimizaciones arquitectónicas y una nueva tecnología de proceso, la GPU GP104 se ha convertido en la GPU con mayor eficiencia energética hasta la fecha. Los ingenieros de Nvidia pudieron aumentar la velocidad del reloj más de lo que esperaban al pasar a la nueva tecnología de proceso, para lo cual tuvieron que trabajar duro, revisando cuidadosamente y optimizando todos los cuellos de botella de las soluciones anteriores, que no les permitían operar a un ritmo mayor frecuencia. En consecuencia, la GeForce GTX 1070 también se ejecuta a una frecuencia muy alta, más del 40% más alta que el valor de referencia para la GeForce GTX 970.

Dado que el modelo GeForce GTX 1070 es, en esencia, una GTX 1080 ligeramente menos productiva con memoria GDDR5, es compatible con absolutamente todas las tecnologías que describimos en la sección anterior. Para obtener más detalles sobre la arquitectura Pascal, así como las tecnologías que admite, como unidades de procesamiento y salida de video mejoradas, compatibilidad con Async Compute, tecnología de proyección múltiple simultánea, cambios en la representación SLI de múltiples GPU y el nuevo tipo de sincronización rápida de sincronización, compruébalo con una sección GTX 1080.

Memoria GDDR5 de alto rendimiento y su uso eficiente

Escribimos anteriormente sobre los cambios en el subsistema de memoria de la GPU GP104, en la que se basan los modelos GeForce GTX 1080 y GTX 1070: los controladores de memoria incluidos en esta GPU admiten tanto el nuevo tipo de memoria de video GDDR5X, que se describe en detalle en la revisión de GTX 1080, así como y la buena memoria GDDR5 que conocemos desde hace varios años.

Para no perder demasiado ancho de banda de memoria en el modelo más joven GTX 1070 en comparación con el GTX 1080 anterior, los ocho controladores de memoria de 32 bits se dejaron activos en él, habiendo recibido una interfaz de memoria de video común completa de 256 bits. Además, la tarjeta de video estaba equipada con la memoria GDDR5 de mayor velocidad disponible en el mercado, con una frecuencia operativa efectiva de 8 GHz. Todo esto proporcionó un ancho de banda de memoria de 256 GB / s, en comparación con los 320 GB / s de la solución anterior; las capacidades informáticas se redujeron aproximadamente en la misma cantidad, por lo que se respetó el equilibrio.

Tenga en cuenta que, si bien el ancho de banda teórico máximo es importante para el rendimiento de la GPU, debe prestar atención a la eficiencia con la que se utiliza. Durante el renderizado, muchos cuellos de botella diferentes pueden limitar el rendimiento general, evitando que se utilice todo el ancho de banda de memoria disponible. Para minimizar estos cuellos de botella, las GPU utilizan una compresión especial sin pérdidas para mejorar la eficiencia de las operaciones de lectura y escritura.

En la arquitectura Pascal, se introdujo la cuarta generación de compresión delta de información de búfer, que permite que la GPU utilice de manera más eficiente las capacidades de bus de memoria de video disponibles. El subsistema de memoria en GeForce GTX 1070 y GTX 1080 utiliza técnicas de compresión de datos sin pérdida nuevas y antiguas mejoradas diseñadas para reducir los requisitos de ancho de banda de memoria. Esto reduce la cantidad de datos escritos en la memoria, mejora la eficiencia de la caché L2 y reduce la cantidad de datos transferidos entre diferentes puntos de la GPU, como TMU y framebuffer.

GPU Boost 3.0 y funciones de overclocking

La mayoría de los socios de Nvidia ya han anunciado soluciones overclockeadas de fábrica basadas en GeForce GTX 1080 y GTX 1070. Y muchos de los fabricantes de tarjetas de video están creando utilidades especiales de overclocking que aprovechan la nueva funcionalidad de la tecnología GPU Boost 3.0. Un ejemplo de tales utilidades es EVGA Precision XOC, que incluye un escáner automático para determinar la curva de voltaje a frecuencia; en este modo, para cada valor de voltaje, al ejecutar una prueba de estabilidad, se encuentra una frecuencia estable a la que la GPU proporciona un aumento en el rendimiento. Sin embargo, esta curva también se puede cambiar manualmente.

Conocemos bien la tecnología GPU Boost de las tarjetas de video Nvidia anteriores. En sus GPU, utilizan esta función de hardware diseñada para aumentar la velocidad del reloj de funcionamiento de la GPU en modos en los que aún no ha alcanzado los límites de consumo de energía y disipación de calor. En las GPU Pascal, este algoritmo ha sufrido varios cambios, el principal es un ajuste más fino de las frecuencias turbo, dependiendo del voltaje.

Si antes se fijaba la diferencia entre la frecuencia base y la frecuencia turbo, entonces en GPU Boost 3.0 era posible establecer las compensaciones de las frecuencias turbo para cada voltaje por separado. La frecuencia turbo ahora se puede configurar para cada uno de los valores de voltaje individuales, lo que le permite exprimir completamente todas las capacidades de overclocking de la GPU. Escribimos sobre esto en detalle en nuestra revisión de GeForce GTX 1080, y puede usar las utilidades EVGA Precision XOC y MSI Afterburner para esto.

Dado que algunos detalles han cambiado en el método de overclocking con el lanzamiento de tarjetas de video con soporte para GPU Boost 3.0, Nvidia tuvo que hacer explicaciones adicionales en las instrucciones para overclocking de los nuevos productos. Existen diferentes técnicas de overclocking con distintas características variables que inciden en el resultado final. Para cada sistema en particular, un método específico puede ser más adecuado, pero la base es siempre la misma.

Muchos overclockers usan el punto de referencia Unigine Heaven 4.0 para probar la estabilidad del sistema, que carga bien la GPU, tiene configuraciones flexibles y se puede ejecutar en modo de ventana junto con una ventana de utilidad de overclocking y monitoreo cercana, como EVGA Precision o MSI Afterburner. Sin embargo, dicha verificación es suficiente solo para estimaciones iniciales, y para confirmar firmemente la estabilidad del overclocking, debe verificarse en varias aplicaciones de juegos, porque diferentes juegos asumen diferentes cargas en diferentes unidades funcionales de GPU: matemática, textura, geométrica. El punto de referencia Heaven 4.0 también es conveniente para la tarea de overclocking, porque tiene un modo de funcionamiento de bucle inverso, en el que es conveniente cambiar la configuración de overclocking y hay un punto de referencia para evaluar la ganancia de velocidad.

Nvidia aconseja ejecutar las ventanas Heaven 4.0 y EVGA Precision XOC juntas al realizar overclocking en las nuevas tarjetas gráficas GeForce GTX 1080 y GTX 1070. Primero, es aconsejable aumentar inmediatamente la velocidad del ventilador. Y para un overclocking serio, puede establecer inmediatamente el valor de velocidad al 100%, lo que hará que la tarjeta de video funcione muy fuerte, pero enfriará la GPU y otros componentes de la tarjeta de video tanto como sea posible, reduciendo la temperatura al más bajo posible. nivel, evitando el estrangulamiento (una disminución en las frecuencias debido a un aumento en la temperatura de la GPU por encima de un cierto valor).

A continuación, debe establecer el valor de potencia objetivo (Power Target) también al máximo. Esta configuración proporcionará a la GPU la mayor cantidad de energía posible al aumentar el consumo de energía y el objetivo de temperatura de la GPU. Para algunos propósitos, el segundo valor se puede separar del cambio de Power Target, y luego estas configuraciones se pueden ajustar individualmente, para lograr menos calentamiento del chip de video, por ejemplo.

El siguiente paso es aumentar la compensación del reloj de la GPU; significa cuánto más alta será la frecuencia turbo durante el funcionamiento. Este valor aumenta la frecuencia para todos los voltajes y da como resultado un mejor rendimiento. Como de costumbre, al hacer overclocking, debe verificar la estabilidad mientras aumenta la frecuencia de la GPU en pequeños pasos, de 10 MHz a 50 MHz por paso, antes de que note un bloqueo, un error de controlador o aplicación, o incluso artefactos visuales. Cuando se alcanza este límite, debe reducir el valor de frecuencia un paso hacia abajo y verificar la estabilidad y el rendimiento durante el overclocking nuevamente.

Además de la frecuencia de la GPU, también puede aumentar la frecuencia de la memoria de video (Memory Clock Offset), lo cual es especialmente importante en el caso de la GeForce GTX 1070 equipada con memoria GDDR5, que generalmente overclockea bien. En el caso de la frecuencia de la memoria, el proceso repite exactamente lo que se hace cuando se encuentra una frecuencia de GPU estable, la única diferencia es que los pasos se pueden hacer más grandes: agregue 50-100 MHz a la frecuencia base de una vez.

Además de los pasos descritos anteriormente, también puede aumentar el límite de voltaje (sobrevoltaje), porque a menudo se logra una frecuencia más alta de la GPU con un voltaje mayor, cuando las partes inestables de la GPU reciben energía adicional. Es cierto que la posible desventaja de aumentar este valor es la posibilidad de dañar el chip de video y su falla acelerada, por lo que debe usar el aumento de voltaje con extrema precaución.

Los entusiastas del overclocking utilizan técnicas ligeramente diferentes, cambiando los parámetros en un orden diferente. Por ejemplo, algunos overclockers comparten sus experimentos para encontrar una GPU estable y una frecuencia de memoria para que no interfieran entre sí, y luego prueban el overclocking combinado del chip de video y de los chips de memoria, pero estos ya son detalles insignificantes del individuo. Acercarse.

A juzgar por las opiniones en los foros y los comentarios sobre los artículos, a algunos usuarios no les gustó el nuevo algoritmo GPU Boost 3.0, cuando la frecuencia de la GPU al principio sube muy alta, a menudo más alta que la frecuencia turbo, pero luego, bajo la influencia de el aumento de la temperatura de la GPU o el aumento del consumo de energía por encima del límite establecido, puede caer a valores mucho más bajos. Estos son solo los detalles del algoritmo actualizado, debe acostumbrarse al nuevo comportamiento de la frecuencia de GPU dinámicamente variable, pero no tiene ninguna consecuencia negativa.

La tarjeta gráfica GeForce GTX 1070 es el segundo modelo después de la GTX 1080 en la nueva línea de GPU Pascal de Nvidia. La nueva tecnología de proceso FinFET de 16 nm y las optimizaciones de la arquitectura permitieron que la tarjeta de video presentada alcanzara altas velocidades de reloj, lo que también es ayudado por la nueva generación de tecnología GPU Boost. Aunque se redujo el número de unidades funcionales en forma de procesadores de flujo y unidades de textura, su número siguió siendo suficiente para que la GTX 1070 se convirtiera en la solución más rentable y energéticamente eficiente.

La instalación de memoria GDDR5 en el más joven del par de modelos lanzados de tarjetas de video Nvidia en el chip GP104, a diferencia del nuevo tipo de GDDR5X, en el que se diferencia la GTX 1080, no le impide lograr indicadores de alto rendimiento. En primer lugar, Nvidia decidió no cortar el bus de memoria del modelo GeForce GTX 1070 y, en segundo lugar, instalaron la memoria GDDR5 más rápida con una frecuencia efectiva de 8 GHz, que está solo ligeramente por debajo de 10 GHz para la GDDR5X utilizada en el modelo anterior. Teniendo en cuenta los algoritmos de compresión delta mejorados, el ancho de banda de memoria efectivo de la GPU se ha vuelto más alto que el del modelo similar de la generación anterior GeForce GTX 970.

GeForce GTX 1070 es buena porque ofrece un rendimiento muy alto y soporte para nuevas funciones y algoritmos a un precio significativamente más bajo en comparación con el modelo anterior anunciado un poco antes. Si unos pocos entusiastas pueden pagar la compra de una GTX 1080 por 55.000, entonces un círculo mucho mayor de compradores potenciales podrá pagar 35.000 por solo una cuarta parte de la solución menos productiva con exactamente las mismas capacidades. Fue esta combinación de precio relativamente bajo y alto rendimiento lo que hizo que la GeForce GTX 1070 fuera posiblemente la mejor compra en el momento de su lanzamiento.

Acelerador de gráficos GeForce GTX 1060

ParámetroSentido
Nombre en clave del chipGP106
Producción tecnológicaFinFET de 16 nm
Numero de transistores4.4 mil millones
Área central200 mm²
ArquitecturaUnificado, con una serie de procesadores comunes para el procesamiento en streaming de numerosos tipos de datos: vértices, píxeles, etc.
Soporte de hardware DirectXDirectX 12, compatible con el nivel de funciones 12_1
Bus de memoria192 bits: seis controladores de memoria independientes de 32 bits que admiten memoria GDDR5
Frecuencia de la GPU1506 (1708) MHz
Unidades informáticas10 multiprocesadores de transmisión, incluidas 1280 ALU escalares para cálculos de punto flotante dentro del marco del estándar IEEE 754-2008;
Texturizar bloques80 unidades de direccionamiento y filtrado de texturas con soporte para componentes FP16 y FP32 en texturas y soporte para filtrado trilineal y anisotrópico para todos los formatos de textura
Bloques de operaciones de ráster (ROP)6 bloques ROP anchos (48 píxeles) con soporte para varios modos anti-aliasing, incluidos los programables con formato de framebuffer FP16 o FP32. Los bloques consisten en una matriz de ALU configurables y son responsables de la generación y comparación de profundidad, multimuestreo y mezcla.
Soporte de monitorSoporte integrado para hasta cuatro monitores Dual Link DVI, HDMI 2.0by DisplayPort 1.2 (1.3 / 1.4 Ready)

Especificaciones de la tarjeta gráfica de referencia GeForce GTX 1060
ParámetroSentido
Frecuencia central1506 (1708) MHz
Número de procesadores universales1280
Número de unidades de textura80
Número de bloques de mezcla48
Frecuencia de memoria efectiva8000 (4 × 2000) MHz
Tipo de memoriaGDDR5
Bus de memoria192 bits
Memoria6 GB
Ancho de banda de memoria192 GB / s
Rendimiento computacional (FP32)alrededor de 4 teraflops
Tasa de llenado máxima teórica72 gigapíxeles / s
Tasa de muestreo de textura teórica121 gigatexels / s
NeumáticoPCI Express 3.0
ConectoresUn DVI de doble enlace, un HDMI y tres DisplayPort
Consumo de energía típico120 vatios
Comida adicionalUn conector de 6 pines
El número de ranuras ocupadas en el chasis del sistema.2
Precio recomendado$ 249 ($ 299) en los EE. UU. Y 18,990 en Rusia

La tarjeta de video GeForce GTX 1060 también recibió un nombre similar a la misma solución de la serie GeForce anterior, que se diferencia del nombre de su predecesora directa, la GeForce GTX 960, solo por el primer dígito modificado de la generación. La novedad se ha convertido en la línea actual de la compañía un paso por debajo de la solución GeForce GTX 1070 lanzada anteriormente, que es la velocidad promedio en la nueva serie.

Los precios recomendados para la nueva tarjeta de video de Nvidia son $ 249 y $ 299 para las versiones regulares de los socios de la compañía y para la edición especial de Founder's Edition, respectivamente. En comparación con los dos modelos anteriores, este es un precio muy favorable, ya que el nuevo modelo GTX 1060, aunque es inferior a las placas base de gama alta, no es tanto como más barato que ellos. En el momento del anuncio, el nuevo producto definitivamente se convirtió en la mejor solución de rendimiento de su clase y en una de las ofertas más ventajosas en este rango de precios.

Este modelo de la tarjeta de video de la familia Pascal de Nvidia salió para contrarrestar la nueva decisión de la empresa competidora AMD, que lanzó al mercado la Radeon RX 480 un poco antes. ... GeForce GTX 1060 es más cara ($ 249-299 frente a $ 199-229), pero claramente más rápida que la competencia.

El procesador de gráficos GP106 tiene un bus de memoria de 192 bits, por lo que la cantidad de memoria instalada en una tarjeta de video con dicho bus puede ser de 3 o 6 GB. Francamente, un valor más bajo en las condiciones modernas no es suficiente, y muchos proyectos de juegos, incluso en resolución Full HD, se encontrarán con una falta de memoria de video, lo que afectará seriamente la fluidez del renderizado. Para maximizar el rendimiento de la nueva solución en configuraciones altas, el modelo GeForce GTX 1060 fue equipado con 6 GB de memoria de video, que es suficiente para ejecutar cualquier aplicación 3D en cualquier configuración de calidad. Además, hoy en día simplemente no hay diferencia entre 6 y 8 GB, y una solución de este tipo ahorrará un poco de dinero.

El valor de consumo de energía típico para el nuevo producto es de 120 W, que es un 20% menos que el valor de la GTX 1070 y es igual al consumo de energía de la GeForce GTX 960 de la generación anterior, que tiene un rendimiento y capacidades mucho menores. La placa de referencia tiene el conjunto habitual de conectores para conectar dispositivos de salida de video: un DVI Dual-Link, un HDMI y tres DisplayPort. Además, apareció el soporte para nuevas versiones de HDMI y DisplayPort, sobre lo que escribimos en la revisión del modelo GTX 1080.

La longitud de la placa GeForce GTX 1060 de referencia es de 9,8 pulgadas (25 cm) y, a partir de las diferencias con las versiones anteriores, notamos por separado que la GeForce GTX 1060 no es compatible con la configuración de renderizado de varios chips SLI y no tiene una conector especial para esto. Dado que la placa consume menos energía que los modelos anteriores, se instaló un conector de alimentación externa PCI-E de 6 pines en la placa para una fuente de alimentación adicional.

Las tarjetas de video GeForce GTX 1060 han aparecido en el mercado desde el día del anuncio en forma de productos de los socios de la compañía: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. También se lanzará una edición especial de la GeForce GTX 1060 Founder's Edition, producida por la propia Nvidia, en cantidades limitadas, que se venderá por 299 dólares exclusivamente en el sitio web de Nvidia y no se presentará oficialmente en Rusia. La Founder's Edition está construida con materiales y componentes de alta calidad, incluida una carcasa de aluminio, y utiliza un sistema de enfriamiento eficiente, así como circuitos de potencia de baja resistencia y reguladores de voltaje especialmente diseñados.

Cambios arquitectónicos

La tarjeta gráfica GeForce GTX 1060 se basa en un modelo de GPU GP106 completamente nuevo, que funcionalmente no es diferente del primogénito de la arquitectura Pascal en la forma del chip GP104, en el que los modelos GeForce GTX 1080 y GTX 1070 descritos anteriormente Maxwell, pero también tiene algunas diferencias funcionales, sobre las que escribimos en detalle anteriormente.

El chip de video GP106 es similar en su estructura al chip Pascal de gama alta y soluciones similares de la arquitectura Maxwell, y puede encontrar información detallada sobre el dispositivo de las GPU modernas en nuestras revisiones de soluciones anteriores de Nvidia. Al igual que las GPU anteriores, los nuevos chips de arquitectura tienen diferentes configuraciones de grupos de procesamiento de gráficos (GPC), multiprocesadores de transmisión (SM) y controladores de memoria:

La GPU GP106 tiene dos clústeres de GPC que constan de 10 multiprocesadores de transmisión (SM), es decir, exactamente la mitad de la GP104. Como en la GPU más antigua, cada uno de los multiprocesadores contiene 128 núcleos computacionales, 8 unidades de textura TMU, 256 KB de memoria de registro, 96 KB de memoria compartida y 48 KB de caché L1. Como resultado, la GeForce GTX 1060 contiene un total de 1280 núcleos de procesamiento y 80 unidades de textura, la mitad del tamaño de la GTX 1080.

Pero el subsistema de memoria de la GeForce GTX 1060 no se ha reducido a la mitad en relación con la solución superior, contiene seis controladores de memoria de 32 bits, lo que proporciona el bus de memoria final de 192 bits. Con una frecuencia efectiva de memoria de video GDDR5 para la GeForce GTX 1060 igual a 8 GHz, el ancho de banda alcanza los 192 GB / s, lo cual es bastante bueno para una solución en este segmento de precios, especialmente dada la alta eficiencia de su uso en Pascal. Cada controlador de memoria tiene ocho ROP y 256 KB de caché L2 vinculados a cada controlador de memoria, por lo que en total la versión completa de la GPU GP106 contiene 48 ROP y 1536 KB de caché L2.

Para reducir los requisitos de ancho de banda de la memoria y hacer un uso más eficiente de la arquitectura Pascal existente, se ha mejorado aún más la compresión intra-chip sin pérdidas, que es capaz de comprimir datos en búferes, aumentando la eficiencia y el rendimiento. En particular, se han agregado nuevos métodos de compresión delta a los chips de la nueva familia con relaciones 4: 1 y 8: 1, proporcionando un 20% adicional a la eficiencia del ancho de banda de la memoria en comparación con las soluciones anteriores de la familia Maxwell.

La frecuencia base de la nueva GPU es 1506 MHz; en principio, la frecuencia no debe caer por debajo de esta marca. El reloj turbo típico (Boost Clock) es mucho más alto a 1708 MHz: este es el valor promedio de la frecuencia real a la que se ejecuta el chip gráfico GeForce GTX 1060 en una amplia gama de juegos y aplicaciones 3D. La frecuencia real de Boost depende del juego y del entorno de prueba.

Al igual que el resto de la familia Pascal, la GeForce GTX 1060 no solo funciona a una alta velocidad de reloj, lo que proporciona un alto rendimiento, sino que también tiene un margen decente para el overclocking. Los primeros experimentos indican la posibilidad de lograr frecuencias del orden de 2 GHz. No es sorprendente que los socios de la compañía estén preparando, entre otras cosas, versiones con overclocking de fábrica de la tarjeta de video GTX 1060.

Entonces, el principal cambio en la nueva arquitectura fue el proceso tecnológico FinFET de 16 nm, cuyo uso en la producción de GP106 permitió aumentar significativamente la complejidad del chip manteniendo un área relativamente baja de 200 mm², por lo tanto este chip de la arquitectura Pascal tiene un número notablemente mayor de unidades de ejecución en comparación con el chip Maxwell de posicionamiento similar fabricado utilizando la tecnología de proceso de 28 nm.

Si GM206 (GTX 960) con un área de 227 mm² tenía 3 mil millones de transistores y 1024 ALU, 64 TMU, 32 ROP y un bus de 128 bits, entonces la nueva GPU ya ha acomodado 4.4 mil millones de transistores, 1280 ALU en 200 mm² , 80 TMU y 48 ROP con bus de 192 bits. Además, a una frecuencia casi una vez y media más alta: 1506 (1708) versus 1126 (1178) MHz. ¡Y esto es con el mismo consumo de energía de 120 W! Como resultado, la GPU GP106 se ha convertido en una de las GPU con mayor eficiencia energética, junto con la GP104.

Nuevas tecnologías de Nvidia

Una de las tecnologías más interesantes de la empresa, que cuenta con el apoyo de la GeForce GTX 1060 y otras soluciones de la familia Pascal, es la tecnología Proyección múltiple simultánea de Nvidia... Ya escribimos sobre esta tecnología en nuestra revisión de GeForce GTX 1080, y le permite usar varias técnicas nuevas para optimizar el renderizado. En particular, para proyectar simultáneamente una imagen de realidad virtual para dos ojos a la vez, lo que aumenta significativamente la eficiencia del uso de la GPU en la realidad virtual.

Para admitir SMP, todas las GPU Pascal tienen un motor dedicado ubicado en PolyMorph Engine al final de la tubería de geometría, antes de la unidad de rasterización. Con su ayuda, la GPU puede proyectar simultáneamente una primitiva geométrica en varias proyecciones desde un punto, mientras que estas proyecciones pueden ser estéreo (es decir, se admiten hasta 16 o 32 proyecciones simultáneamente). Esta capacidad permite que las GPU de Pascal reproduzcan con precisión una superficie curva para la representación de realidad virtual, así como la visualización correcta en sistemas de múltiples monitores.

Es importante que la tecnología de proyección múltiple simultánea ya se esté integrando en los motores de juegos populares (Unreal Engine y Unity) y en los juegos, y hasta la fecha, se ha anunciado el soporte de la tecnología para más de 30 juegos en desarrollo, incluido este conocido proyectos como Unreal Tournament., Poolnation VR, Everest VR, Obduction, Adr1ft y Raw Data. Curiosamente, aunque Unreal Tournament no es un juego de realidad virtual, utiliza SMP para lograr mejores imágenes y un mejor rendimiento.

Otra tecnología muy esperada es una poderosa herramienta de captura de pantalla en los juegos. Nvidia Ansel... Esta herramienta te permite crear capturas de pantalla inusuales y de muy alta calidad a partir de juegos, con funciones que antes no estaban disponibles, guardarlas en muy alta resolución y complementarlas con varios efectos, y compartir tus trabajos. Ansel le permite crear literalmente una captura de pantalla de la forma en que el artista lo desea, lo que le permite instalar una cámara con cualquier parámetro en cualquier lugar de la escena, aplicar potentes filtros de publicación a la imagen o incluso tomar una imagen de 360 ​​grados para verla en un entorno virtual. casco de realidad.

Nvidia ha estandarizado la integración de la interfaz de usuario de Ansel en los juegos, y es tan fácil como agregar algunas líneas de código al código. No es necesario esperar a que aparezca esta función en los juegos, puedes evaluar las habilidades de Ansel ahora mismo en Mirror's Edge: Catalyst, y un poco más tarde estará disponible en Witcher 3: Wild Hunt. Además, hay muchos proyectos de juegos habilitados por Ansel en desarrollo, incluidos juegos como Fortnite, Paragon y Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky y otros.

Además, la nueva GPU GeForce GTX 1060 es compatible con la caja de herramientas Nvidia VRWorks para ayudar a los desarrolladores a crear experiencias de realidad virtual impresionantes. Este paquete incluye muchas utilidades y herramientas para desarrolladores, incluido VRWorks Audio, que le permite realizar cálculos muy precisos de los reflejos de las ondas sonoras de los objetos en la escena utilizando el trazado de rayos en la GPU. El paquete también incluye integración en efectos físicos de VR y PhysX para proporcionar un comportamiento físicamente correcto de los objetos en la escena.

Uno de los juegos virtuales más brillantes para aprovechar VRWorks es VR Funhouse, un juego de realidad virtual de la propia Nvidia, disponible de forma gratuita en Valve Steam. Este juego se basa en Unreal Engine 4 (Epic Games) y se ejecuta en tarjetas gráficas GeForce GTX 1080, 1070 y 1060 junto con los auriculares HTC Vive VR. Además, el código fuente de este juego estará disponible públicamente, lo que permitirá a otros desarrolladores utilizar ideas y códigos ya preparados en sus juegos de realidad virtual. Créame, esta es una de las demostraciones más impresionantes de capacidades de realidad virtual.

Incluso gracias a las tecnologías SMP y VRWorks, el uso de la GPU GeForce GTX 1060 en aplicaciones de realidad virtual proporciona un rendimiento suficiente para la realidad virtual de nivel de entrada, y la GPU en cuestión cumple con el nivel mínimo de hardware requerido, incluso para SteamVR, convirtiéndose en uno de los adquisiciones más exitosas para su uso en sistemas con soporte oficial de realidad virtual.

Dado que el modelo GeForce GTX 1060 se basa en el chip GP106, que de ninguna manera es inferior en capacidades a la GPU GP104, que se convirtió en la base de las modificaciones anteriores, es compatible con absolutamente todas las tecnologías que hemos descrito anteriormente.

La tarjeta gráfica GeForce GTX 1060 es el tercer modelo de la nueva línea de GPU Pascal de Nvidia. El nuevo proceso tecnológico FinFET de 16 nm y las optimizaciones de la arquitectura permitieron que todas las nuevas tarjetas de video lograran una alta frecuencia de reloj y colocaran más bloques funcionales en la GPU en forma de procesadores de flujo, unidades de textura y otros, en comparación con los chips de video de la generación anterior. Es por eso que la GTX 1060 se ha convertido en la solución más rentable y energéticamente eficiente de su clase y en general.

Es especialmente importante que la GeForce GTX 1060 ofrezca un rendimiento y soporte suficientemente alto para nuevas funciones y algoritmos a un precio significativamente más bajo en comparación con las soluciones más antiguas basadas en la GP104. El chip gráfico GP106 del nuevo modelo ofrece el mejor rendimiento y eficiencia energética de su clase. La GeForce GTX 1060 está especialmente diseñada y se adapta perfectamente a todos los juegos modernos con configuraciones de gráficos altos y máximos en una resolución de 1920x1080 e incluso con anti-aliasing de pantalla completa habilitado por varios métodos (FXAA, MFAA o MSAA).

Y para aquellos que buscan obtener un rendimiento aún mejor con pantallas de ultra alta resolución, Nvidia tiene las tarjetas gráficas GeForce GTX 1070 y GTX 1080 de gama alta que también son bastante buenas en rendimiento y eficiencia energética. Sin embargo, la combinación de precio bajo y rendimiento suficiente distingue a la GeForce GTX 1060 de manera bastante favorable en el contexto de las soluciones más antiguas. En comparación con la Radeon RX 480 de la competencia, la solución de Nvidia es un poco más rápida con menos complejidad y menos espacio en la GPU, y tiene una eficiencia energética significativamente mejor. Es cierto que se vende a un precio ligeramente más alto, por lo que cada tarjeta de video tiene su propio nicho.

Nuevo en el sitio

>

Más popular