Noticias

El futuro de los gráficos 3D | ¿Qué tan real puede ser?

Una mirada al posible futuro de los gráficos 3D: ¿Qué tan real puede ser?

La bola de cristal de polígonos, píxeles y procesamiento

A medida que las CPU y las GPU se vuelven más poderosas con cada nueva generación, el impulso por gráficos cada vez más realistas en los juegos de gran éxito no muestra signos de desaceleración. Los títulos más atractivos de la actualidad ya se ven impresionantes, así que, ¿cuánto mejor pueden ser?

¿Qué tecnologías se volverán tan comunes como lo son hoy el filtrado de texturas o el mapeo normal? ¿Qué sistemas ayudarán a los desarrolladores a alcanzar estos estándares más altos? Únase a nosotros mientras echamos un vistazo a lo que nos espera en el futuro de los gráficos 3D.

¿De dónde venimos?

Antes de adentrarnos en el futuro, vale la pena hacer un balance de los avances en disenador grafico 3D a lo largo de los años. Gran parte de los aspectos teóricos del renderizado 3D (por ejemplo, transformaciones de vértices, proyecciones de ventana gráfica, modelos de iluminación) tienen décadas de antigüedad, si no más.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Tome el humilde z-buffer, como ejemplo. Esto no es más que una parte de la memoria que se usa para almacenar información de profundidad sobre los objetos en una escena y se usa principalmente para determinar si una superficie está oculta detrás de otra cosa (lo que a su vez permite que los objetos se descarten, en lugar de renderizarlos y recuperarlos). también se puede utilizar para generar sombras).

El concepto de z-buffer generalmente se atribuye a Ph.D. estudiante Wolfgang Straßer, 1974, trabajando en TU Berlin en ese momento. El primer hardware comercial que hizo uso del búfer apareció dentro de los 5 años más o menos, pero el público en general tendría que esperar más de 20 años, hasta mediados de los 90, para la llegada de Nintendo 64 y su z-buffer habilitado Reality co. -procesador.

Lo mismo ocurre con otros estándares de renderizado: sombreado de Gouraud (Henri Gouraud, 1971); mapeo de texturas (Edwin Catmull, 1974); mapeo de relieve (Jim Blinn, 1978). Pasarían décadas antes de que cualquier jugador casual pudiera ver estas cosas en acción en los sistemas de entretenimiento doméstico.

Y fueron los gustos de Sony, Sega y Nintendo los que hicieron esto, con sus consolas enfocadas en 3D. Según los estándares actuales, los juegos para esas primeras máquinas, como la primera PlayStation, eran primitivos en extremo, pero los desarrolladores aún se estaban familiarizando con la representación “moderna”.

Al mismo tiempo, los proveedores de hardware de PC también se estaban involucrando en el acto 3D, y en solo 5 años, las computadoras de escritorio de todo el mundo tenían tarjetas gráficas deportivas con soporte para sombreadores, z-buffers, mapeo de texturas, etc.

Sería la evolución de los chips gráficos lo que impulsaría el desarrollo de gráficos 3D, pero predecir cómo se verían los juegos en un futuro cercano fue algo complicado, a pesar del camino obvio que tomarían las GPU.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Una empresa intentó intentarlo y MadOnion (más tarde Futuremark) intentó mostrar a todos cómo se verían los gráficos con 3DMark, según los comentarios que recibieron de otros desarrolladores y proveedores de hardware. Pero todo lo que hicieron fue demostrar que la evolución de los gráficos, tanto de software como de hardware, fue demasiado rápida para predecir con precisión cómo iban a resultar las cosas en ese momento.

Todo lo que podía medirse en números aumentaba a un ritmo frenético. En los primeros días de los juegos 3D, la cantidad de polígonos por cuadro se usaba a menudo como punto de venta, pero ahora nunca se menciona porque es una cantidad ridícula.

Por ejemplo, el primer Tomb Raider que se ejecutó en PlayStation usó 250 triángulos para Lara, mientras que la versión para PC de Shadow of the Tomb Raider puede usar hasta 200 000 para el personaje principal.

El tamaño de las texturas y la cantidad de texturas utilizadas también se han disparado cada año, y ahora estamos en el punto en que incluso un solo paquete de texturas HD puede tener el mismo tamaño que el resto de los activos del juego combinados (da un paso adelante, Far Llorar 6).

Doom (1993) frente a Doom (2016): 0,01 GB frente a 68 GB de tamaño de instalación

Este aumento constante de polígonos y texturas es una necesidad desafortunada para la búsqueda de gráficos cada vez más realistas, o mejor dicho, más detallados.

Si bien todavía hay muchas investigaciones en curso sobre la generación de texturas procedimentales (que usa algoritmos para generar texturas sobre la marcha) y otros atajos, el uso tradicional de imágenes de mapa de bits para texturas, junto con vértices e índices para modelos, no va a desaparecer. tiempo pronto

Entonces podemos comenzar nuestro viaje hacia el futuro estando seguros de una cosa.

Números: seguirán creciendo

(y más pequeño)

Epic Games mostró las funciones de Unreal Engine 5 con bombos y platillos hace dos años, y el primero en llamar la atención fue un nuevo sistema de geometría, llamado Nanite. El sistema funciona en un pase de renderizado separado y transmite mallas dentro y fuera de una escena, según la visibilidad.

Los desarrolladores también aprovechan un rasterizador basado en software, para triángulos más pequeños que un píxel, para descargar algunos de los costos de configuración de triángulos de la GPU. Como todas las tecnologías nuevas, no es perfecta y tiene varias limitaciones, pero la demostración de tecnología de PlayStation 5 mostró claramente lo que nos espera en el futuro.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Una malla típica en esta demostración contiene más de 1 millón de polígonos, para una huella de memoria de 27 MB (incluidas todas las texturas) y un tiempo de procesamiento de 4,5 milisegundos para seleccionar, rasterizar y evaluar materiales. A primera vista, esas cifras pueden no significar mucho, pero el infame Crysis estaba presentando hasta 2 millones de polígonos para escenas completas.

A lo largo de los años, ha habido muchos métodos para aumentar la cantidad de triángulos que se utilizan para crear objetos y entornos, como sombreadores de geometría y teselado, todos los cuales ayudan a mejorar el detalle natural de los modelos.

Pero el sistema Nanite de Epic es un importante paso adelante y podemos esperar que otros desarrolladores creen sistemas similares.

Los increíblemente altos niveles de detalle que se ven en algunos juegos en este momento se generalizarán en el futuro. Las escenas ricas y llenas de contenido no serán solo reserva de los costosos títulos AAA.

Las texturas seguirán creciendo en tamaño y cantidad. Los modelos en los juegos de hoy ahora requieren una gran cantidad de mapas de textura (por ejemplo, color base, normal, desplazamiento, especular, brillo, albedo) para hacer que el objeto se vea exactamente como los artistas pretenden.

Los monitores se encuentran ahora en una etapa en la que 1440p o 4K son mucho más asequibles, y hay muchas tarjetas gráficas que funcionan bastante bien con la resolución anterior. Entonces, con los marcos ahora compuestos por varios millones de píxeles, las texturas deben tener una resolución igualmente alta, para garantizar que no se vuelvan borrosas cuando se extienden sobre el modelo.

Si bien todavía no vamos a ver que los juegos 4K se conviertan en la corriente principal, el futuro se centrará en los detalles finos, por lo que seguirá habiendo un crecimiento en la huella de memoria de las texturas.

Pero millones de polígonos, todos envueltos en texturas de 16K, serían inútiles (o ciertamente no muy realistas) si no estuvieran iluminados y sombreados correctamente. La simulación de cómo la luz interactúa con los objetos en el mundo real, utilizando gráficos 3D computarizados, ha sido un tema de intensa investigación y desarrollo durante casi 50 años.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Las tarjetas gráficas están diseñadas para calcular, en masa, los resultados de una serie de algoritmos, cada uno de los cuales es fundamental para lograr el objetivo de “lo más real posible”. Pero durante muchos años, las GPU no tenían nada dedicado a esta tarea. Eran, y siguen siendo en su mayoría, nada más que numerosas ALU de punto flotante, junto con una gran cantidad de caché, con múltiples colecciones de unidades para el manejo de datos.

Eso fue hasta hace cuatro años cuando Nvidia decidió que había llegado el momento de regresar a la década de 1970, nuevamente, con un guiño al trabajo de Turner Witted, y proporcionar soporte de hardware para acelerar aspectos del santo grial de la renderización.

El trazado de rayos estará en todas partes

El procesamiento de gráficos 3D tradicional es esencialmente una colección de atajos, trucos y trucos para dar la impresión 3d de que está mirando una imagen genuina de un objeto real, iluminado por fuentes de luz reales. El trazado de rayos no es una realidad, por supuesto, pero está mucho más cerca de lo que generalmente se denomina “rasterización”, aunque la rasterización sigue siendo una parte clave del trazado de rayos, al igual que una multitud de otros algoritmos.

Ahora estamos en la etapa en la que todos los proveedores de GPU tienen hardware compatible con el trazado de rayos, así como las últimas consolas de Microsoft y Sony. Y aunque los primeros juegos que proporcionaron un punto de trazado de rayos, para sombras o reflejos, no eran nada del otro mundo, hay algunos títulos que resaltan su potencial.

A pesar del impacto en el rendimiento que invariablemente produce la aplicación de trazado de rayos a los juegos, no hay duda de que eventualmente se volverá tan omnipresente como el mapeo de texturas.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Las señales de esto están por todos lados: para fines de este año, Nvidia tendrá tres generaciones de GPU con aceleración de trazado de rayos, AMD tendrá dos e Intel con una (aunque hay rumores de que su GPU integrada lo lucirá, también).

Los dos paquetes de desarrollo de juegos más utilizados, Unreal Engine y Unity, tienen soporte de trazado de rayos integrado en sus últimas versiones, utilizando la canalización de trazado de rayos en DirectX 12. Desarrolladores de otros sistemas gráficos, como 4A Engine (Metro Exodus), REDengine (Cyberpunk 2077) y Dunia (Far Cry 6) han integrado el trazado de rayos en motores más antiguos, con diversos grados de éxito.

Se podría argumentar que el trazado de rayos no es necesario, ya que hay muchos juegos con imágenes increíbles (por ejemplo, Red Dead Redemption 2) que funcionan bien sin él.

Pero si uno deja de lado las demandas de hardware por un momento, usar el trazado de rayos para todas las luces y sombras es una tarea de desarrollo más simple que tener que usar múltiples estrategias diferentes para lograr imágenes similares.

Por ejemplo, el uso de ray tracing niega la necesidad de usar SSAO (Screen Space Ambient Occlusion), este último es relativamente ligero en términos de sombreadores, pero muy pesado en el muestreo y luego en la mezcla del z-buffer. El trazado de rayos también implica una gran cantidad de lectura de datos, pero con un caché local lo suficientemente grande, hay un impacto menor en el ancho de banda de la memoria.

Sin embargo, el trazado de rayos no se trata solo de hacer que los gráficos se vean cada vez más realistas. Puede agregar una mayor sensación de inmersión a un juego, cuando se implementa correctamente. Tome el título Control de Remedy de 2019 como un ejemplo de esto: se ve y juega perfectamente bien sin el trazado de rayos, pero con él completamente habilitado, la jugabilidad se transforma.

Mover al personaje a través del escenario, viajar a través de la sombra y la luz, capturar el movimiento en los reflejos de los paneles de vidrio: la tensión y la atmósfera se amplifican notablemente cuando se emplea el trazado de rayos. Las capturas de pantalla simples no le hacen justicia.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Y hay muchos estilos de juego que se beneficiarán de la mejora de la iluminación y las sombras globales. Los títulos de supervivencia, terror y acción y aventura basados ​​en el sigilo son las opciones obvias, pero los simuladores de deportes de motor también servirán, especialmente aquellos que ofrecen carreras nocturnas o modos de resistencia.

Incluso los juegos más humildes como Minecraft adquieren una nueva luz (juego de palabras no intencionado) cuando se usa el trazado de rayos para determinar la iluminación, la transparencia, los reflejos y las sombras de cada superficie en el mundo del juego.

Las implementaciones actuales de trazado de rayos en los juegos son relativamente limitadas: generalmente solo se usan para sombras y/o reflejos, pero las pocas que lo usan para todo muestran su claro potencial.

Entonces, ¿cuánto mejor será? ¿Qué podemos esperar ver en los juegos dentro de 5 o 10 años? Comencemos mirando una muestra de prueba de evaluación comparativa para Blender.

El conteo de rayos y muestras aumentó significativamente con respecto a la configuración predeterminada, junto con algunas mejoras adicionales, por lo que tomó más de 9 minutos para renderizar, usando una GeForce RTX 2080 Super.

A primera vista, se le puede perdonar si piensa que esto no es nada especial, pero es la sutileza de las sombras, la transmisión de la luz a través del vidrio, los reflejos de las imágenes en la pared y la transición suave de la gradación de color en el piso. eso muestra lo que es capaz con el trazado de rayos.

Es claramente CGI, en lugar de parecer “real”, pero es un nivel de fidelidad gráfica que los desarrolladores e investigadores están presionando.

Pero incluso las mejores demostraciones de tecnología de los proveedores de GPU no pueden igualar esto todavía, al menos no en ningún tipo de velocidad de fotogramas jugable. A continuación se muestra una captura de pantalla de la demostración Attic de Nvidia, que utiliza una versión modificada de Unreal Engine 4, con iluminación directa y global con trazado de rayos.

No se ve tan bien como el ejemplo de Blender, pero el tiempo de procesamiento para cada fotograma fue de 48 milisegundos, ¡no de 9 minutos!

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Pero incluso con todos los trucos de renderizado empleados para acelerar las cosas, el trazado de rayos sigue siendo prácticamente exclusivo de las tarjetas gráficas de gama alta. Los jugadores de PC con modelos de gama media o económicos, en este momento, tienen una de dos opciones: habilitar el trazado de rayos pero desplegar todas las demás configuraciones para que funcione bien (negando el punto de usarlo) o simplemente dejar la configuración desactivada por completo.

Entonces, podría pensar que la idea de que el trazado de rayos esté en todas partes, para todos, está a décadas de distancia, al igual que, por ejemplo, la invención del mapeo normal o el teselado para aparecer en todas las GPU.

Sin embargo, hay algo más que seguramente será una característica estándar en los gráficos de juegos en 3D y ayudará a resolver el problema antes mencionado.

La mejora se convertirá en la norma
Cuando Nvidia lanzó la arquitectura Turing en 2008, con nuevo hardware para acelerar la búsqueda de BVH y los cálculos de intersección de rayos triangulares, también promovieron otra nueva característica de la GPU: los núcleos tensoriales. Estas unidades son esencialmente una colección de ALU de punto flotante, que multiplican y suman valores en una matriz.

De hecho, aparecieron por primera vez un año antes, en la Titan V con tecnología GV100. Esta tarjeta gráfica estaba dirigida exclusivamente al mercado de estaciones de trabajo, y sus núcleos tensoriales se usaban en escenarios de inteligencia artificial y aprendizaje automático.

Para Turing y la línea de juegos de sus modelos, Nvidia utilizó el poder del aprendizaje profundo para desarrollar un sistema de mejora llamado DLSS. Aunque la versión inicial no era especialmente buena, la implementación actual genera grandes resultados, y tanto AMD como Intel han creado sus propias versiones (FSR y XeSS).

La premisa detrás de este tipo de mejora es que la GPU renderiza el cuadro a una resolución mucho más baja que la que se muestra en el monitor, lo que obviamente mejora el rendimiento. Pero en lugar de solo aumentar la cantidad de píxeles, a lo largo de cada eje, para crear la imagen final, se ejecuta un algoritmo complejo.

La naturaleza exacta del proceso se formula en el mundo del aprendizaje profundo, entrenando el modelo matemático utilizando cientos de miles de imágenes de cómo debería verse un marco renderizado prístino a gran escala.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Y ya no se trata solo de ampliar y modificar un marco ya renderizado. Con el lanzamiento de la arquitectura Lovelace (serie RTX 40), Nvidia ha demostrado que DLSS en su tercera iteración podrá generar fotogramas completos.

La interpolación de fotogramas tiene una mala reputación debido a su amplio uso en televisores. Queda por ver cómo funcionará este nuevo sistema en la práctica, pero demuestra la dirección hacia la que se dirige la tecnología.

Sin embargo, los núcleos tensoriales no son necesariamente necesarios para realizar una mejora basada en IA. Estrictamente hablando, el sistema de escalado FSR (FidelityFX Super Resolution) de AMD no se basa en el aprendizaje profundo. Se basa en el remuestreo de Lanczos, con la versión actual aplicando suavizado temporal después, pero los resultados finales son esencialmente los mismos: más rendimiento, con una pequeña disminución en la calidad visual.

Y debido a que FSR no requiere unidades de hardware específicas, como núcleos tensoriales, es probable que su implementación se generalice más que DLSS, especialmente dado que las últimas consolas de juegos usan CPU y GPU de AMD.

Sin embargo, ninguno de los sistemas actualmente en uso es perfecto. Los algoritmos luchan con detalles finos, como alambres estrechos o rejillas, lo que da como resultado artefactos brillantes alrededor del objeto. Y también está el hecho de que todos los sistemas de mejora requieren tiempo de procesamiento de GPU, por lo que cuanto más básica sea la tarjeta gráfica, menor será el aumento en el rendimiento.

Sea como fuere, todas las nuevas tecnologías de renderizado tienen problemas cuando aparecen por primera vez: la teselación de DirectX 11, por ejemplo, cuando está habilitada en los primeros juegos que la admiten, a menudo tiene fallos o problemas graves de rendimiento. Ahora se usa en casi todas partes sin apenas asentir o guiñar un ojo.

Entonces, si bien cada proveedor de GPU tiene su forma de escalar, el hecho de que todos lo admitan (y FSR es compatible con una gama mucho más amplia de tarjetas gráficas que DLSS) muestra que no será una moda pasajera que desaparezca. SLI, ¿alguien?

Pero entonces, la máquina y el aprendizaje profundo se utilizarán para algo más que una simple mejora.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

IA para potenciar contenido realista

La sensación de realismo en el mundo de un juego ciertamente va más allá de los gráficos. Se trata de que todo dentro del juego se comporte de la manera que el jugador espera, dada su comprensión de la tradición y las reglas del juego. La IA también puede ayudar aquí. En prácticamente todos los juegos para un solo jugador, las respuestas de los personajes controlados por computadora se manejan mediante una larga secuencia de declaraciones ‘Si… entonces… si no’.

Hacer que parezca realista es un gran desafío: es muy fácil tener enemigos increíblemente tontos que no representan ninguna amenaza o que tienen habilidades divinas para detectarte desde un solo píxel visible.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Los desarrolladores de Google Stadia, ahora desaparecido, utilizaron el aprendizaje automático para entrenar cómo un juego, en desarrollo en ese momento, debería jugar contra usted. Los datos de entrada tenían la forma de un juego que se jugaba contra sí mismo, cuyos resultados se utilizaron para crear un mejor reproductor de computadora.

En 2017, OpenAI, una empresa de investigación e implementación especializada en aprendizaje automático, hizo algo similar: hizo que una computadora jugara contra sí misma en miles de rondas de Dota 2, antes de enfrentarla a algunos de los mejores jugadores (humanos) de todo el mundo. .

Esto puede parecer que haría que todos los juegos fueran demasiado difíciles; después de todo, las computadoras pueden procesar datos millones de veces más rápido que nosotros. Pero se pueden generar diferentes niveles de desafío a partir de la cantidad de operaciones neuronales realizadas durante el entrenamiento.

Entonces, los desarrolladores podrían crear, digamos, 10 niveles de “IA bot” basados ​​en 10 sesiones de entrenamiento diferentes realizadas: cuanto más corto sea el entrenamiento, más tonta será la IA.

Más allá del alcance de la IA para mejorar la forma en que se juegan y se sienten los juegos, hay que considerar el desarrollo del juego en sí. El proceso de creación de todos los elementos de un juego (modelos, texturas, etc.) requiere mucho tiempo y, a medida que los mundos se vuelven más complejos y detallados, también lo hace el tiempo necesario para completar este trabajo.

En estos días, el desarrollo de un título AAA requiere que cientos de personas dediquen muchas horas durante muchos años. Esta es la razón por la que los desarrolladores de juegos están buscando formas de reducir esta carga de trabajo y las empresas de GPU están a la vanguardia de dicha investigación.

Por ejemplo, modelar la animación facial para que coincida con el habla puede llevar mucho tiempo y ser costoso.

Las empresas con dinero para gastar usarán la captura de movimiento, haciendo que los actores de voz lean las líneas, mientras que los equipos de desarrollo más pequeños tendrán que usar software especializado o mapear la animación ellos mismos.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Nvidia y Remedy Entertainment han desarrollado un método, utilizando el aprendizaje automático, que puede producir el movimiento requerido de los polígonos basado completamente en el discurso que se está reproduciendo. Esto no solo acelera una parte del proceso de creación de contenido, sino que también ofrece una solución a las empresas que buscan expandir su base de jugadores.

La localización del habla a veces no funciona del todo, simplemente porque las animaciones faciales se generaron solo para un idioma: cambie a otro y se pierde la sensación de inmersión. Con la técnica anterior, ese problema se resuelve.

La investigación sobre los campos de radiación neuronal también es prometedora para los desarrolladores de juegos. Los gustos del software Instant NeRF de Nvidia pueden generar una escena 3D, basándose nada más que en unas pocas fotos y detalles sobre cómo se tomaron.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Los NeRF también se pueden utilizar para ayudar a generar pieles, lanas y otros materiales blandos de aspecto realista, de forma rápida y sencilla. Todo esto se puede hacer en una sola GPU, aunque el tiempo de entrenamiento requerido impide que se pueda usar actualmente durante los juegos.

Sin embargo, el autoaprendizaje para enemigos más inteligentes o la animación facial basada en el habla no es algo que se pueda hacer en tiempo real, ni en una sola GPU. La potencia de procesamiento requerida para moverse a través de la red neuronal se encuentra actualmente en el nivel de una supercomputadora y requiere meses de entrenamiento.

Pero hace 10 años, la idea de tener ray tracing en un juego era impensable.

Cambios en futuras GPU/hardware 3D

Comenzamos esta mirada al futuro de los gráficos 3D con un punto sobre el hardware. Hace cincuenta años, los investigadores estaban extremadamente limitados en la forma en que podían probar sus teorías y modelos porque la tecnología en ese momento simplemente no era lo suficientemente capaz.

Tal trabajo también fue coto de los profesores universitarios, donde su trabajo se quedó mucho en el mundo académico.

Si bien esto aún sucede, el desarrollo de gráficos ahora está firmemente en manos de los desarrolladores de juegos y los diseñadores de GPU. Tome SSAO, por ejemplo: esto fue creado por uno de los programadores de Crytek, buscando una forma de mejorar las sombras en Crysis.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

En la actualidad, AMD, Intel y Nvidia trabajan mano a mano con universidades y empresas de juegos de todo el mundo para encontrar nuevas formas de mejorar el rendimiento y la calidad de todo lo relacionado con los gráficos. En lugar de tomar décadas para que un nuevo algoritmo se use en los juegos, ahora son solo unos pocos años y, en algunos casos, un puñado de meses.

Pero, ¿qué pasa con el hardware que lo soporta? ¿Seguirá mejorando al ritmo que lo ha hecho durante los últimos 30 años, o nos estamos acercando a una disminución en el crecimiento?

Por el momento, no hay señales de una meseta. La GPU más reciente de Nvidia, la AD102, es un gran salto con respecto a su predecesora (GA102 de Ampere), en términos de recuento de transistores, rendimiento de FP32 y conjunto general de funciones.

El futuro de los gráficos 3D
El futuro de los gráficos 3D

Los chips que alimentan Xbox Series X y PlayStation 5 tienen GPU AMD equivalentes a las que se encuentran en las tarjetas gráficas de gama media actuales y el desarrollo de juegos para consolas suele ser el punto de partida para la investigación de nuevas técnicas de mejora del rendimiento. Incluso los diseñadores 3d de chips para la implementación de teléfonos se están enfocando en aumentar las capacidades de sus pequeñas GPU.

¿Ese gran aumento en el recuento de transistores es solo para más procesamiento? La respuesta simple es no. Las GPU modernas están dedicando cada vez más espacio de matriz a unidades especializadas en trazado de rayos y aplicaciones de IA. Estas son las dos áreas que dominarán la evolución de los gráficos en 3D: una para hacer que todo sea más real y la otra para hacerlo realmente jugable.

El futuro va a ser impresionante. Realmente impresionante

Fuente: techspot.com

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button