¿Es la GPU una tarjeta gráfica?
La GPU no es una tarjeta gráfica. La GPU es una unidad de procesamiento de pantalla, como la CPU, es solo un chip. La tarjeta gráfica es una placa de circuito PCB centrada en este chip. ?
El nombre completo en inglés de GPU es Unidad de procesamiento gráfico, que se traduce como "procesador de gráficos" en chino. (Unidad de procesamiento de imágenes) GPU es un concepto relativo a la CPU Dado que el procesamiento de gráficos se ha vuelto cada vez más importante en las computadoras modernas (especialmente los sistemas domésticos y los entusiastas de los juegos), se requiere un procesador central de gráficos dedicado.
Principio de funcionamiento
En pocas palabras, la GPU es un chip de visualización que puede admitir T&L (transformación e iluminación, conversión de polígonos y procesamiento de fuentes de luz) desde el hardware, porque T&L es un Parte importante en la representación 3D, su función es calcular la posición 3D de los polígonos y procesar efectos de luz dinámicos, lo que también se puede llamar "procesamiento geométrico".
Una buena unidad T&L puede proporcionar objetos 3D detallados y efectos de luz avanzados; sin embargo, en la mayoría de las PC, la mayoría de las operaciones T&L son procesadas por la CPU (este también es el llamado software T&L), porque; Además de T&L, la CPU también tiene que realizar trabajos de procesamiento de gráficos no 3D, como la administración de memoria y la respuesta de entrada, por lo que el rendimiento se reducirá considerablemente durante los cálculos reales.
Suele suceder que la tarjeta gráfica está esperando datos de la CPU y la velocidad de cálculo de la CPU no puede satisfacer los requisitos de los complejos juegos 3D actuales. Incluso si la frecuencia operativa de la CPU excede 1 GHz o más, no ayudará mucho, porque este es un problema causado por el diseño de la propia PC y tiene poco que ver con la velocidad de la CPU.
Función
El procesador de la tarjeta gráfica se llama unidad de procesamiento de gráficos (GPU). Es el "corazón" de la tarjeta gráfica. Es similar a la CPU, excepto que. que la GPU está diseñada para realizar tareas complejas Diseñado para cálculos matemáticos y geométricos necesarios para la representación de gráficos. Algunas de las GPU más rápidas tienen incluso más transistores que las CPU normales.
La mayoría de las GPU actuales tienen funciones de aceleración de gráficos 2D o 3D. Si la CPU quiere dibujar un gráfico bidimensional, solo necesita enviar una instrucción a la GPU, como "Dibuje un rectángulo con una longitud y un ancho de a × b en la posición de coordenadas (x,
y)."
La GPU puede calcular rápidamente todos los píxeles del gráfico, dibujar el gráfico correspondiente en la ubicación especificada en el monitor y notificar a la CPU después de terminar el dibujo
"Estoy done", luego espere a que la CPU emita la siguiente instrucción gráfica.
Con la GPU, la CPU se libera de tareas de procesamiento gráfico y puede realizar otras tareas más del sistema, lo que puede mejorar enormemente el rendimiento general del ordenador.
La GPU genera mucho calor, por lo que se suele instalar un radiador o ventilador encima.
La GPU es el "cerebro" de la tarjeta gráfica. La GPU determina el grado y la mayor parte del rendimiento de la tarjeta gráfica. Al mismo tiempo, la GPU también es la base de la diferencia entre 2D. Tarjetas gráficas y tarjetas gráficas 3D. Los chips de visualización 2D dependen principalmente de la potencia de procesamiento de la CPU cuando procesan imágenes 3D y efectos especiales, lo que se denomina aceleración suave.
El chip de visualización 3D concentra las funciones de procesamiento de imágenes tridimensionales y efectos especiales en el chip de visualización, que es la función denominada "aceleración de hardware". El chip gráfico es generalmente el chip más grande de la tarjeta gráfica (y el que tiene más pines). La mayoría de las tarjetas gráficas del mercado actual utilizan chips de procesamiento de gráficos de NVIDIA y AMD-ATI.
La GPU ya no se limita al procesamiento de gráficos 3D. El desarrollo de la tecnología informática general de GPU ha atraído mucha atención en la industria y los hechos también han demostrado que la GPU puede proporcionar procesamiento de datos en algunos cálculos, como la flotación. operaciones puntuales y computación paralela diez veces o incluso cientos de veces el rendimiento de las CPU, una "nova" tan poderosa inevitablemente pondrá nervioso a Intel, el líder de los fabricantes de CPU, sobre el futuro.
NVIDIA e Intel a menudo se pelean sobre quién es más importante, la CPU o la GPU. Los estándares para la informática general de GPU actualmente incluyen OpenCL, CUDA y ATI STREAM. Entre ellos, OpenCL (nombre completo Open Computing Language, Open Computing Language) es el primer estándar abierto y gratuito para la programación paralela de propósito general de sistemas heterogéneos.
También es un entorno de programación unificado que facilita a los desarrolladores de software escribir códigos eficientes y livianos para servidores informáticos de alto rendimiento, sistemas informáticos de escritorio y dispositivos portátiles. También es ampliamente aplicable a procesadores multinúcleo (. CPU) y procesamiento de gráficos (GPU), arquitectura de tipo celular y otros procesadores paralelos como el procesador de señal digital (DSP).
Tiene amplias perspectivas de desarrollo en diversos campos, como juegos, entretenimiento, investigación científica y atención médica. Los productos actuales de AMD-ATI y NVIDIA son compatibles con OPEN CL.
ATi se fundó el 20 de agosto de 1985. En octubre del mismo año, ATi desarrolló el primer chip gráfico y tarjeta gráfica utilizando tecnología ASIC. En abril de 1992, ATi lanzó tarjetas gráficas Mach32 con capacidades integradas de aceleración de gráficos. .
Abril de 1998
ATi fue seleccionado como líder del mercado en la industria de chips gráficos por IDC, pero en ese momento este chip no tenía el título de GPU durante mucho tiempo. ATI El procesador gráfico se llama VPU. No fue hasta que AMD adquirió ATI que su chip gráfico adoptó oficialmente el nombre de GPU.
NVIDIA propuso por primera vez el concepto de GPU cuando lanzó el chip de procesamiento de gráficos GeForce 256 en 1999. A partir de entonces, el núcleo de la tarjeta gráfica NV pasó a denominarse GPU. La GPU permite que la tarjeta gráfica reduzca su dependencia de la CPU y realice parte del trabajo de la CPU original, especialmente al procesar gráficos 3D.
Las tecnologías principales utilizadas por la GPU incluyen hardware T&L, mapeo de materiales de entorno cúbico y mezcla de vértices, compresión de texturas y mapeo de relieve, motor de renderizado de textura dual de cuatro píxeles y 256 bits, etc. La tecnología de hardware T&L puede Se dice que es el símbolo de GPU.