Red de conocimiento informático - Aprendizaje de código fuente - ¿Cuáles son las principales interfaces de salida de la tarjeta gráfica?

¿Cuáles son las principales interfaces de salida de la tarjeta gráfica?

Tipo de interfaz de tarjeta gráfica

Se refiere al tipo de interfaz que utiliza la tarjeta gráfica para conectarse a la placa base. La interfaz de la tarjeta gráfica determina el ancho de banda máximo de transmisión de datos entre la tarjeta gráfica y el sistema, que es la cantidad máxima de datos que se pueden transmitir instantáneamente. Diferentes interfaces determinan si la placa base puede utilizar esta tarjeta gráfica. La tarjeta gráfica solo se puede utilizar si hay una interfaz correspondiente en la placa base. Diferentes interfaces pueden aportar un rendimiento diferente a la tarjeta gráfica.

Los juegos y el software 3D tienen requisitos cada vez mayores en las tarjetas gráficas, y la cantidad de datos que deben intercambiarse entre la placa base y la tarjeta gráfica también está aumentando. Las ranuras anteriores ya no pueden soportar una cantidad tan grande de intercambio de datos, por lo que la placa base suele tener una ranura para una tarjeta gráfica. Si la velocidad de transmisión de la ranura de la tarjeta gráfica no puede satisfacer las necesidades de la tarjeta gráfica, el rendimiento de la tarjeta gráfica será muy limitado y no importa qué tan buena sea la tarjeta gráfica, no podrá reproducir. Hasta ahora, en el desarrollo de las tarjetas gráficas han surgido varias interfaces como ISA, PCI, AGP, PCI Express, etc., y el ancho de banda de datos que pueden proporcionar ha aumentado en secuencia. Entre ellos, la interfaz PCI Express lanzada en 2004 se ha convertido en la solución principal al problema de los cuellos de botella en la transmisión de datos entre tarjetas gráficas y sistemas, mientras que las tarjetas gráficas con interfaces ISA y PCI se han eliminado básicamente.

Matriz de gráficos de video

La información procesada por la tarjeta gráfica eventualmente se enviará al monitor, y la interfaz de salida de la tarjeta gráfica es el puente entre la computadora y el monitor. responsable de enviar las señales de imagen correspondientes al monitor. Los monitores CRT solo pueden aceptar entrada de señal analógica debido a razones de diseño y fabricación, lo que requiere una tarjeta gráfica para ingresar señales analógicas. La interfaz VGA es la interfaz de la tarjeta gráfica que emite señales analógicas. La interfaz VGA (Video Graphics Array) también se denomina interfaz D-Sub. Aunque la pantalla LCD puede recibir señales digitales directamente, muchos productos de gama baja utilizan una interfaz VGA para combinar con la tarjeta gráfica con interfaz VGA. La interfaz VGA es una interfaz tipo D con 15 pines divididos en tres filas de cinco en cada fila. La interfaz VGA es el tipo de interfaz más utilizado en las tarjetas gráficas y la mayoría de las tarjetas gráficas tienen esta interfaz.

Actualmente, la mayoría de los ordenadores se conectan a dispositivos de visualización externos a través de interfaces VGA analógicas. La información de la imagen de visualización generada digitalmente en la computadora se convierte en señales tricolores R, G y B y señales de sincronización horizontal y de campo mediante un convertidor digital/analógico en la tarjeta gráfica. Estas señales se transmiten al dispositivo de visualización a través de cables. Para dispositivos de visualización analógica, como monitores CRT analógicos, la señal se envía directamente al circuito de procesamiento correspondiente para impulsar y controlar el tubo de imagen para producir imágenes. Para dispositivos de visualización digital como LCD y DLP, se debe configurar un convertidor A/D (analógico/digital) correspondiente en el dispositivo de visualización para convertir señales analógicas en señales digitales. Después de la conversión D/A y A/D2, es inevitable que se pierdan algunos detalles de la imagen. Es comprensible que la interfaz VGA deba usarse para pantallas CRT, pero si se usa para conectar dispositivos de visualización como LCD, la pérdida de imagen durante la conversión reducirá ligeramente el efecto de visualización.

Digital Video Interactive

El nombre completo de DVI es Digital Visual Interface (Digital Visual Interface), desarrollado por Silicon Image, Intel (Intel), Compaq. Un estándar de interfaz lanzado en 1999 por el DDWG (Digital Display Working Group) de (Compaq), IBM, Hewlett-Packard, NEC, Fujitsu y otras empresas. Se basa en la tecnología de interfaz PanalLink de Silicon Image y el protocolo electrónico TMDS (Transmission Minimized Differential Signaling) como conexión eléctrica básica. TMDS es un mecanismo de señalización diferencial que codifica datos de píxeles y los transmite a través de una conexión en serie. La señal digital generada por la tarjeta gráfica es codificada por el transmisor de acuerdo con el protocolo TMDS, luego se envía al receptor a través del canal TMDS y luego se decodifica y se envía al dispositivo de visualización digital. Los sistemas de visualización DVI incluyen transmisores y receptores. El transmisor es la fuente de la señal y puede integrarse en el chip de la tarjeta gráfica o aparecer como un chip adicional en la PCB de la tarjeta gráfica. El receptor es un circuito en la pantalla que puede recibir señales digitales, decodificarlas y transmitirlas al circuito de la pantalla digital. A través de estos dos, la señal de la tarjeta gráfica se convierte en una imagen en el monitor.

Actualmente existen dos tipos de interfaces DVI. Una es la interfaz DVI-D, que sólo puede recibir señales digitales. Solo hay 24 pines en 3 filas y 8 columnas en la interfaz, y un pin en la esquina superior derecha está vacío. Señal analógica incompatible.

La otra es la interfaz DVI-I, que es compatible con señales tanto analógicas como digitales. Afortunadamente, la compatibilidad analógica no significa que la interfaz D-Sub de señales analógicas se pueda conectar a la interfaz DVI-I, sino que sólo se pueda utilizar a través de un conector de conversión. Generalmente, las tarjetas gráficas con esta interfaz tendrán conectores de conversión relacionados.

El uso de la interfaz DVI para dispositivos de visualización tiene las siguientes dos ventajas principales:

Primero, alta velocidad

DVI transmite señales digitales e información de imágenes digitales. se transmite directamente al dispositivo de visualización sin ninguna conversión, lo que reduce el complejo proceso de conversión de digital a analógico y luego a digital, lo que ahorra mucho tiempo, por lo que es más rápido y elimina eficazmente el fenómeno de la mancha. Y al utilizar DVI para la transmisión de datos, la señal no se atenuará y los colores serán más puros y realistas.

En segundo lugar, la imagen es clara

Las señales digitales binarias se transmiten dentro de la computadora. Si usa la interfaz VGA para conectarse a la pantalla LCD, necesita usar el convertidor D/A (digital/analógico) en la tarjeta gráfica para convertir la señal en los tres colores primarios de R, G y B y los colores horizontal y señales de sincronización vertical. Estas señales se transmiten a la pantalla LCD a través de líneas de señal analógica, y se requiere un convertidor A/D (analógico/digital) correspondiente para convertir la señal analógica en una señal digital nuevamente antes de que la imagen pueda mostrarse en la pantalla LCD. Durante los procesos de transmisión de señal y conversión D/A, A/D mencionados anteriormente, inevitablemente se producirán pérdidas de señal e interferencias, lo que provocará distorsión de la imagen e incluso errores de visualización. Sin embargo, la interfaz DVI no requiere estas conversiones, evita la pérdida de señal. y mejora enormemente la calidad de la imagen. Claridad y expresión de detalles.

Salida de TV

TV-Out se refiere a la interfaz relevante de la tarjeta gráfica que envía señales al televisor. En la actualidad, el tamaño de los monitores domésticos comunes no supera las 19 pulgadas y la pantalla es mucho más pequeña que la de un televisor. Especialmente cuando se miran películas y se juegan juegos, una pantalla más grande puede brindar un mayor disfrute visual. El precio de los monitores más grandes está fuera del alcance de los usuarios comunes, por lo que transmitir la pantalla a un televisor es una buena opción. Actualmente existen tres interfaces principales para la salida a televisores.

Una es utilizar la interfaz VGA, que es el tipo de interfaz que tienen la mayoría de las tarjetas gráficas, pero solo se puede implementar si hay una interfaz VGA en el televisor, y hay relativamente pocos televisores con esta interfaz, y la mayoría de ellos son un producto caro con poca popularidad. Este método no se usa comúnmente y no es a lo que la gente está acostumbrada a hablar sobre salida de video.

La otra es la interfaz de vídeo compuesto. La interfaz de vídeo compuesto utiliza la interfaz RCA, que es el equipo de TV actual.