Desarrollo de audio, parte 1
Para el audio, debemos reservar algunos conocimientos. Este artículo presenta principalmente los conocimientos básicos de audio. Necesitamos conocer la frecuencia de muestreo de audio, la frecuencia de muestreo, la cantidad de bits de muestreo, la cantidad de canales, los cuadros. ciclo de audio y formatos de datos de audio, formatos de archivo compatibles con iOS y algunos marcos para el procesamiento de audio de iOS, etc.
Frecuencia de muestreo:
8000 Hz - la frecuencia de muestreo utilizada por los teléfonos, que es suficiente para el habla humana
11025 Hz - la frecuencia de muestreo utilizada por las transmisiones AM
22050 Hz y 24 000 Hz: frecuencia de muestreo utilizada por la radio FM
32000 Hz: frecuencia de muestreo utilizada por la videocámara digital miniDV, DAT (modo LP)
44100 Hz - CD de audio, también utilizado comúnmente en audio MPEG-1 (VCD, SVCD, MP3) Frecuencia de muestreo utilizada
47250 Hz - Frecuencia de muestreo utilizada en grabadoras PCM comerciales
48000 Hz - miniDV, TV digital, frecuencia de muestreo utilizada para sonido digital utilizado en DVD, DAT, películas y audio profesional
50000 Hz - frecuencia de muestreo utilizada en grabadoras digitales comerciales
96000 o 192 000 Hz - DVD-Audio, algunos DVD LPCM Frecuencia de muestreo utilizada para pistas de audio, pistas de audio BD-ROM (Blu-ray Disc) y pistas de audio HD-DVD (DVD de alta definición)
2,8224 MHz - Transmisión directa Proceso de modulación sigma-delta de 1 bit de Digital La frecuencia de muestreo utilizada.
Bit rate: La velocidad de transmisión por segundo (bit rate, también llamada tasa de bits). Este concepto no es exclusivo del audio. Por ejemplo, 48,2 kbps o 48200 bps, donde b es bit y ps significa por segundo, lo que significa una capacidad de 48200 bits por segundo.
La frecuencia de muestreo se refiere al número de muestras de sonido obtenidas por segundo. Cuanto mayor sea la frecuencia de muestreo, mejor será la calidad del sonido y más realista será la restauración del sonido, pero al mismo tiempo consumirá más recursos. Dado que la resolución del oído humano es muy limitada, no se pueden distinguir frecuencias demasiado altas.
La frecuencia de muestreo comúnmente utilizada en la vida diaria es 22050 y la frecuencia de muestreo de calidad de CD es 44100.
El número de bits de muestreo: es decir, el valor de muestreo o el valor de muestreo (es decir, la amplitud de la muestra de muestreo se cuantifica), que registra la amplitud de la onda de sonido. Es un parámetro utilizado para medir cambios en las fluctuaciones del sonido. Cuanto mayor es su valor, mayor es la resolución. Es decir, cuanto más delicado es el sonido, mayor es la capacidad de producir sonido. Por ejemplo, 8 bits representan 2 elevado a la 8ª potencia: 256, y 16 bits representan 2 elevado a la 16ª potencia: 64K. En comparación, para la misma pieza de información musical, los bits de muestreo de 16 bits pueden dividirla en unidades de precisión de 64K para su procesamiento, mientras que los bits de muestreo de 8 bits solo pueden procesar 256 unidades de precisión, lo que resulta en una mayor pérdida de señal, por lo que el primero Audio grabado con más detalle. A continuación se muestran algunas comparaciones:
Número de canales: el número de canales de sonido. Por lo general, se divide en mono y estéreo. Mono solo puede usar un altavoz para sonar, mientras que el estéreo puede hacer que suenen dos altavoces para sentir mejor el efecto espacial. Por supuesto, hay más canales.
Lo que hay que tener en cuenta es: si es de dos canales, entonces la muestra se duplica y el archivo es casi el doble de grande.
Fotograma: un fotograma graba un sonido. unidad, en la que La longitud es el producto de la longitud de la muestra (bits de muestreo) y el número de canales.
Ciclo: el número de fotogramas necesarios para un procesamiento por parte del dispositivo de audio. El acceso a los datos del dispositivo de audio y el almacenamiento de datos de audio se basan en esta unidad.
Modo entrelazado: Forma en que se almacenan las señales de audio digital. Los datos se almacenan en fotogramas continuos, es decir, primero se graban la muestra del canal izquierdo y la muestra del canal derecho del fotograma 1 y luego se inicia la grabación del fotograma 2.
Modo no entrelazado: primero, se graban las muestras del canal izquierdo de todos los fotogramas de un ciclo y, a continuación, se graban todas las muestras del canal derecho.
La tecnología de compresión de audio se refiere a la aplicación de tecnología de procesamiento de señal digital adecuada al flujo de señal de audio digital original (codificación PCM) para reducir (compresión) su tasa de código, también conocida como codificación de compresión, tiene dos compresiones. métodos, a saber, compresión con pérdida (reduce la frecuencia de muestreo de audio y la velocidad de bits, el archivo de audio de salida será más pequeño que el archivo original) y compresión sin pérdida (la compresión sin pérdida puede. Con la premisa de preservar el 100% de todos los datos del archivo original, el archivo de audio se comprime a un tamaño más pequeño y, una vez restaurado, puede alcanzar el mismo tamaño y la misma velocidad de bits que el archivo fuente). Por ejemplo, MP3, WMA y OGG se denominan compresión con pérdida, y los formatos de compresión sin pérdida incluyen APE, FLAC, WavPack, LPAC, WMALossless, AppleLossless, La, OptimFROG y Shorten. Los únicos formatos de compresión sin pérdidas comunes y convencionales son APE y FLAC.
En iOS, puede utilizar los servicios proporcionados por Audio Convert Services para completar la conversión de formato de datos de audio. Se pueden completar los siguientes tres tipos de conversión.
No se recomienda utilizar los formatos AAC y MP3 al grabar audio, ya que consumen energía y rendimiento de la CPU. Apple recomienda utilizar los siguientes formatos.
Hay tres paquetes de datos en el formato de datos de audio:
Core Audio es el marco de Apple para el procesamiento de audio. Está dividido en tres capas de interfaces. No podemos usar la capa inferior directamente. Por lo tanto, a continuación presentaremos principalmente la interfaz entre el nivel medio y el nivel alto. Como se muestra a continuación.
Audio Unit es la capa más baja de todos los marcos de audio en iOS y OS X. Ya sea que use AVAudioRecorder, AVAudioPlayer, Audio Queue Service, OpenAL, etc., la implementación subyacente final se completa a través de Audio Unit.
Las unidades de audio disponibles en iOS son limitadas. Puede personalizar una unidad de audio en OS X, pero esto no es posible en iOS. Solo puede usar la unidad de audio proporcionada por el sistema.
¿Pero cuándo utilizar Audio Unit? La declaración oficial es que cuando necesita alta controlabilidad, alto rendimiento, alta flexibilidad o necesita algunas funciones especiales (como la cancelación de eco, que solo es compatible con la unidad de audio, y todas las API de alto nivel no admiten la cancelación de eco), Sólo es necesario utilizar la unidad de audio.
Unidades de audio: Está encapsulado en el archivo de cabecera AUComponent.h. Las unidades de audio iOS utilizan datos de audio PCM lineal de punto fijo de 8,24 bits para entrada y salida. iOS proporciona 4 tipos de unidades de audio que se enumeran a continuación, mientras que hay alrededor de 40 unidades de audio más en OS X.
Nota: La actualización real de Core Audio está en progreso...
Referencia: /other/aoshilang2249/92451.html