Diseño de sistema de construcción de viviendas inteligentes
El diseño general de la estructura y el principio de funcionamiento del sistema
Actualmente, la mayoría de los dispositivos de control de acceso a edificios son un simple interruptor electrónico controlable
generalmente controlado mediante diálogo de voz por cable. Este método no tiene capacidades de visualización ni de control inalámbrico, y tiene las desventajas de efectos interactivos deficientes, implementación de redes cableadas engorrosas e inteligencia insuficiente. Con el rápido desarrollo de la tecnología de codificación y decodificación de video y la tecnología de transmisión inalámbrica, los sistemas de construcción inteligentes también se han desarrollado rápidamente. Los productos de redes inalámbricas integradas se han utilizado cada vez más debido a sus ventajas de tamaño pequeño, bajo costo, uso flexible y conveniente. A medida que el mercado de edificios inteligentes continúa calentándose, los sistemas de timbre
se han convertido en una parte importante de las oficinas y comunidades inteligentes.
El sistema de timbre visual inalámbrico comunitario inteligente presentado en este estudio está
diseñado en base al protocolo de red inalámbrica 802.11
bajo tales perspectivas de aplicación.
Como se muestra en la Figura 1, el sistema utiliza un
IDT RC32434 integrado de bajo consumo y alto rendimiento como chip de control principal y utiliza el chip VW2010 como hardware
Codificación y decodificación en tiempo real para mejorar la eficiencia de codificación y decodificación, utilizando el chip inalámbrico
BGW200 de la empresa PHILIPS para el control de reenvío de transmisiones de audio y vídeo. Todo el sistema consta de dos partes: el servidor y el cliente. Implementa principalmente funciones de recopilación de datos de audio y video, codificación y decodificación de alta calidad y transmisión de red inalámbrica.
●Principio de funcionamiento del lado del servidor
La señal de entrada del sensor CCD y el puerto de audio se convierte mediante vídeo A/D y audio A/D, realiza codificación de vídeo MPEG4 y p>
Codificación de audio MPEG MP3. El flujo de video y audio codificado se envía a la red
Después de empaquetar el módulo de multiplexación, el flujo de datos comprimido y codificado se envía al cliente a través de la red inalámbrica 802.11x
. Como se muestra en la Figura 1 a continuación:
El principio de funcionamiento del cliente del sistema
Los datos de flujo de audio y video recibidos por la red inalámbrica son demultiplexados por la red
Uso del módulo para decodificar Después de la multiplexación, el flujo de código de video y el flujo de código de audio obtenidos se envían al módulo de decodificación de video y al módulo de decodificación de audio respectivamente para la decodificación de video MPEG4 y la decodificación de audio MP3. Los datos decodificados se envían al terminal visual para su visualización después de la codificación de vídeo analógico, D/A
y conversión de audio D/A. Como se muestra en la Figura 2 a continuación:
El diseño de hardware del sistema se divide principalmente en cuatro partes: sistema de control principal, sistema de recopilación de audio
video, sistema de códec multimedia y red inalámbrica. sistema.
Se trata de un MIPS de 64 bits que integra una controladora NAND Flash
(FlashC), controladora de bus PCI de 32 bits (PCIC), controladora DMA de 4 canales,
Controlador SDRAM de 4 canales (SDRAMC), controlador de bus externo (EBUSC),
interfaz de bus externo (E-BUSI) y 2 puertos serie universales, etc., y a través del bus interno
Line los controla por separado. El chip proporciona frecuencias de hasta 400 MHz
Interfaz de interconexión de componentes periféricos (PCI) estándar integrada, se puede conectar con 802.11a/b/g y serie VI, y se pueden conectar otros dispositivos periféricos avanzados. Tiene una velocidad de procesamiento rápida, funciones potentes y un rendimiento de alto costo.
Puede satisfacer las necesidades de los sistemas ucLinux integrados.
SAA 7110 es un decodificador de vídeo frontal programable producido por Philips Company que puede convertir la señal analógica de vídeo de entrada en una señal digital YUV. Contiene tres canales de procesamiento analógico internos, que pueden realizar la selección de fuentes de vídeo. Los formatos de salida de datos son YUV 4:1:1 (8 bits) y YUV4:2: 2 (8 bits) dos tipos.
También incluye filtrado anti-aliasing, conversión A/D, fijación automática, control automático de ganancia, generación de reloj, decodificación multiformato y funciones de control de brillo, contraste y saturación.
El sistema utiliza VW2010 como chip códec multimedia, que es un
chip de compresión/descompresión de audio y vídeo MPEG-4 en tiempo real. Hay tres unidades de control/procesamiento de señal integradas en el chip, que incluyen un codificador de video (compresor), un decodificador de video (descompresor) y una CPU en el chip (expande internamente un DSP de codificación de audio, un DSP de decodificación de audio y un multi-. unidad compuesta de canal y una unidad de descomposición multicanal. Tiene características programables, de alto rendimiento y de bajo consumo de energía, porque cada unidad de procesamiento/control de señal consta de un procesador RISC y un acelerador de hardware dedicado. El chip utilizado en el módulo inalámbrico es BGW200. de PHILIPS El chip se conecta al puerto SPI1 del procesador a través del puerto serie de alta velocidad SPI2 (Seria
Peripheral Interface, interfaz periférica serie) es una interfaz periférica síncrona que permite
Quizás MCU se comunica e intercambia datos con varios dispositivos periféricos en serie
Cuando IDTRC32434 y BGW200 se comunican entre sí, solo pueden comunicarse a través de
El puerto SPI2 de Se lleva a cabo BGW200. En este momento, IDT RC32434 es el maestro (HOST),
BGW200 es el esclavo (SLAVE) y el reloj de transmisión está controlado por el HOST. Este diseño de software del sistema se divide principalmente en tres capas según el nivel: inicialización del sistema, arranque y trasplante del kernel del sistema integrado, escritura de controladores periféricos (incluido el controlador de la cámara USB, el controlador del módulo de red inalámbrica, etc.). recopilación de datos y transmisión inalámbrica.
Aunque el kernel de Linux es pequeño y eficiente, los recursos de hardware del sistema integrado son limitados, por lo que Linux no se puede utilizar directamente como sistema operativo.
p>3. Diseño de hardware
4. Diseño de software
1. El chip de control principal utiliza cámara IDT RC32434 y A/. Chip de conversión D
3. Chip de códec multimedia
4. Chip 802.11b
1. Arranque del sistema, trasplante de kernel y sistema de archivos
La aplicación personaliza el sistema configurando el kernel, cortando el shell y la biblioteca C integrada,
para que todo el sistema pueda almacenarse en un sistema Linux integrado de menor capacidad.
El sistema se compone principalmente de 4 partes: el archivo para arrancar el kernel (bootloader),
archivo del kernel de Linux (kernel), archivo de disco virtual (ramdisk), archivo de espacio de usuario
p>
archivo (usuario). Colóquelos en los 4 módulos de partición en DataFlash.
Si no se requieren cambios dinámicos, utilice el sistema de archivos de solo lectura ROMFS, que ahorra más espacio;
p>Se requieren más operaciones de lectura y escritura en el módulo de usuario, por lo que se utiliza el sistema de archivos JFFS2 que admite borrado dinámico
escritura y guardado. Después de construir la plataforma de software, lo siguiente implica principalmente el diseño del controlador de cámara USB y el módulo de controlador inalámbrico, el módulo de adquisición de video y el diseño del programa basado en el módulo de transmisión de red inalámbrica 802.11.
2. Controlador de cámara USB
Después de configurar el entorno de desarrollo Linux integrado, el siguiente paso es completar primero el controlador de cámara USB.
Video4Linux (V4L) es el controlador del kernel para dispositivos de video en Linux. Proporciona una serie de funciones de interfaz para la programación de aplicaciones de dispositivos de video. Para la cámara con puerto USB, su controlador proporciona la implementación de las funciones básicas de interfaz de operación de E/S de apertura, lectura, escritura y cierre.
Cuando una aplicación realiza una operación de llamada al sistema en un archivo de dispositivo, el kernel de Linux accederá a las funciones proporcionadas por el controlador a través de la estructura de operaciones de archivo. Seleccione el modo de carga dinámica durante la compilación.
Después de confirmar que la cámara USB funciona normalmente, el siguiente paso es utilizar el conjunto de funciones API proporcionado por Video4Linux para escribir un programa de captura de video.
3. Recopilación de datos de audio y vídeo
Después de completar el controlador de la cámara USB, puede programar la captura de vídeo para el archivo del dispositivo
/dev/video. Las principales funciones utilizadas son: Camera open(): se utiliza para abrir el archivo del dispositivo de vídeo;
Capacidad de obtención de cámara(): para obtener información relevante del archivo del dispositivo;
Obtención de cámara imagen (): obtiene información relacionada con la imagen; cierre de cámara (
): se usa para cerrar el archivo del dispositivo; captura de imagen de la cámara (): se usa para capturar la imagen,
Adoptar mmap; método para asignar directamente el archivo del dispositivo /dev/video0 a la memoria,
Acelerar las operaciones de E/S de archivos y también habilitar múltiples subprocesos para compartir datos. Como se muestra en la Figura 3.
4. Códec de compresión de audio y video
Después de obtener los datos de la imagen, se pueden enviar directamente a FrameBuffer
para su visualización. Dado que este sistema necesita que el audio y el vídeo recopilados se transmitan a través de la red inalámbrica, los datos de la imagen original deben comprimirse y codificarse antes de la transmisión. Aquí, el chip VW2010 está. seleccionado para implementar el esquema de códec de vídeo MPEG-
p>4. En comparación con otros estándares, MPEG-4 tiene una relación de compresión más alta, ahorra espacio de almacenamiento y tiene una mejor calidad de imagen. Es especialmente adecuado para transmitir video en condiciones de ancho de banda bajo y puede mantener la calidad de la imagen. Después de comprimir y codificar la transmisión de vídeo
, el siguiente paso es implementar la función de la parte de transmisión de red
.
La arquitectura de software del módulo de controlador inalámbrico se divide en tres partes: controlador de cliente (
controlador de cliente), capa de abstracción de hardware del host (HHAL) y sistema operativo del host
Capa de abstracción (HOSAL). Un controlador de dispositivo es esencialmente una colección de funciones relacionadas. Utiliza la estructura file_operations para conectarse al sistema de archivos.
El kernel usa esta estructura para acceder a las funciones del controlador.
Esta estructura de datos está definida en
, cada variable miembro apunta a una función para una operación específica en el controlador.
Para funciones de operación no disponibles, la función miembro correspondiente puede establecer el bit
NULO.
Los controladores del dispositivo suelen incluir las siguientes tres partes principales: (
1) Registro y baja del controlador; (2) Apertura y liberación del dispositivo (3)
Operaciones de lectura y escritura del dispositivo. Para los módulos que deben cargarse dinámicamente, al ejecutar Makefile, se generará el archivo de destino
wireless.o en el directorio actual. Descargue el archivo de destino wireless.o al sistema de archivos ya programado
. Después de que se reinicie la placa de destino, ejecute el comando: insmod
wireless.o para vincular el módulo del controlador inalámbrico al kernel. Una vez que un controlador está registrado en la tabla del núcleo, las operaciones en el controlador corresponden a su número de dispositivo principal. Cuando la aplicación realiza
ciertas operaciones en el archivo del dispositivo, el núcleo encontrará y
llamará la función correcta desde la estructura file_operations. Para desinstalar el módulo, ingrese el siguiente comando:
rmmod wireless.o.
(1) Inicialización
La inicialización del sistema incluye la inicialización de SAA 7110, VW2010, RC32434,
BGW20 y otros chips. El proceso de inicialización incluye principalmente realizar las operaciones correspondientes en algunos registros de datos, registros de direcciones, registros de servicio de interrupción, etc. para formar el estado inicial del entorno operativo del sistema.
(2) Estrategia de control de transmisión
Después de encender e iniciar el proceso de inicialización, la
señal de vídeo analógico de la cámara USB del lado del servidor es decodificada por el vídeo SAA7110 bajo control del programa
El chip completa la conversión de analógico a digital y luego el chip de codificación mpeg4 VW2010 realiza la transformación DCT, la codificación de cuantificación y la entropía en la señal de imagen digital recibida
6. Red inalámbrica Después de codificar el proceso de control de transmisión
, el flujo de datos se envía al FIFO correspondiente dentro de la SDRAM
. RC32434MCU busca el indicador de sincronización de cuadros en el FIFO. Si lo encuentra, determina si hay un cuadro de datos en el búfer. Si es así, el microprocesador lo lee. saca el flujo de datos comprimidos y lo envía a BGW20 realiza expansión y modulación de frecuencia y lo transmite. El proceso de inicialización del cliente es similar al del servidor. Una vez inicializado el sistema, interactúa con el servidor para establecer una conexión de red y utiliza SDRAM como búfer de datos para la decodificación física. La interfaz LCD se utiliza para conectar la pantalla LCD para mostrar imágenes. En todo el sistema
, RC32434 completa la inicialización de cada dispositivo y coordina el trabajo de todo el sistema
.
El sistema utiliza el chip MIPS de 64 bits IDT RC32434 como controlador principal
y VW2010 como chip de codificación y decodificación MPEG-4 para implementar el puerto de red
flujo de código MPEG-4 de entrada y salida, utilizando el módulo inalámbrico BGW200 para transmisión de datos de audio y video, combinado con tecnología avanzada de transmisión inalámbrica multimedia en la plataforma uclinux, los resultados muestran que tiene una mayor eficiencia de transmisión
En comparación con los equipos de control de acceso comunes, este sistema tiene mayor flexibilidad
y mayor escalabilidad, capacidades de interacción y capacidades de control. Además, esta tecnología de transmisión inalámbrica de audio y vídeo también puede utilizarse ampliamente en televisión IP, televisión por satélite, sistemas de seguridad, sistemas de edificios inteligentes y televisión digital basada en el estándar MPEG-4
En sistemas de radiodifusión, la aplicación las perspectivas son muy amplias.
5. Controlador del módulo de red inalámbrica
6. Proceso de control de transmisión de red inalámbrica
5. Conclusión
Referencias
[1] Du Chunlei, "ARM Architecture and Programming", Tsinghua University Press, 2003.
Computadora del centro de administración
, host
, extensión de usuario
, Máquina de pared
, Convertidor de red
, Repetidor,
Protector,
Decodificador, p>
Fuente de alimentación,
Controlador de desbloqueo,
Sistema de cableado integrado
Sistema de TV por cable
Sistema de monitoreo CCTV p>
Sistema de control de accesos (incluido videoportero)
Sistema de alarma antirrobo
Sistema domótico de edificios
Sistema de conferencias
Sistema de radiodifusión