Varios problemas centrales que deben resolverse en la clasificación de imágenes hiperespectrales y la detección de objetivos
(1) Cuantificación del espectro
La clasificación de imágenes hiperespectrales y la detección de objetivos se basan en el espectro de objetos terrestres y sus características físicas y químicas Alguna relación cuantitativa lineal o no lineal entre los componentes materiales. Por lo general, las imágenes hiperespectrales se ven afectadas por múltiples factores, como sensores, propagación atmosférica, relieve del terreno y entorno geofísico. , sus valores DN son inconsistentes con los verdaderos valores de reflectividad de los objetos terrestres. Por lo tanto, es muy importante establecer una relación cuantitativa entre el valor DN original del objeto terrestre obtenido por el sensor y el valor de reflectancia estándar del objeto terrestre.
(2) Desmezcla espectral
Los píxeles puros verdaderos solo pueden existir en un estado ideal. Los píxeles mezclados son omnipresentes en las imágenes de detección remota, lo que restringe seriamente la clasificación y la detección de objetivos. Generalmente existen formas lineales y no lineales de mezclar píxeles. Cuando los objetos de los miembros finales en el campo de visión están distribuidos horizontalmente en un área determinada y no se cruzan entre sí, el modelo de mezcla espectral es lineal cuando los objetos de los miembros finales en el campo de visión están distribuidos transversalmente; hay múltiples dispersiones entre los miembros finales, el modelo de mezcla espectral no es lineal.
(3) Reducción de dimensionalidad y extracción de características
Las bandas espectrales subdivididas de imágenes hiperespectrales proporcionan información extremadamente rica para la extracción de información de objetos terrestres. Sin embargo, un gran número de bandas conducirá inevitablemente a una redundancia de información y aumentará la complejidad del procesamiento de la información. Por lo tanto, para la clasificación de imágenes hiperespectrales y la detección de objetivos, la reducción de la dimensionalidad de los datos hiperespectrales (Figura 1.3) y la extracción de características son particularmente importantes. Los métodos tradicionales de reducción de dimensionalidad incluyen análisis de componentes principales (PCA), factor de autocorrelación mínimo/máximo (MAF), fracción mínima de ruido (MNF), componente principal ajustado al ruido (NAPC), análisis canónico (CA) y análisis de componentes independientes (ICA). , ICA, seguimiento de proyecciones (PP), análisis de correlación canónica (CCA), factorización matricial no negativa (NMF) y análisis de componentes principales no lineales (KPCA). Los métodos de reducción de dimensionalidad más avanzados actualmente incluyen el uso de múltiples algoritmos de aprendizaje en el aprendizaje automático, como el mapa de características isométricas recientemente desarrollado, la incrustación lineal local (LLE), el mapa de características laplaciano, la disposición del espacio tangente local (LTSA) y la escala multidimensional. (MDS).
Figura 1.3 Reducción de dimensionalidad de datos hiperespectrales
(4) Fenómeno de Hughes
En la clasificación supervisada de imágenes hiperespectrales, la experiencia muestra que cuando el número de muestras de entrenamiento El mejor efecto se logra cuando es 100 veces la dimensión espectral. Pero para imágenes con cientos de bandas, esto suele ser inalcanzable. Cuando el número de muestras de entrenamiento es constante, la precisión de la clasificación primero aumentará y luego disminuirá a medida que aumenta el número de bandas. Este es el fenómeno de Hughes (Hughes, 1968) en la clasificación de imágenes hiperespectrales, que se explicará en 2.1.
(5) Objetivos de baja probabilidad
Los objetivos existen en varias formas en imágenes hiperespectrales, como baja probabilidad, baja exposición e incluso subpíxeles. Estos objetivos se denominan colectivamente objetivos de baja probabilidad, y los objetivos de interés en imágenes hiperespectrales a menudo existen en esta forma, lo que también supone una dificultad en la clasificación y detección de objetivos.
(6) Eficiencia del procesamiento
La información masiva de los datos de imágenes hiperespectrales determina la necesidad de mejorar la eficiencia del procesamiento mediante operaciones paralelas. La computación paralela utiliza la integración de unidades de procesamiento para resolver el problema del procesamiento masivo de datos.
Su eficiencia de procesamiento generalmente se expresa mediante la relación de aceleración, que se define como la relación entre el rendimiento informático de varios procesadores y el rendimiento informático de un solo procesador. La NASA ha desarrollado un miniclúster portátil y Estados Unidos también ha desarrollado un simulador de la Tierra utilizando un procesador 5120 para resolver este problema.