Cómo cambiar el DJI Xiao Spark al control del teléfono móvil
Hay instrucciones en la interfaz de la aplicación. Mantenga presionado el botón de encendido y luego se escucha un sonido de "bip". Continúe presionando hasta que se escuche el sonido de "bip" y el cambio se realice correctamente.
1. Conceptos básicos
1. Apache Spark es un motor informático rápido y general diseñado para el procesamiento de datos a gran escala. Spark es un marco paralelo universal similar a Hadoop MapReduce de código abierto del laboratorio AMP de UC Berkeley. Spark tiene las ventajas de Hadoop MapReduce pero, a diferencia de MapReduce, los resultados de salida intermedios del trabajo se pueden guardar en la memoria, no es necesario. para leer y escribir HDFS, por lo que Spark puede adaptarse mejor a los algoritmos de MapReduce que requieren iteración, como la minería de datos y el aprendizaje automático.
2.Spark es un entorno informático de clúster de código abierto similar a Hadoop, pero existen algunas diferencias entre los dos. Estas diferencias útiles hacen que Spark funcione mejor en ciertas cargas de trabajo, en otras palabras, Spark lo habilita. conjuntos de datos distribuidos en memoria, que además de poder proporcionar consultas interactivas, también pueden optimizar cargas de trabajo iterativas.
3.Spark está implementado en el lenguaje Scala y utiliza Scala como marco de aplicación. A diferencia de Hadoop, Spark y Scala están estrechamente integrados, y Scala permite manipular conjuntos de datos distribuidos tan fácilmente como los objetos de colección local.
2. El punto de partida para aprender big data
Spark tiene tres características principales:
Primero, la API de alto nivel elimina el enfoque en el clúster. Los propios desarrolladores de aplicaciones Spark pueden centrarse en los cálculos requeridos por la aplicación.
En segundo lugar, Spark es rápido y admite cálculos interactivos y algoritmos complejos.
Finalmente, Spark es un motor de propósito general que se puede utilizar para completar una variedad de operaciones, incluidas consultas SQL, procesamiento de texto, aprendizaje automático, etc. Antes de que apareciera Spark, generalmente necesitábamos aprender varios tales. Los motores pueden manejar estos requisitos respectivamente.