Red de conocimiento informático - Conocimiento informático - ¿Necesito aprender Hadoop primero para aprender Spark?

¿Necesito aprender Hadoop primero para aprender Spark?

No necesariamente, si no está utilizando HDFS y YARN para Hadoop, puede comenzar con Spark implementado en modo independiente con datos cargados localmente. Spark reemplaza el paradigma de programación MapReduce en Hadoop, excluyendo los módulos de almacenamiento y gestión de recursos.

Spark tiene muchos métodos informáticos. Escribir programas es mucho más flexible que MapReduce en Hadoop y es casi lo mismo que escribir programas normales. Solo necesita usar paquetes y bibliotecas de Spark. Pero debes elegir un idioma, ya sea que Spark use Scala o Java Python, etc. Estoy aprendiendo Scala ahora. Simplemente no tengo que preocuparme por tantos azúcares de sintaxis y la concisión al usarlo. posible sin afectar la lógica del programa.

Hadoop se puede leer y comprender. Spark básicamente puede hacer lo que Hadoop MapReduce puede hacer, pero Spark consume memoria y, a menudo, OOM.