Red de conocimiento informático - Material del sitio web - Cómo monitorear el progreso y los resultados de las tareas de Hadoop y Spark a través de API en código

Cómo monitorear el progreso y los resultados de las tareas de Hadoop y Spark a través de API en código

Además, Spark puede escribir JDBC directamente df.write().mode(mode).jdbc(url, tableName, prop); también puede df.collect() para obtener List y luego defina su propia instrucción Insert SQL. No es necesario exportar de Hive a Oracle a través de Sqoop