¿Sparksql tiene una tabla dual similar?
Ninguno
ApacheSpark es un clúster informático rápido para cálculos rápidos. Está construido sobre Hadoop MapReduce, que extiende el modelo MapReduce para utilizar de manera eficiente más tipos de cálculos, incluidas consultas interactivas y procesamiento de flujo. Este es un breve tutorial que explica los conceptos básicos de la programación SparkSQL.