Red de conocimiento informático - Conocimiento de Internet de las cosas - ¿Es necesario aprender programación para aprender big data?

¿Es necesario aprender programación para aprender big data?

Cuando se trata de programación, muchos amigos sentirán dolor de cabeza. Los códigos complejos y profundos confunden a la gente. Muchos amigos que quieren aprender big data quieren saber si se puede aprender big data sin aprender a programar. El autor ha recibido muchas preguntas similares. Este artículo explicará en detalle si se puede aprender big data sin aprender a programar. / ¡Para responder las preguntas que tienes en mente!

1: En primer lugar, debo decirte con seguridad que debes aprender a programar para aprender big data. ¡Aprender big data requiere algunos conocimientos de programación, pero programación no lo es! El punto, el punto es la base de datos. En principio, el desarrollo de big data requiere una base en lenguajes de programación, porque el desarrollo de big data se basa en algunos lenguajes de alto nivel de uso común, como java y .Net. Si desea participar en el desarrollo de big data, aún debe dominar al menos un lenguaje de alto nivel, lo que definitivamente implica conocimientos de programación.

2: ¿Se puede aprender big data sin aprender programación? Todo el mundo ya conoce la respuesta a esta pregunta. Hablemos ahora sobre qué aprender sobre big data. Para convertirse en un ingeniero de big data calificado, debe estar familiarizado con el ecosistema de Hadoop, estar familiarizado con la implementación, construcción, configuración y optimización de varios componentes como hilo, hdfs, hbase, hive, etc.; estar familiarizado con el sistema Linux; y ser competente en el uso de shell o python para el desarrollo y prueba de scripts comunes.

3: Además, los ingenieros de big data también deben estar familiarizados con el análisis de big data, ser competentes en el uso de Spark, análisis de reducción de mapas y optimización de algoritmos, y estar familiarizados con al menos un lenguaje en Java y Scala; recopilación y almacenamiento de datos, competente en el uso de flume, kafka, sparkstreaming, storm para recopilar, limpiar y almacenar datos, familiarizado con la recuperación de texto completo de big data, competente en el uso de al menos un marco de motor de búsqueda como elasticsearch, sorl, lucene, etc. .