Red de conocimiento informático - Material del sitio web - ¿Qué herramientas de análisis de big data existen?

¿Qué herramientas de análisis de big data existen?

1.Hadoop

Hadoop es un marco de software que permite el procesamiento distribuido de grandes cantidades de datos. Hadoop es confiable porque supone que los elementos informáticos y el almacenamiento fallarán, por lo que mantiene múltiples copias de trabajo de los datos, lo que garantiza que el procesamiento se pueda redistribuir entre los nodos fallidos. Hadoop también es escalable y puede manejar petabytes de datos. Además, Hadoop depende de servidores comunitarios, por lo que el costo es relativamente bajo y cualquiera puede usarlo.

2. HPCC

HPCC es un acrónimo de Computación y Comunicaciones de Alto Rendimiento, creado por el Congreso en 1993 por el Consejo Coordinador Federal de Ciencia, Ingeniería y Tecnología. Programa Gran Desafío: ¿Computación y Comunicaciones de Alto Rendimiento? En 1993, el Consejo Federal de Coordinación de Ciencia, Ingeniería y Tecnología (FCCST) de los Estados Unidos presentó un informe al Congreso sobre el "Proyecto Gran Desafío": Computación y Comunicaciones de Alto Rendimiento (HPCC), también conocido como el programa HPCC, el plan del Presidente de los Estados Unidos. Science Strategy HPCC es un esfuerzo estadounidense para implementar la superautopista de la información con el objetivo principal de desarrollar computación escalable mediante la intensificación de la investigación y el desarrollo de sistemas y software relacionado para respaldar el rendimiento de la red a nivel de terabits, desarrollar tecnología de redes gigabit y ampliar la capacidad de investigación y. instituciones y redes educativas

3. Storm

Storm es un software gratuito de código abierto, es un sistema informático distribuido tolerante a fallas y admite múltiples lenguajes de programación. y es muy interesante de usar

4. Apache Drill

Para ayudar a los usuarios empresariales a encontrar una forma más eficiente de acelerar las consultas de datos de Hadoop, la Apache Software Foundation. lanzó un proyecto de código abierto llamado Drill que implementa Dremel de Google.

Según Tomer Shiran, gerente de producto del proveedor de Hadoop MapR Technologies, "Drill" se ha estado ejecutando como un proyecto de incubación de Apache y seguirá siéndolo. promovido a ingenieros de software de todo el mundo

5. RapidMiner

RapidMiner es la solución de minería de datos líder en el mundo en muchos países. Tiene tecnología avanzada y tiene una amplia gama. de tareas de minería de datos, incluidas varias artes de datos, que pueden simplificar el diseño y la evaluación de los procesos de minería de datos

6. Pentaho BI

La plataforma Pentaho BI es diferente de los productos de BI tradicionales. Es un marco centrado en procesos y orientado a soluciones. Su propósito es integrar una serie de productos de BI de nivel empresarial, software de código abierto, API y otros componentes para promover la inteligencia empresarial. Su aparición permite el desarrollo de una serie de aplicaciones comerciales independientes. productos de inteligencia como Jfree y Quartz se integrarán para formar soluciones de inteligencia empresarial complejas y completas.