Red de conocimiento informático - Material del sitio web - Capacidades de big data

Capacidades de big data

Big data se refiere a una colección de datos cuyo contenido no se puede capturar, gestionar y procesar dentro de un cierto período de tiempo utilizando herramientas de software tradicionales. Big data tiene cinco características: gran cantidad, alta velocidad, muchos tipos, baja densidad de valor y gran autenticidad. No tiene ningún método de muestreo estadístico, solo observa y rastrea lo que sucede. El uso de big data tiende a utilizar análisis predictivos, análisis del comportamiento del usuario o algún otro método avanzado de análisis de datos.

Campos de aplicación

Inteligencia artificial, BI, Industria 4.0, computación en la nube, Internet de las cosas, Internet

Características

Gran capacidad, alta velocidad, variedad, valor, autenticidad

Propuesto por

Viktor Mayer Schönberg, Kenneth Coon

Big data y computación en la nube

Investigación La organización Gartner define "big data" de la siguiente manera. "Big data" se refiere a la necesidad de nuevos modelos de procesamiento para tener capacidades de toma de decisiones más sólidas, capacidades de descubrimiento de conocimientos y capacidades de optimización de procesos, a fin de adaptarse al volumen masivo, la alta tasa de crecimiento y la diversidad de activos de información.

McKinsey Global Institute lo define como: una colección de datos que es tan grande que excede las capacidades de adquisición, almacenamiento, gestión y análisis de las herramientas de software de bases de datos tradicionales. Tiene una escala de datos enorme, una velocidad de flujo de datos rápida. y diversos tipos de datos, baja densidad de valor y otras características.

La importancia estratégica de la tecnología de big data no radica en dominar una gran cantidad de información, sino en el procesamiento profesional de estos datos significativos. En otras palabras, si se compara el big data con una industria, entonces la clave para la rentabilidad de esta industria es mejorar la "capacidad de procesamiento" de los datos y lograr el "valor agregado" de los datos mediante el "procesamiento". "Técnicamente hablando, la relación entre big data y computación en la nube es tan inseparable como las dos caras de una moneda. Los big data no pueden ser procesados ​​por una sola computadora, sino que deben utilizar una arquitectura distribuida. Se caracteriza por el procesamiento de cantidades masivas de datos. Minería de datos distribuida, pero debe depender del procesamiento distribuido, la base de datos distribuida y el almacenamiento en la nube y la tecnología de virtualización de la computación en la nube. La preocupación es que los big data se utilizan a menudo para describir las grandes cantidades de datos no estructurados y semiestructurados creados por las empresas que costarían mucho tiempo y dinero si se descargaran en una base de datos relacional para su análisis. informática porque el análisis en tiempo real de grandes conjuntos de datos requiere el uso de marcos como MapReduce para distribuir el trabajo entre docenas, cientos o incluso miles de computadoras.

Los datos grandes requieren tecnologías especiales para procesar de manera eficiente grandes conjuntos de datos. cantidades de datos en un tiempo asequible. Las tecnologías adecuadas para big data incluyen bases de datos de procesamiento paralelo masivo (MPP), minería de datos, sistemas de archivos distribuidos, bases de datos distribuidas, plataformas de computación en la nube e Internet y sistemas de almacenamiento escalables. p>La unidad básica más pequeña es el bit y todas las unidades son: bit, Byte, KB, MB, GB, TB, PB, EB, ZB, YB, BB, NB, DB.