¿Cuáles son los conceptos erróneos sobre el análisis de datos?
¿Su organización está considerando las mejores formas de analizar datos? Aquí hay seis mitos sobre big data que se deben tener en cuenta antes de adoptar el análisis de big data.
El uso de la computación en la nube, velocidades de procesamiento de datos más rápidas y el gran volumen de datos que se introducen en IoT significa que las organizaciones ahora están recopilando cantidades de datos sin precedentes. Los macrodatos son más grandes que nunca. Sin embargo, cómo organizar, procesar y comprender los datos sigue siendo un desafío importante para muchas organizaciones.
¿Tu empresa todavía está intentando entender qué es el big data y cómo gestionarlo? Aquí hay seis mitos sobre big data que los expertos de la industria le ayudarán a desacreditar.
1. ¿Malentendidos sobre el análisis de datos? Big data significa muchos datos
Actualmente, big data se ha convertido en una palabra de moda. Pero su verdadero significado muchas veces no está claro. Algunas personas piensan que los big data son simplemente una gran cantidad de datos. Pero ese no es el caso. La situación real es más complicada. Big data se refiere a conjuntos de datos estructurados (como tablas) o no estructurados (como metadatos en correos electrónicos) que se combinan con datos como análisis de redes sociales o datos de IoT para formar una historia más amplia. La historia del big data ilustra lo difícil que es para las empresas captar tendencias utilizando métodos analíticos tradicionales.
"Creo que es una buena idea", afirmó Jim Harding, director de investigación de datos del Toyota Research Institute. Adler lo dijo mejor: "Los datos tienen calidad. Los datos tienen calidad. Es como el agua: el agua en un recipiente de vidrio es fácil de manejar. Pero si se desborda, se vuelve imparable. En un sistema de análisis de datos, los datos de la máquina se eliminará y el volumen de datos aumentará 100 o 1000 veces. Entonces, el prototipo es pequeño, pero la arquitectura es grande
2. El mayor error es pensar que es necesario tener datos limpios para analizarlos, dijo el CEO de BeyondCore, Aligat Sengup. "Es una idea loca que los datos deban limpiarse o no serán utilizables. Hay que analizar todos los datos, incluso si están sucios. ", dijo. Al mostrarle algunos patrones que, a pesar de la mala calidad de los datos, son perfectamente capaces de realizar un análisis normal, ahora puede concentrarse en la calidad de los datos, mejorarlos y obtener mejores conocimientos.
Megan Outsourcing, director de inteligencia de negocios y análisis de Inoutsourcing, está de acuerdo en que muchas veces las empresas se demoran porque creen que los datos no están limpios o no son necesarios y que las aplicaciones de análisis implementadas podrán identificar estas debilidades una vez que se descubran. , se puede desarrollar un plan de limpieza. Las aplicaciones de análisis pueden utilizar un mecanismo para acelerar el proceso de limpieza y monitoreo, dijo Bootzmein. Luego puede ver la imagen completa del ciclo de vida de la aplicación, puede ver las relaciones entre los datos agregados y usted. Rápidamente te darás cuenta de que no tienes suficientes datos. Ella dijo: "Como puede ver, el problema con los datos es que proporcionan una base para limpiarlos.
3. ¿Errores en el análisis de datos? Esperar a que los datos sean perfectos
Hay otra razón por la que no deberías esperar para limpiar tus datos, dice Sengupta. Puede llevar hasta tres meses limpiarlos por completo, pero después de tres meses, los datos están desactualizados, por lo que la información ya no es relevante.
Sengupta dijo que Josh Holloway del First National Bank ha estado trabajando en este proyecto durante años, y Josh mostró cómo ejecutó el análisis, encontró los problemas, analizó los cambios y lo volvió a ejecutar analítico. "Escuche, mi tiempo de análisis es de solo cuatro o cinco minutos. Entonces, si puedo analizar, encontrar el problema, solucionarlo, analizar nuevamente, mirar el informe y luego cambiar mi método de análisis en cuatro o cinco minutos". luego puedo completar el análisis en cuatro o cinco minutos.
Sengupta usó la codificación como metáfora de cómo solía ser. Hice todo bien y luego comencé a escribir código. tan flexible ya.
"Después de escribir un programa, tienes que probarlo y ver cómo puedes mejorarlo, y luego, cuando mejora, escribes el código", dijo. "El mundo ha cambiado y la gente sigue haciendo las cosas". a la antigua usanza
4. ¿Conceptos erróneos sobre el análisis de datos?
Un lago de datos es un repositorio suelto que contiene una gran cantidad de datos sin procesar y estructurados que a menudo se mencionan en el contexto de. big data.
El único problema es que, aunque se mencionan a menudo, no existen, dijo Adler, y los datos de la organización no se vierten en el lago de datos. Fomentamos el intercambio de conocimientos y proporcionamos la responsabilidad y la transparencia necesarias para una buena gestión y cumplimiento de los datos.
Existen conceptos erróneos sobre el análisis de datos. ¿Cómo pueden progresar los analistas de datos sin prestar atención? La computación en la nube, el procesamiento de datos más rápido y el gran volumen de datos que se introducen en el Internet de las cosas significa que las empresas ahora están recopilando cantidades de datos sin precedentes. ¿Cómo puedes manejarlo? ¿Aún te preocupa no haber comenzado bien? haga clic en otros artículos de este artículo para aprender
.