Big data technology

Big data technology

Big data technology

Software tableau

Una de las tecnologías que más evolucionan en la era digital son las tecnologías de Big Data. No es un término popular, pero Big Data es simplemente un término que se utiliza para describir una colección de datos que es enorme en tamaño y está aumentando exponencialmente en el tiempo. Significa que estos datos son tan grandes que ninguna de las herramientas de gestión tradicionales es capaz de analizarlos, almacenarlos o procesarlos.

Big Data no es simplemente un término. Está asociado a otras tecnologías como el aprendizaje automático, la inteligencia artificial, el blockchain, el Internet de las cosas, la realidad aumentada y un largo etcétera. Debido a esto, muchas industrias han estado invirtiendo en el análisis de Big Data como la banca, la fabricación discreta y de procesos, por nombrar algunos.

Los Data Lakes son enormes depósitos de datos que recogen datos de diferentes fuentes y se almacenan en su estado natural. No hay que confundirlo con el Data Warehouse, básicamente hace lo mismo, pero en lugar de almacenarlo en estado natural como los Data Lakes, lo estructura para su almacenamiento.

Puede que Apache Hadoop no sea tan popular como antes, pero el Big Data no está completo sin mencionar esta tecnología. Es un marco de trabajo de código abierto para el procesamiento distribuido de grandes conjuntos de datos. Ha crecido lo suficiente como para albergar todo un ecosistema de software relacionado y muchas soluciones comerciales de big data se basan en Hadoop.

Qué tecnología de big data se demanda

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Corporación oracle

La tecnología de Big Data y Hadoop es una gran palabra de moda como podría sonar.  Como ha habido un enorme aumento en el dominio de los datos y la información de cada industria y dominio, se vuelve muy importante establecer e introducir una técnica eficiente que se encarga de todas las necesidades y requisitos de los clientes y las grandes industrias que son responsables de la generación de datos. Anteriormente, los datos se manejaban con lenguajes de programación normales y un lenguaje de consulta estructurado simple, pero ahora estos sistemas y herramientas no parecen hacer mucho en el caso de los grandes datos.

La tecnología de big data se define como la tecnología y una utilidad de software que está diseñada para el análisis, el procesamiento y la extracción de la información de un gran conjunto de estructuras extremadamente complejas y grandes conjuntos de datos que son muy difíciles de tratar para los sistemas tradicionales. La tecnología de big data se utiliza para manejar datos tanto en tiempo real como en lote. El aprendizaje automático se ha convertido en un componente muy crítico de la vida cotidiana y de todas las industrias y, por lo tanto, la gestión de datos a través de big data se vuelve muy importante.

Mongodb

El uso actual del término big data tiende a referirse al uso de la analítica predictiva, la analítica del comportamiento del usuario o algunos otros métodos avanzados de análisis de datos que extraen valor de los big data, y rara vez a un tamaño concreto del conjunto de datos. «Hay pocas dudas de que las cantidades de datos disponibles ahora son realmente grandes, pero esa no es la característica más relevante de este nuevo ecosistema de datos»[4].

El tamaño y el número de conjuntos de datos disponibles han crecido rápidamente a medida que los datos son recogidos por dispositivos como los móviles, los baratos y numerosos dispositivos de detección de información del Internet de las cosas, los aéreos (teledetección), los registros de software, las cámaras, los micrófonos, los lectores de identificación por radiofrecuencia (RFID) y las redes de sensores inalámbricos. [8][9] La capacidad tecnológica per cápita del mundo para almacenar información se ha duplicado aproximadamente cada 40 meses desde la década de 1980;[10] en 2012 [actualización], cada día se generaban 2,5 exabytes (2,5×260 bytes) de datos[11] Según la predicción de un informe de IDC, se preveía que el volumen mundial de datos crecería exponencialmente de 4,4 zettabytes a 44 zettabytes entre 2013 y 2020. Para 2025, IDC predice que habrá 163 zettabytes de datos[12]. Una cuestión para las grandes empresas es determinar quién debe ser el propietario de las iniciativas de big data que afectan a toda la organización[13].

Acerca del autor

admin

Ver todos los artículos