En ese sentido, la charla contextualizó el panorama que se vive, dominado por una explosión de datos. Así, los profesionales recordaron que en los últimos años, debido al avance de las tecnologías de la información, las personas están siendo testigos de una verdadera explisoón en la cantidad de datos disponibles, listos para ser analizados y así convertirse en información importante para la toma de decisiones.
Haciendo referencia a un dato aportado por Eric Schmidt, director ejecutivo de Google, que afirmó que hoy en día se genera más información cada dos días que en toda la historia hasta 2003, revelaron que todo lo que hacemos "deja su huella" en forma de datos.
En cifras, ejemplificaron que cada segundo de este año se harán 40 mil búsquedas enGoogle, Faceook generará 100 terabytes de datos compartidos por sus usuarios cada día, 1400 millones de nuevos smartphones estarán en poder de los usuarios durante 2020, el internet de las cosas generará 5 trillones de datos diariamente, cada uno de nosotros generará 1.7 megas de información cada segundo y que pasaremos de 4.4 zettabytes de información acumulada a 44 zettabytes (un zettabyte equivale a mil millones de terabytes).
"Estamos ya inmersos en la era del Big Data por tres razones. La primera es la generación de enormes cantidades de datos y ya es complicado poder procesarlos por los sietmas tradicioanles que existen. La segunda razón es que actualmente existen herrmaientas de procesamientos de análisis muy poderosos que permiten hacen analíticas de los datos que se almacenan y procesan. Y la tercera razón es porque han bajado muchísimo los costos de almacenamiento y procesamiento de datos. Antes era muy costoso, hoy es al revés", detalló Carrizo.
Durante la disertación también se hizo un repaso por la evolución del concepto de Big Data. "Son datos que contienen una mayor variedad y que se presentan en volúmentes crecientes y a una velocidad superior, que son demasiaod grandes y difíciles de procesar con las bases dedatos y el software tradicionales y por este motivo se requiere nuevas formas eficiente de procesamientos de informacón para mejorar la comprensión, tomar buenas decisiones y optimizar los procesos", afirmaron.
La charla también giró en todo a las características de Big Data como volumen, velocidad y variedad, a la vez que explicó el proceso, que comprende ingesta de datos, almacenamiento de datos, procesamiento y análisis, y visualización de los datos y enumeró las herramientas existentes para cada etapa.
Sobre el final, se pusieron en común casos prácticos.
Para ver la charla completa se puede ingresar a este link: https://www.youtube.com/watch?v=UfpFWVgyGYk