Hadoop incrementa su presencia en América Latina

Big DataDatos y almacenamiento

Los voceros de SAS han emitido un informe que indica que si bien es cierto Hadoop no es una herramienta nueva, el incremento en su cantidad de usuarios en Latinoamérica lo hacen una tendencia para la región.

Hadoop, la plataforma de almacenamiento de bajo costo, está consiguiendo popularidad en América Latina ya que, como dicen desde SAS, “el manejo de información digital se ha convertido en una de las grandes transformaciones de nuestra era” y esta “revolución tecnológica ha abierto las puertas para el desarrollo del Big Data y la analítica, como dos herramientas para el análisis de grandes volúmenes de información”.

hadoopRecuerdan los creadores de esta herramienta que Hadoop nació como un software libre en 2008 y desde entonces se volvió altamente popular en Europa y Estados Unidos, ya que al ser económica abrió la puerta para que compañías e industrias de todos los tamaños y segmentos almacenaran sus datos en esta plataforma.

Según el informe Hadoop Market-Global Opportunity Analysis and Industry Forecast 2014-2021, elaborado por Allied Market Research, en 2015 Norteamérica fue la región que más aportó ingresos a esta plataforma. Sin embargo, añade un comunicado de prensa que “se espera que para el próximo período del estudio el mercado europeo experimente el crecimiento más rápido de tecnología de gestión y análisis de datos basada en Hadoop”.

El mismo reporte prevé que el mercado global de Hadoop alcancé los 84.600 millones de dólares para 2021, acumulando una tasa de crecimiento anual compuesto del 63,4% en los próximos cinco años. Marcelo Sukni, gerente general para Chile y Perú de SAS ha explicado que “si bien es cierto Hadoop no es una herramienta nueva, el incremento en su cantidad de usuarios en Latinoamérica en los últimos años permite calificarlo como una tendencia para la región”.

Sukni comenta que la industria del Big Data necesita un espacio donde desenvolverse y eso es lo que aporta el Hadoop. Al mismo tiempo, uno de los desafíos es la constante actualización de Hadoop para todos los proyectos activos que se generan cada día.

“La calidad de los datos es el gran problema en cualquier proyecto de integración de datos”, afirma elexperto de SAS. Actualmente existen soluciones que permiten concentrarse en la exploración y el modelado analítico la mayor parte del tiempo, en lugar de gastar mucho tiempo preparando datos o asegurando su calidad. “Comprende un conjunto completo de capacidades para ayudar a organizar sus datos en la forma apropiada en Hadoop, permite la combinación de datos de diferentes fuentes en un conjunto de datos y moverlo a una nueva ubicación”, concluye Sukni.

Lea también :
Leer la biografía del autor  Ocultar la biografía del autor