Intel desarrolla su propia distribución de Apache Hadoop

CloudCódigo abiertoDatacenterSoftware
Hadoop

Intel Distribution for Apache Hadoop es compatible con la plataforma Intel Xeon y puede analizar un terabyte de datos en tan sólo siete minutos.

Intel no sólo está interesada en avanzar en el mercado de los smartphones y los tablets PC. Siguiendo los pasos de EMC y HP, que hace unos días anunciaban sus propias distribuciones Hadoop, la compañía de Santa Clara ha decidido reforzar su presencia en el mundo del Big Data, los servidores y los centros de datos.

Big DataPara ello ha presentado Intel Distribution for Apache Hadoop, un software compatible con su plataforma Intel Xeon que puede analizar un terabyte de datos en tan sólo siete minutos y que cuenta con el apoyo de un nutrido grupo de socios como son Cisco, Cray, Dell, Red Hat, SAP, SAS y Teradata, entre muchos otros.

Teniendo en cuenta que Intel calcula que el mundo genera un petabyte o 1.000 terabytes de datos cada 11 segundos, lo que equivale a 13 años de vídeo HD, esta tecnología “abre el mundo a posibilidades aún mayores”.

“Estamos anunciando la entrega y oferta comercial de un producto de software por parte de una empresa que muchos de vosotros conocéis como fabricante de chips”, ha reconocido Boyd Davis, vicepresidente de Datacenter Software Division que, sin embargo, ha recordado que la implicación de su compañía con el framework del elefante amarillo se remonta varios años atrás, concretamente a 2009.

“La gente y las máquinas están produciendo información valiosa que podría enriquecer nuestras vidas de muchas maneras, desde una gran precisión en la predicción de condiciones meteorológicas adversas hasta el desarrollo de tratamientos personalizados para enfermedades terminales”, continúa Davis. “Intel se ha comprometido a aportar sus mejoras y emplear toda la potencia de computación disponible en la comunidad de código abierto para proporcionar a la industria una base más sólida que pueda expandir los límites de la innovación y comprender la oportunidad de transformación de Big Data”.

Además, Intel también ha anunciado su proyecto “open source” Rhino, que pretende contribuir a la creación de código junto con la Fundación Apache y, sobre todo, mejorar las capacidades de protección de datos del ecosistema Hadoop.

En este sentido, intentará potenciar la codificación, proporcionando formas más adecuadas para autenticar a los usuarios y hacer de la seguridad una característica presente a nivel celular.

Lea también :