2013, el año del almacenamiento definido por software

Si durante 2012 hemos comenzado a hablar de los centros definidos por software, el año que acaba de comenzar podría ser el de la nueva generación de arquitecturas para hacer lo propio con el almacenamiento. Ciertamente, se trata de buscar alternativas que sean capaces de dar respuesta a los crecientes volúmenes de datos de forma más eficiente y rentable.

George Teixeira, presidente y CEO de DataCore Software

George Teixeira, presidente y CEO de DataCore Software, explica en un comunicado que “el cambio de hardware hacia un modelo basado en software de virtualización apoya las misiones cruciales de las aplicaciones de negocio, que han pasado de ser estáticas a dinámicas. El objetivo final es incrementar la productividad del usuarios y mejorar la experiencia de la aplicación”.

Teixeira pronostica que dentro de poco todas las aplicaciones de nivel 1, como las bases de datos los ERP, el correo electrónico, etc. se entregarán y gestionarán de forma virtualizada, lo que permitirá reducir costes y mejorar su rendimiento. Sin embargo, las empresas deben hacer evolucionar sus sistemas de almacenamiento para conseguirlo ya que el mero hecho de añadir más hardware tradicional a los sistemas no es la solución más práctica y tampoco la más asequible.

La adopción en las empresas de la tecnología SSD será algo prácticamente obligatorio, toda vez que su precio ha caído frenéticamente durante los dos últimos años. Además, será recomendable aplicar técnicas adicionales para su automatización, ya que la demanda es constante y está creciendo a un ritmo de más del 50% cada año, tal y como advierte el máximo representante de DataCore Software.

De la misma forma, el uso del software de almacenamiento será más importante que el propio hardware, “un elemento esencial en los centros de datos”, explica.  Esta evolución favorecerá la creación de un hipervisor del almacenamiento independiente. De la misma forma que ya ocurre con los hipervisores dedicados a la gestión de procesadores, memoria, servidores y máquinas virtuales, los recursos de almacenamiento también estarán gobernados por esa capa virtual, lo que aglutinará toda la infraestructura (sea del tipo que sea y se encuentre en el lugar que se encuentre) para que sea gestionada de forma unificada, como un todo.

Pablo Fernández

Recent Posts

Veeam promueve la libertad de datos para los clientes con el nuevo soporte de Oracle Linux Virtualization Manager

Veeam amplía la protección de las principales plataformas de virtualización con el soporte de Oracle…

18 horas ago

Paessler AG obtiene la calificación Premier de 5 estrellas en la Guía de Programas de Socios CRN 2024

Esta guía anual proporciona información esencial a los proveedores de soluciones que exploran programas de…

18 horas ago

El Instituto Federal de Telecomunicaciones y la Asociación Mexicana de Data Centers firman convenio general de colaboración

El Convenio establece las bases generales de coordinación para promover la transformación digital, el desarrollo…

19 horas ago

Cisco redefine la seguridad para centros de datos y nubes en la era de la IA

Cisco Hypershield lleva la potencia de la seguridad y conectividad de Hyperscaler a las empresas.

2 días ago

El impulso de Avaya en el mercado continúa y mira hacia la conferencia anual de clientes

La compañía resume los logros clave del último trimestre para clientes, socios y el mercado.

2 días ago

Ejemplos de correos que distribuyen malware en Latinoamérica

ESET comparte ejemplos reales de cómo los cibercriminales inducen al error, haciéndose pasar por organismos…

2 días ago