La velocidad de procesamiento se encuentra resuelta con más módulos para hacer millones de instrucciones, pero en lo que respecta a lectura y escritura de datos, las tecnologías mecánicas comienzan a representar un obstáculo para la innovación de las empresas.

El supercómputo gracias a las nuevas arquitecturas de infraestructura en la nube requiere un componente clave como el almacenamiento que permita responder a las necesidades de velocidad de respuesta que demandan las condiciones actuales de los mercados.

La solución a este inconveniente llega de la mano de la tecnología de almacenamiento flash, que no sólo permite almacenar datos e información a destajo sino que ofrece la inteligencia para proporcionar la velocidad y fiabilidad necesarias para cargas de trabajo que van desde la planificación de recursos empresariales (ERP) y las transacciones financieras, hasta aplicaciones cognitivas como machine learning y el procesamiento del lenguaje natural.

De esta forma, los sistemas de almacenamiento flash permiten proteger, cifrar, replicar, deduplicar y optimizar los datos de las organizaciones con una disponibilidad de seis nueves, 99.9999%, es decir que en un año de trabajo continuo, es probable que no responda tres segundos.

Ante las nuevas necesidades de almacenamiento de soluciones cognitivas, IBM anunció herramientas diseñadas para soportar cargas de trabajo cognitivas donde vía software proporciona protección de datos, replicación remota y optimización para medianas y grandes empresas, está incorporado en estas nuevas soluciones.  El  microcódigo es ideal para cargas de trabajo cognitivas que requieren la mayor disponibilidad y confiabilidad del sistema.

Ed Walsh, gerente general de IBM Storage and Software Defined Infrastructure, explicó que en 2017 se espera un despertar por parte de las empresas hacia la oportunidad que las aplicaciones cognitivas y la nube híbrida traen para ayudarles a sobrevivir y prosperar en un mercado impulsado por los datos

“Las capacidades del almacenamiento flash están dirigidas a usuarios que han experimentado un rendimiento pobre debido a latencia, baja utilización del servidor, alto consumo de energía, baja disponibilidad del sistema y altos costos de operación. Creemos que estos mismos usuarios han estado escuchando, aprendiendo y ahora comprendiendo la propuesta de valor de los datos al ser un negocio cognitivo”, aseguró Ed Walsh.

Redacción Silicon Week

Recent Posts

Veeam promueve la libertad de datos para los clientes con el nuevo soporte de Oracle Linux Virtualization Manager

Veeam amplía la protección de las principales plataformas de virtualización con el soporte de Oracle…

16 horas ago

Paessler AG obtiene la calificación Premier de 5 estrellas en la Guía de Programas de Socios CRN 2024

Esta guía anual proporciona información esencial a los proveedores de soluciones que exploran programas de…

16 horas ago

El Instituto Federal de Telecomunicaciones y la Asociación Mexicana de Data Centers firman convenio general de colaboración

El Convenio establece las bases generales de coordinación para promover la transformación digital, el desarrollo…

17 horas ago

Cisco redefine la seguridad para centros de datos y nubes en la era de la IA

Cisco Hypershield lleva la potencia de la seguridad y conectividad de Hyperscaler a las empresas.

2 días ago

El impulso de Avaya en el mercado continúa y mira hacia la conferencia anual de clientes

La compañía resume los logros clave del último trimestre para clientes, socios y el mercado.

2 días ago

Ejemplos de correos que distribuyen malware en Latinoamérica

ESET comparte ejemplos reales de cómo los cibercriminales inducen al error, haciéndose pasar por organismos…

2 días ago