El hipocampo de almacenamiento

20469_468Por Hu Yoshida, CTO Hitachi Data Systems.
Ciudad de México, junio 2016.- Estamos perdiendo rápidamente la capacidad de almacenar datos, y el reto será determinar qué datos guardamos y cuáles desechamos. La velocidad a la que podemos construir dispositivos de almacenamiento nunca será lo suficientemente rápida para ponernos al día con la velocidad a la cual generamos los datos. Sólo el clic de un iPhone puede crear un MB de datos en una milésima de segundo. Hoy sólo podemos almacenar alrededor de un tercio de los datos digitales. En cuatro años, en el 2020, solamente seremos capaces de almacenar el 15%, y el resto caerán por la borda.
El otro día estaba discutiendo este tema con Suresh Nair, nuestro Director General en Indonesia, y él especulaban sobre lo que podría ser posible si tuviéramos tecnologías que conformen un “sistema de memoria de hipocampo” (el hipocampo es el área de nuestro cerebro que guarda la memoria).
Nuestros cerebros parecen ser capaces de almacenar una cantidad ilimitada de información. Recibimos el aporte de nuestros cinco sentidos, información que se almacena de forma selectiva en la memoria a corto o largo plazo, dependiendo de varios factores, que son conscientes o inconscientemente importantes para el individuo. Los cinco sentidos actúan también para la recuperación de datos. Un olor o sonido pueden desencadenar la recuperación de la memoria. Los recuerdos son capaces de provocar también reacciones automáticas, como batear una pelota o andar en bicicleta. Además, podemos comunicar y construir sobre los recuerdos que compartimos con los demás.
El centro de datos del futuro podría convertirse en un cerebro de auto-análisis, construido sobre una plataforma de infraestructura abierta que proporciona servicios, los cuales pueden crecer y escalar para optimizar el negocio con mayor eficiencia y menores costos. Habrá motores analíticos que obtendrán información de los datos antes de que se pierdan. Y tal vez será posible recrear los datos, con base en fragmentos de información. El centro de datos será una nube distribuida, cada vez más definida por software, de código abierto, ubicua, sin límites, escalable y con la capacidad de “autocurarse”. Se utilizará la telemetría para detectar la información y la telemática para controlar dispositivos remotos. Las tecnologías como: block chain o distributed ledgers, podrían ser utilizadas para mantener la coherencia y la transparencia global.
En el futuro, la atención se centrará en el almacenamiento de la información y no en los datos; no en individuos, sino en colectivos. En lugar de los centros de datos tendremos una nube de información autónoma.
IoT: Convergencia de los mundos físico y digital
En Hitachi Data Systems somos apasionados del Internet de las cosas y el potencial que tiene para transformar nuestra forma de vivir y trabajar en los próximos años. Creemos que esta tendencia será la revolución más importante que ha afectado a nuestra industria en los últimos 20 años o más.
El Internet de las cosas va a llevar a una inevitable convergencia de los mundos físico y digital: Miles de millones de sensores, dispositivos móviles, máquinas inteligentes, generarán una insólita cantidad de datos y el impacto potencial sobre la forma en que vivimos y el trabajo será enorme.
A la vez que grandes volúmenes de datos de información útil apoyan la innovación, las organizaciones tienen que integrar y analizar toda esa información. Analytics es la clave para el procesamiento del cada vez mayor flujo de información de sensores, eventos y datos en tiempo real, los cuales tendrán que ser almacenados, manejados y rápidamente ejecutados, para apoyar las operaciones óptimas y toma de decisiones con ese torrente de datos.
Las empresas que integren con éxito el análisis del Big Data en sus operaciones, apoyados por una infraestructura de TI avanzada, tienen el potencial para obtener una ventaja competitiva significativa. La ventaja se deriva del análisis de predicción en lugar de proporcionar un punto de vista histórico. De hecho, el análisis del Big Data impulsa la evolución de la analítica descriptiva o históricos (lo que pasó y por qué). Para la analítica predictiva y prescriptivos (lo que sucederá y lo que es el mejor curso de acción).
Hicimos el análisis predictivo en el pasado (la minería de datos no es nueva). Sin embargo, la amplitud de los datos y el contexto que ahora tienen esas predicciones es aplicable a un conjunto mucho más amplio de usos. Y con más datos tenemos una visión más precisa también.
Imagínese no sólo saber lo que puede pasar, la conformación de lo que va a pasar, y ser capaz de responder con ajustes en tiempo real que cambian los resultados. El análisis de grandes volúmenes de datos identifica los precursores de los problemas. Realmente podríamos estar entrando en la era de la bola de cristal.
Por ejemplo, el mantenimiento de una máquina, con analítica prescriptiva no sólo se indican los equipos que ha funcionado mejor en los últimos tres meses; predice los problemas que surgirán. Eso le da más control y permite tomar mejores decisiones que atraen a los clientes, reducir costos, aumentar la productividad y más.
En consecuencia, estamos trabajando duro en nuestros laboratorios de investigación en los problemas relacionados con el Big Data y el Internet de las cosas.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.