Entendemos como Big Data todos aquellos sistemas que están capacitados para la captura, almacenamiento, compartición, análisis y visualización de los mismos. La tendencia actual es que cada vez se generan más datos, ya que nos encaminamos a lo que podríamos denominar el “Internet de las Cosas” (IoT, por sus siglas en inglés) donde cualquier dispositivo está o estará conectado a internet y puede generar cantidad de información susceptible de ser almacenada y procesada.
La problemática surge cuando esa cantidad de información es tan grande que, por un lado el almacenamiento está en bases de datos tradicionales, y por otro el procesamiento con sistemas de data warehouse tradicional resultaría muy costoso y además de disponer de una escalabilidad limitada. Nos encontramos con mucha información la cual es difícil almacenar en un sistema tradicional de tablas basadas en SQL.
Debemos tener en cuenta además, que debido a su procedencia tan dispar, los datos no están sometidos a un esquema previo y suelen no estar estructurados.
Los clientes tienen la necesidad de poder trabajar y analizar dicha información con el menor coste posible y Flytech dispone de las soluciones adecuadas para dicho fin. Contamos con plataformas específicas dedicadas al almacenamiento de Big Data y plataformas para su análisis como Cloudera basadas en Apache Hadoop.
Hadoop
Apache Hadoop es una plataforma abierta con soporte para aplicaciones distribuidas. Nos permite trabajar con Big Data para su análisis basándose en un modelo de programación MapReduce, modelo utilizado y liberado por Google para el procesamiento paralelo sobre grandes volúmenes de datos. Además se complementa con un sistema de ficheros distribuido llamado HDFS para la gestión de la información sobre el cluster que computa los datos.
Hadoop está orientado al análisis de grandes volúmenes de datos, no tanto a la búsqueda de resultados en tiempo real.
Hadoop trabaja pensando en la utilización de servidores estándar y con arquitecturas de red sencillas gracias a la paralelización de los trabajos y el concepto de “share nothing”, donde los datos se replican cerca del lugar de procesamiento, no se utilizan grandes sistemas de almacenamiento para el proceso de los datos ni redes muy costosas, ya que el tráfico de datos se producen en momentos puntuales, tanto en la carga de los datos en el cluster como en la transmisión de los resultados previamente computados.
Flytech dispone de las herramientas, el hardware para la plataforma y el conocimiento para poder asesorar a los clientes cuál es la mejor solución para el aprovechamiento de Big Data. Contamos con soluciones para adaptarnos a los diferentes escenarios que nos podemos encontrar.
A diferencia de otras empresas, Flytech busca ofrecer una solución totalmente abierta, escalable e independiente a cualquier fabricante. De este modo pretendemos evitar soluciones paquetizadas a un precio elevado, y con suficiente amplitud para no generar relaciones de dependencia con nuestros clientes.
Podemos adaptarnos a soluciones en que la capacidad de procesamiento sea más crítica. Incluso ofrecemos soluciones donde el elemento más crítico es el manejo de ficheros de mayor capacidad, y no el número de procesos sobre los datos.
Las empresas son conscientes del potencial que les ofrecen la gran cantidad de datos de que disponen para poder mejorar la toma de decisiones, mejorar la oferta a sus clientes y mejorar la atención al cliente entre otras cosas. Por este motivo es imprescindible contar con un socio tecnológico como Flytech, para poder abordar ese nuevo reto que supone obtener rendimiento a uno de los activos más importantes como es la información, al menor coste posible.
Soluciones Supermicro para Hadoop
En la utilitzación del análisi de datos grandes, ya no es una cuestión de cuándo sino de cómo se usa. Las empresas que implementan soluciones Hadoop necesitan un alto rendimiento y una infraestructura escalable y fiable. Estas medidas hacen gastar una gran cantidad de recursos en busca de la mejor arquitectura y del mejor proveedor para hacerlo posible.
Supermicro Hadoop Cluster Solution
(Up to 1.15 PB Storage and 9 TB Memory)
Incluye personalización completa de clúster, burn-in y testing, actualizaciones BIOS y Firmware. configuraciones de network, pre-instalación de las distribuiciones de Hadoop incluyendo Cloudera y Hortonworks Supermicro Hadoop Cluster Solution Offerings
|
Para obtener más información sobre los servidores de Supermicro, consulta nuestra sección especializada.