Inicio > Blog de copias de seguridad y recuperación > Los 15 mejores proveedores y empresas de HPC

Los 15 mejores proveedores y empresas de HPC

1 Star2 Stars3 Stars4 Stars5 Stars
(9 votos, media: 4,87 fuera de 5)
Cargando...
Actualizado 2nd mayo 2024, Rob Morrison

¿Qué es la HPC?

HPC es Informática de alto rendimiento – un proceso de resolución de problemas computacionales extremadamente complejos con la ayuda de clusters de ordenadores y superordenadores. La HPC utiliza elementos como algoritmos, arquitecturas informáticas, lenguajes de programación, electrónica digital y software de sistemas para crear una infraestructura compleja capaz de resolver tareas increíblemente sofisticadas mediante el procesamiento paralelo de datos.

Es una tecnología que existe desde hace décadas, y que ha recibido un pico de popularidad relativamente reciente debido a la repentina expansión del número de desarrollos y casos de uso relacionados con la IA. Las infraestructuras HPC se encargan habitualmente de almacenar, analizar y transformar grandes masas de datos que las empresas y los gobiernos generan con regularidad.

Los sistemas HPC se esfuerzan por ser cada vez más rápidos a medida que pasa el tiempo, realizando cálculos cada vez más complejos, pero los retos que plantea la optimización de diversas aplicaciones y diseños pueden ser a veces un fuerte viento en contra de este progreso. Dado que la gestión de los datos es esencial para la eficiencia de los cálculos de HPC, este reto es algo que los proveedores de software y hardware intentan resolver de muchas maneras diferentes.

No obstante, el mercado de la HPC sigue creciendo a un ritmo impresionante. Según las previsiones de Straits Research, el mercado HPC va a crecer de 49.990 millones de dólares (2023) a 91.860 millones de dólares (2030), con una CAGR del 9,1%.

El hecho de que la generación diaria de datos siga creciendo en todo el mundo ejerce aún más presión sobre los entornos HPC en primer lugar, motivándolos a buscar opciones mejores y más rápidas. El auge de las implantaciones de HPC en la nube está demostrando ser una opción adicional y eficaz para mitigar estos problemas, ofreciendo potencialmente a algunos usuarios una alternativa más eficiente y barata a las infraestructuras HPC locales.

En este contexto, es bastante importante aprender cómo funciona la HPC y cuáles son las dificultades a las que se enfrenta ahora (y en un futuro próximo).

HPC frente a superordenadores

Existe bastante solapamiento y confusión entre la informática de alto rendimiento y los superordenadores. Cada solución tiene varias definiciones y también existen algunas similitudes entre ambas. La mayor diferencia entre la HPC y los superordenadores es el hecho de que un superordenador es un sistema único que puede ser varias veces más potente que cualquier ordenador de categoría cliente. La HPC, por otro lado, tiende a ser más una combinación de múltiples sistemas y recursos utilizados en paralelo.

Es fácil ver cómo los superordenadores y la HPC son tan similares y a la vez tan diferentes. También está el hecho de que los Superordenadores suelen ser mucho más caros y están hechos a medida para una tarea específica, mientras que la HPC es un sistema mucho más versátil que puede configurarse para realizar diferentes tareas, si es necesario.

A veces, algunas variantes de software más antiguas no pueden aprovechar todas las ventajas de la HPC debido a la incapacidad de utilizar eficazmente las características de la computación paralela. En este tipo de casos de uso, los superordenadores pueden suponer una ventaja significativa y a menudo son la única opción.

Industrias clave que más se benefician de la HPC

Hay muchas industrias diferentes que utilizan activamente la HPC en su trabajo, ya sea para ingeniería, diseño, modelado, etc. He aquí algunos de los mayores grupos de casos de uso de las soluciones HPC:

  • Petróleo y gas. Las HPC se utilizan para analizar nuevas ubicaciones potenciales de pozos y mejorar la productividad de las perforadoras existentes.
  • Fintech. La HPC es capaz de realizar muchas formas diferentes de modelización financiera, y también puede seguir las tendencias de las acciones en tiempo real.
  • Defensa. La HPC mejora drásticamente la capacidad de las entidades gubernamentales de gestionar conjuntos masivos de datos para llevar a cabo diversas acciones y operaciones relacionadas con la seguridad.
  • Entretenimiento. La HPC tiene muchos casos de uso diferentes aquí, incluyendo el renderizado de efectos especiales para vídeos y películas, la creación de animaciones, entornos 3D, transcodificación y mucho más.
  • Sanidad. La HPC es fundamental en los procesos de desarrollo de fármacos y de investigación de curas en la industria.
  • Investigación. Los proyectos científicos son el pan de cada día de las capacidades de la informática de alto rendimiento, ya que ofrecen una forma rápida y cómoda de gestionar volúmenes masivos de datos para un fin específico.

Una breve historia de la HPC

El continuo solapamiento entre la HPC y los superordenadores es la gran razón por la que gran parte de la historia de los superordenadores suele tratarse también como la historia de la HPC. Toda la categoría de hardware se remonta a la década de 1940, pasando por varias iteraciones antes de aumentar su popularidad a partir de la década de 1950 (IBM 7090, CDC 6600).

El concepto de computación paralela se introdujo poco después (a partir de los años 80), como una de las primeras menciones de este concepto en la historia, junto con el desarrollo de clusters de ordenadores que podían realizar tareas complejas como un único entorno interconectado.

Al mismo tiempo, la popularidad de los ordenadores personales también siguió aumentando, lo que atrajo cada vez más interés hacia la industria en su conjunto. Los clústeres de HPC siguieron creciendo y desarrollándose como concepto a lo largo de los años, siendo la idea de la computación en nube una de las tendencias más recientes que ofrecen ahora muchas de las mejores empresas de HPC del mercado. La HPC es un concepto extremadamente eficaz tal y como es, y con un futuro cada vez más dependiente de tecnologías como la computación cuántica y la Inteligencia Artificial, este concepto sólo seguirá creciendo y floreciendo a medida que pase el tiempo.

Principales competidores en el campo de la HPC

El mercado de soluciones de HPC es sorprendentemente grande, teniendo en cuenta lo complejas y consumidoras de recursos que pueden llegar a ser estas soluciones. Y, sin embargo, la demanda global de este tipo de ofertas parece crecer con regularidad en muchos sectores, razón por la cual la mayoría de las empresas de HPC siguen creciendo hasta convertirse en negocios muy grandes. La siguiente lista repasa 15 ejemplos diferentes de empresas que ofrecen capacidades de HPC de un modo u otro.

Debe tenerse en cuenta que el término «solución HPC» es relativamente amplio y puede abarcar varios grupos de empresas diferentes. Algunas de estas empresas ofrecen HPC como servicio en la nube, otras proporcionan despliegue HPC in situ, y también hay varias opciones que son bien conocidas por su contribución a la industria en términos nada más que de capacidades de hardware.

Microsoft Corporation

Microsoft es un gigante tecnológico muy conocido, y su servicio en la nube Azure es sin duda uno de los mayores competidores en su campo. Dos elementos diferentes contribuyen específicamente a los despliegues HPC: Azure CycleCloud y Azure Batch.

El primero es una solución compleja que ofrece gestión de cargas de trabajo HPC con un montón de valiosas características adjuntas. La segunda es una solución de escalado y programación que puede calcular y escalar los recursos necesarios con la cantidad de trabajo que debe realizarse utilizando un entorno HPC. No es infrecuente que Microsoft colabore también con varios proveedores de hardware con el fin de crear un hardware a medida para su infraestructura Azure que sea capaz de manejar los flujos de trabajo HPC.

La combinación de hardware y software bajo la atenta mirada de Microsoft crea lo que se conoce como Microsoft Azure HPC, una completa infraestructura creada a propósito que alberga soluciones preparadas para HPC con múltiples ventajas sobre las versiones HPC tradicionales in situ.

Es una solución rápida, escalable y rentable que reduce en gran medida el coste inicial de la implantación de HPC, admite múltiples tipos de cargas de trabajo HPC y puede personalizarse para que tenga las capacidades justas para los objetivos y casos de uso específicos de un cliente. También puede integrarse con otros productos Azure, como Azure Machine Learning, creando múltiples nuevas oportunidades en HPC.

Intel

Otra famosa empresa tecnológica es Intel Corporation, una de las mayores empresas de fabricación de CPU del planeta. Los procesadores Intel Xeon se fabrican específicamente para HPC y entornos similares, independientemente del sector en el que se utilicen. Intel también proporciona múltiples conjuntos de herramientas y documentos para simplificar el proceso de programación de los sistemas basados en Xeon.

Algunas de las ventajas más significativas de los procesadores Intel Xeon en el contexto de la HPC son:

  • Escalabilidad.
  • Desempeño del núcleo.
  • Rendimiento de la memoria.
  • Capacidades de simulación.
  • ISA.

Los procesadores Xeon son conocidos por su estructura multinúcleo, diseñada específicamente para distribuir la carga entre docenas de núcleos de procesador de forma simultánea. Se trata de un caso de uso perfecto para las cargas de trabajo de HPC, ya que acelera el tiempo que tardan en ejecutar un proceso de cálculo medio los investigadores y otros expertos en HPC.

Los cálculos en sí en los procesadores Xeon son mucho más rápidos tanto por el mayor número de núcleos como por la mayor velocidad de reloj de cada núcleo, ofreciendo un rendimiento significativamente superior en todos los ámbitos, especialmente cuando se trata de cálculos complejos de los que suele ocuparse la HPC.

Dado que la HPC suele trabajar con conjuntos de datos increíblemente grandes, un alto rendimiento de la memoria es prácticamente un requisito. Por suerte, los procesadores Xeon vienen con controladores de memoria más rápidos y canales de memoria más anchos para garantizar que se aprovecha todo el potencial del hardware de memoria y no se producen cuellos de botella en el lado de la CPU.

El rendimiento no es todo lo que la HPC necesita del hardware en su conjunto: la estabilidad durante periodos prolongados de cálculos intensivos es igual de importante. La industria se refiere a esto como RAS, o Fiabilidad, Disponibilidad y Capacidad de Servicio. Se trata de una combinación de características como diagnósticos avanzados, corrección de errores y muchas otras que garantizan un tiempo de inactividad mínimo y una integridad total de los datos.

ISA Significa Arquitectura de Conjuntos de Instrucciones, es un conjunto de instrucciones detalladas para cálculos matemáticos y científicos. El objetivo principal de ISA es maximizar la comodidad y mejorar el rendimiento de las cargas de trabajo HPC cuando se trabaja con procesadores Intel Xeon.

El resto de las capacidades de Intel en el campo de la HPC sigue girando en torno a los procesadores Xeon, de un modo u otro. Por ejemplo, el oneAPI HPC Toolkit de Intel es una combinación de varias herramientas de desarrollo que facilitan la mejora del rendimiento y la optimización de las operaciones de programación que se ejecutan en procesadores Xeon. Alternativamente, también existe el paquete HPC Software and Tools que proporciona varias soluciones para la optimización del sistema, el análisis del rendimiento y la gestión de la carga de trabajo para soluciones HPC que se ejecutan en procesadores Xeon.

Amazon Web Services

Amazon Web Services es una filial de Amazon, una de las mayores empresas del mundo. La principal especialidad de AWS es la computación en nube en diferentes sectores y para diferentes públicos, incluidos clientes habituales, empresas e incluso organismos gubernamentales. También puede proporcionar capacidades HPC basadas en la nube a instituciones financieras, organizaciones de investigación, empresas de ingeniería y empresas científicas orientadas a la salud.

AWS se esfuerza por mantenerse al día con las tendencias modernas en el campo tecnológico, siendo sus intentos de incorporar el poder de la IA y el ML a sus servicios el ejemplo más reciente. De este modo, Amazon SageMaker puede ahora mejorar sus capacidades de análisis de datos mediante la introducción del aprendizaje automático en este flujo de trabajo.

Eso no quiere decir que la actual oferta en la nube de Amazon no sea asombrosa por derecho propio. Ofrece mucha personalización en cuanto a la cantidad de recursos necesarios para cada cliente, combinando escalabilidad con asequibilidad en un solo paquete. AWS en su conjunto es relativamente fácil de gestionar, y su infraestructura global hace posible desplegar infraestructuras HPC en la nube en muchas partes diferentes del mundo sin apenas problemas.

Dado que AWS es una plataforma masiva con docenas de recursos y características diferentes, sólo cabe mencionar cuáles de estos recursos están directamente relacionados con las capacidades HPC de Amazon:

  • Amazon FSx es un sistema de archivos de alto rendimiento que se utiliza para gestionar conjuntos de datos HPC que tienden a tener un tamaño extremadamente grande.
  • AWS Batch es una herramienta dedicada al escalado y la programación de trabajos para cargas de trabajo HPC específicamente.
  • Amazon EC2 es una colección de infraestructuras virtuales bajo demanda, que incluye potentes GPU, CPU rápidas y otro hardware/software construido explícitamente para cargas de trabajo de HPC.
  • AWS ParallelCluster facilita el despliegue y control de clusters HPC, con capacidad para aumentar o reducir el número de clusters cuando sea necesario.
  • EFA (Elastic Fabric Adapter) es una infraestructura de red de baja latencia que ofrece la mayor velocidad de comunicación posible entre clústeres en la infraestructura HPC.

Redes DataDirect

Aunque DataDirect Networks no es tan conocida como otros competidores de esta lista, se considera la empresa privada de almacenamiento de datos más importante. Se encuentra entre los nombres más conocidos del mercado HPC, ofreciendo infraestructuras de alto rendimiento para fines específicos.

Las capacidades de DataDirect incluyen mejoras en campos como la colaboración (con la ayuda de la gestión de datos multicloud), la optimización (con un mejor rendimiento del almacenamiento), y el menor coste (debido a soluciones HPC escalables y eficientes).

Algunos de los logros y ventajas más significativos de DataDirect Networks son:

  • Los sistemas de archivos paralelos permiten a los nodos HPC acceder a los mismos datos simultáneamente, mejorando el rendimiento en todos los ámbitos.
  • Los más de 20 años de experiencia de DDN le confieren una experiencia y unos conocimientos sin precedentes del sector, lo que le permite ofrecer algunos de los mejores entornos HPC del mercado.
  • La escalabilidad, la seguridad y la estabilidad son igual de cruciales para DDN. Garantizan la protección de los datos sensibles de la investigación al tiempo que aseguran que el entorno es escalable pero estable.
  • El rendimiento del escalador está dentro de lo posible para las soluciones HPC de DataDirect Networks, mejorando significativamente el rendimiento de la investigación y otras tareas orientadas a HPC.

La informática a exaescala es un tipo de sistema de supercomputación que puede realizar operaciones informáticas a los niveles de exaescala, lo que supone un nivel de rendimiento informático totalmente nuevo que requiere un sistema de almacenamiento específicamente modificado para poder trabajar con dicho rendimiento al máximo.

Penguin Computing

Penguin Computing representa a otro proveedor privado de HPC que se creó en 1998. Existe una amplia gama de productos y servicios que Penguin Computing puede proporcionar, ya sean servidores Linux, software de gestión de clústeres, soluciones de computación en nube, soluciones de IA y mucho más.

Penguin Computing ofrece soluciones HPC racionalizadas para sus clientes, con un alto rendimiento y una baja complejidad de gestión. Estas soluciones pueden escalarse fácilmente, combinando hardware y software de múltiples formas para satisfacer los requisitos de cada público objetivo.

La contribución de Penguin Computing a la industria de la HPC es bastante significativa. Ofrece infraestructuras HPC basadas en la nube con soporte para el marco de IA, lo que permite combinar ambas cosas si es posible como medio para mejorar las cargas de trabajo HPC. También está el hecho de que el software de Penguin Computing facilita enormemente la gestión de entornos HPC complejos, independientemente de lo grandes o sofisticados que lleguen a ser.

La oferta de la empresa también abarca entornos HPC físicos e incluso servidores optimizados para Linux con el mismo fin. En cada paquete se incluye una combinación de memoria rápida, procesadores de alto rendimiento y hardware GPU eficiente. Penguin Computing también es compatible con TrueHPC una iniciativa combinada de AMD y NVIDIA que fomenta la colaboración y la innovación dentro del mercado con las mejores prácticas y estándares abiertos.

Dell Technologies

Dell es otro nombre familiar en el entorno tecnológico general. Como marca, Dell es propiedad de Dell Technologies, su empresa matriz, creada en 2016 como resultado de la fusión entre Dell y EMC. Dell Technologies ofrece muchos servicios y soluciones, incluyendo opciones de hardware y software para diferentes clientelas.

Esto también incluye capacidades de HPC, como implementación de producción, evaluación, pruebas, creación de piezas de prueba de concepto, etc. La oferta de Dell en el entorno HPC no es muy diferente de la de otras empresas que proporcionan infraestructura HPC basada en la nube bajo demanda. Se trata de una alternativa rápida y relativamente barata a las implantaciones HPC in situ que, además, puede escalarse fácilmente en ambos sentidos y requiere mucho menos mantenimiento. Dell también se enorgullece de sus tiempos de despliegue de HPC, ofreciendo despliegues de HPC extremadamente rápidos para clientes con limitaciones de tiempo.

La experiencia de Dell como empresa tecnológica está respaldada por décadas de trabajo en el sector. Ofrece un profundo conocimiento de cómo funciona la HPC y qué necesita para funcionar correctamente. Las soluciones HPC de Dell basadas en la nube se distribuyen utilizando miles de servidores Dell EMC y tres potentes superordenadores conectados en una única infraestructura mediante sofisticados sistemas de gestión del almacenamiento.

Hay mucho hardware que Dell puede proporcionar como parte de su infraestructura HPC, ya sea hardware de red, hardware de almacenamiento o hardware de servidor. Todos estos componentes están adaptados a las cargas de trabajo HPC desde el principio. Al mismo tiempo, las capacidades de Dell no se limitan a proporcionar hardware en múltiples formas: también existen servicios como:

  • Desarrollo de pruebas de concepto
  • Soporte continuo
  • Implementación del producto
  • Evaluación inicial

IBM

IBM es una empresa tecnológica estadounidense que existe desde hace más de 100 años. Su rama IBM Spectrum Computing se creó para proporcionar servicios HPC a sus clientes de múltiples formas diferentes. Existen distintas ofertas que IBM puede ofrecer, entre las que se incluyen:

  • Servicios de alto rendimiento para análisis, una opción perfecta para las industrias de las finanzas o las ciencias de la vida – o cualquier otro campo de trabajo que requiera cálculos de cargas de trabajo intensivas en datos de forma regular.
  • Spectrum HPC, un completo conjunto de herramientas para optimizar y gestionar los entornos HPC existentes o crear otros nuevos.
  • Servicios de alto rendimiento para HPC, una solución para todo el ciclo de vida de la infraestructura HPC, que comienza con la planificación y el despliegue y termina con el soporte continuo hasta el cierre.

La empresa es bien conocida por sus inversiones en tecnologías informáticas a lo largo de los años: ATM, DRAM, disquetes y unidades de disco duro son sólo algunos ejemplos de las creaciones de IBM. La larga lista de inventos que podrían atribuirse directamente a IBM es un testimonio de sus capacidades cuando se trata de innovación y desarrollo tecnológico.

IBM también da soporte a los despliegues híbridos de HPC con facilidad, ofreciendo la posibilidad de conectar sus capacidades de HPC basadas en la nube con el hardware in situ que el cliente ya pueda tener. Las capacidades HPC de IBM son rápidas y personalizables, y aprovechan décadas de experiencia en este campo para crear un nivel de servicio impresionante en el sector.

Alfabeto

Alphabet es un enorme conglomerado tecnológico con sede en California; a menudo se le considera una de las empresas más valiosas del planeta. Alphabet se creó tras la reestructuración de una conocida empresa llamada Google en 2015, y sigue siendo la empresa matriz de Google a día de hoy.

Es posible dividir las capacidades de Google relacionadas con la HPC en seis categorías:

  1. La nube de Google puede proporcionar una infraestructura a medida para casos de uso muy específicos y reducidos, ofreciendo una increíble combinación de potencia informática y almacenamiento. Esto se ve reforzado por la potencia informática de la nube, las soluciones de almacenamiento de datos y la infraestructura de red de alto rendimiento, necesaria para mantener toda esta infraestructura. Las soluciones HPC en la nube de Google son probablemente su principal implicación directa en el espacio HPC.
  2. Google también participa e interviene con frecuencia en diversas organizaciones de investigación e instituciones educativas para desarrollar nuevas tecnologías en el mercado de la HPC y mejorar las existentes. Esto ayuda a las distintas empresas del mercado a llegar a nuevos mercados que también necesitan la potencia de la HPC, como la ciencia climática, la biotecnología, la informática cuántica, etc.
  3. El estatus general de Google como una de las mayores empresas tecnológicas del mundo la convierte en una gran elección para los servicios de HPC debido a su rápida capacidad de conexión en red, sus altos niveles de eficiencia, su disponibilidad constante y su impresionante escalabilidad.
  4. La amplia versatilidad de Google es una gran ventaja por sí sola, ya que ofrece un paquete de soluciones que funciona tanto en entornos académicos como comerciales cuando es necesario. Esto permite a Alphabet crear valor en diferentes mercados, mejorando los niveles generales de servicio en diferentes industrias.
  5. La capacidad de Google para integrar nuevas tecnologías en las soluciones existentes impulsa la innovación al tiempo que mejora el rendimiento y la versatilidad de su servicio HPC.
  6. Eso no quiere decir que en Alphabet no se desarrollen y mejoren constantemente tecnologías más tradicionales. Nada más lejos de la realidad: la pura dedicación de Google a trabajar con tecnologías de vanguardia sirve constantemente para mejorar las capacidades de soluciones como HPC para diferentes industrias.

Atos

Atos es una gran empresa de servicios informáticos que se dedica principalmente a proporcionar y gestionar infraestructuras HPC. Puede desplegar estas infraestructuras, gestionarlas y asesorar a sus usuarios sobre los problemas que puedan surgir en ellas.

Atos puede ofrecer opciones de infraestructuras HPC tanto locales como basadas en la nube. También proporciona servicios de gestión de HPC, aliviando la pesada carga de gestionar complejas infraestructuras HPC de sus usuarios. Otros servicios de Atos incluyen programas avanzados de formación que giran en torno a las capacidades de HPC para asegurarse de que los clientes pueden utilizar el software y el hardware al máximo, si desean gestionarlo ellos mismos.

Atos puede proporcionar y gestionar despliegues híbridos de HPC, así como infraestructuras en las instalaciones y en la nube por separado. Esto se combina con una escalabilidad impresionante, que es una capacidad muy valiosa en un entorno actual con una demanda de datos cada vez mayor.

Para los usuarios de HPC, Atos es un orquestador y asesor fiable en el sector, que ofrece un paquete completo de infraestructuras HPC y la capacidad de gestionarlas dentro de la misma empresa. Esto deja a los usuarios finales mucho más tiempo para centrarse en la investigación o en otras tareas que requieran HPC de alguna forma o manera.

Exagrid

ExaGrid es una solución de almacenamiento de copias de seguridad orientada principalmente al hardware y construida específicamente para grandes volúmenes de datos. Se basa en un modelo de almacenamiento por niveles y en una política de copias de seguridad inteligente que hace que las copias de seguridad más recientes estén siempre accesibles sin necesidad de compresión. Es una solución de copia de seguridad rápida, escalable y fiable que también puede ser excelente para la protección de datos HPC, ya que combina rendimiento y rentabilidad.

Para empezar, Exagrid se diseñó para manejar grandes masas de datos, lo que lo hace especialmente útil para las implantaciones HPC. También ofrece procesos de restauración extremadamente rápidos para el almacenamiento normal y las máquinas virtuales, sin que sea necesario ningún tipo de rehidratación antes de que los datos puedan volver a utilizarse.

Otras capacidades de ExaGrid incluyen una impresionante rentabilidad gracias a la arquitectura de precios por niveles y la dependencia de una combinación de hardware y software para sus tareas de copia de seguridad y recuperación. Cada unidad es su propio sistema independiente con almacenamiento, memoria, procesador y otros elementos necesarios, lo que facilita mucho la escalabilidad a largo plazo, ya que se pueden sustituir determinados elementos en lugar de todo el dispositivo.

Escalar

Rescale es un desarrollo relativamente reciente en esta industria – es una empresa de software que se creó allá por 2011 y ahora está ofreciendo tanto servicios en la nube como capacidades de software en la nube. La oferta de Rescale se denomina Computación Inteligente en la Nube; puede utilizarse para optimizar los flujos de trabajo HPC existentes (en su mayoría ejemplos on-premise).

La empresa también introduce regularmente nuevas y mejoradas tecnologías de nube en HPC para facilitar la conexión de los flujos de trabajo HPC on-premise con sus homólogos centrados en la nube. Por ejemplo, la capacidad de acceder a los recursos HPC de forma remota supone una enorme ventaja para los esfuerzos de colaboración e innovación en el sector, ya que la conexión es segura y protegida, y la capacidad de contactar con estos recursos mejora drásticamente la movilidad de las operaciones HPC.

Además, Rescale puede ofrecer un aprovisionamiento rápido para clústeres HPC basados en la nube, resolviendo así uno de los mayores problemas de las implantaciones HPC originales (el largo tiempo de aprovisionamiento). De este modo, las soluciones HPC pueden ampliarse o reducirse rápidamente, mejorando significativamente tanto la comodidad como el rendimiento de estas implantaciones.

Rescale tampoco intenta encerrar a sus clientes en el trabajo con un único proveedor de almacenamiento en la nube, creando oportunidades de soporte con varios proveedores de HPC en la nube y, al mismo tiempo, pudiendo gestionarlos todos a través de Rescale.

La empresa puede seguir ofreciendo todas las ventajas básicas de un entorno HPC en la nube, ya sea un tiempo de implantación más rápido en comparación con el HPC in situ, una escalabilidad más rápida, una gestión más sencilla y un menor coste inicial. Este tipo de ventajas funcionan bien con las propias mejoras de Rescale en el flujo de trabajo HPC existente, creando un paquete de servicios y entornos bastante interesante.

Advanced HPC

Otra empresa relativamente pequeña (en comparación con Microsoft y Amazon) especializada en servicios HPC se llama precisamente así: Advanced HPC. Se fundó en 2009 y sigue siendo uno de los principales proveedores de HPC del mercado. Advanced HPC no sólo ofrece servidores de alto rendimiento, soluciones de red y ofertas de infraestructura, sino que también hay muchas oportunidades de formación entre las que elegir.

Otras capacidades de Advanced HPC incluyen múltiples servicios profesionales en el mercado, incluida la capacidad de gestión:

  • Clusters HPC,
  • NAS a soluciones empresariales,
  • Sistemas de archivos paralelos, y mucho más.

AHPC ofrece la capacidad de construir soluciones HPC completas llave en mano desde cero en lugar de limitarse a vender componentes independientes para sistemas HPC. Cada uno de estos sistemas puede personalizarse de la forma específica necesaria para el campo de trabajo del cliente, creando un enfoque único para cada cliente con el que trabaja AHPC.

El paquete habitual de ventajas también se aplica a AHPC: se incluye un menor coste inicial, la infraestructura es mucho más flexible, más fácil de gestionar y el tiempo de implantación está muy por encima de cualquier implantación in situ.

HPE

HPE son las siglas de Hewlett Packard Enterprise, una multinacional de tecnología de la información de Estados Unidos. Se creó en 2015 como parte de la escisión de la empresa Hewlett-Packard. HPE se centra principalmente en el segmento B2B del mercado, ofreciendo funciones como redes, servidores, almacenamiento, contenedorización y mucho más.

Las capacidades de HPE como uno de los proveedores de HPC más destacados incluyen:

  • Almacenamiento de alto rendimiento: una solución de almacenamiento construida específicamente para cargas de trabajo rápidas de gran volumen que la HPC es conocida por esperar de sus cómputos y cálculos.
  • Servidores optimizados para HPC – combinaciones de rápidas capacidades de red, procesadores de alta velocidad y grupos de memoria extremadamente grandes.
  • Servidor HPE Superdome Flex – un servidor modular único para cargas de trabajo HPC.

HPE puede ofrecer capacidades de consultoría en el campo de la HPC (diseño óptimo de la infraestructura y objetivos de rendimiento esperados), capacidades de HPC basadas en la nube (capacidades básicas de implementación de HPC en la nube) y soporte integral al cliente para entornos HPC existentes (amplia experiencia técnica en el tema de HPC, solución de problemas, mantenimiento continuo y mucho más).

Las capacidades de HPC en la nube de HPE ofrecen el mismo conjunto de ventajas que pueden tener la mayoría de los proveedores de HPC en la nube, incluida una gestión más sencilla de la infraestructura, un menor coste inicial de implantación, una alta velocidad de implantación e incluso un mejor rendimiento gracias al hardware de HPE, fabricado a medida y optimizado para cargas de trabajo de HPC.

Storj

Storj es un servicio de almacenamiento distribuido en la nube que utiliza tecnologías blockchain para ofrecer una solución segura para el almacenamiento de datos, especialmente para información sensible como los datos de entrenamiento HPC. Storj puede ofrecer un acceso altamente eficiente a los datos, sin importar dónde se encuentren específicamente. También puede trabajar con grandes volúmenes de datos con facilidad, lo que lo convierte en un contendiente de primera para casos de uso orientados a HPC.

Es una solución rentable con una estructura descentralizada, lo que crea una combinación inusual de alta seguridad y bajo precio en el mismo paquete. La estructura en cuestión también ofrece mucha redundancia por defecto, lo que la hace muy valiosa para todos los casos de uso que valoran la alta disponibilidad y la durabilidad (HPC es uno de los principales ejemplos de este tipo de clientes).

Bacula Enterprise

Bacula Enterprise es una plataforma de copia de seguridad y recuperación muy segura y completa que destaca en entornos HPC, con muchas capacidades y funciones específicas para HPC entre las que elegir. Es compatible con muchos tipos de almacenamiento diferentes, incluyendo almacenamiento físico, almacenamiento virtual, almacenamiento en la nube, bases de datos, aplicaciones, etc. La solución en sí fue diseñada para manejar sistemas de datos vastos y complejos sin depender de precios basados en la capacidad, lo que la convierte en una opción interesante para muchas industrias y campos de especialización, incluida la HPC.

El sistema modular de Bacula lo convierte en una gran opción para prácticamente cualquier entorno complejo gracias a la capacidad de ampliar su funcionalidad original con un esfuerzo mínimo. También es excelente para gestionar y manejar grandes volúmenes de datos en diferentes formas, una capacidad importante que las infraestructuras HPC siempre están buscando. El software de Bacula también es altamente escalable y personalizable, lo que amplía significativamente sus capacidades en términos de clientela potencial. El sistema de suscripción que utiliza Bacula Enterprise es otra ventaja para las industrias que trabajan regularmente con grandes masas de datos, como la industria HPC. Por ejemplo, el modelo de licencias es altamente modular, lo que significa que los usuarios sólo pagan derechos de licencia por los módulos (o plugins) utilizados. Mejor aún, Bacula no estructura sus licencias por volumen de datos, lo que significa que el software no sólo es fácilmente escalable por diseño, sino también por precio.

Otro testimonio de las capacidades de Bacula en el campo de la HPC es el número de diferentes clientes que ha reunido a lo largo de los años, entre los que se incluyen organizaciones que utilizan infraestructuras HPC de forma habitual: la Escuela de Informática de la Universidad de Queen, la Universidad A&M de Texas, la Universidad de Gante e incluso la propia NASA. Como resultado de sus altos niveles de seguridad, confían en Bacula la mayor organización de defensa del mundo y el mayor prestamista no bancario del mundo.

Un área importante en la que Bacula contribuye al mundo de la HPC es el Cumplimiento. Para muchas organizaciones que se encuentran cada vez más en la necesidad de cumplir con los requisitos normativos y las necesidades de cumplimiento, la amplia información de Bacula en entornos HPC completos les ayuda a conseguir los estándares y certificaciones para que puedan funcionar correctamente.

Los retos de la HPC

La HPC puede ser una herramienta muy poderosa en las circunstancias adecuadas, pero la tecnología tiene su parte justa de desventajas y desafíos. Algunos de estos retos son relativamente comunes para un campo en rápida evolución como la HPC, mientras que otros son algo más inusuales en comparación.

  • Las infraestructuras HPC in situ suelen ser extremadamente caras en cuanto a su precio inicial. El servicio HPC en la nube es una buena alternativa mucho más barata en comparación, pero puede que no ofrezca la flexibilidad y comodidad de una infraestructura física gestionada personalmente. Por ello, muchas empresas intentan trabajar con algún tipo de entorno híbrido de HPC, que también ofrece sus propios retos relacionados con la complejidad.
  • Los sistemas HPC utilizan docenas de GPU y CPU en una única solución, y la compatibilidad es un tema muy problemático para este tipo de soluciones, ya que requiere muchos conocimientos y recursos para asegurarse de que el sistema funciona correctamente (un gran problema para las implantaciones HPC in situ). La misma lógica se aplica al lado del software del tema – la paralelización no es una tecnología plug-and-play, requiere mucha optimización y configuración para asegurar que las tareas computacionales se distribuyen uniformemente entre los recursos de HPC.
  • El rápido avance general del campo, especialmente cuando se trata de mejoras relacionadas con la IA, hace que sea aún más costoso mantenerse al día con los avances relacionados con la HPC tanto en términos de hardware como de software. Es cierto que se trata de un problema mucho mayor para las instalaciones HPC in situ, pero las HPC basadas en la nube también son susceptibles de sufrir el mismo problema, y los inconvenientes de las actualizaciones periódicas se traducirían tarde o temprano en un mayor coste del servicio.
  • Gestionar los HPC en su conjunto puede ser una tarea extremadamente difícil que no muchos profesionales de TI pueden manejar. El problema general es aún peor en el caso de las implantaciones híbridas de HPC debido a la combinación de soluciones HPC físicas y virtuales. Encontrar incluso a uno de estos profesionales puede ser todo un reto, y mantener a esa misma persona en la empresa es un desafío aún mayor en un entorno moderno con un alto nivel de competencia.
  • La seguridad de los datos en su conjunto sigue siendo un problema importante para cualquier industria moderna, incluida la HPC, especialmente cuando se trata de entornos HPC basados en la nube e híbridos.
  • Las preocupaciones existentes sobre el consumo de energía también están presentes en las soluciones de HPC, ya que estas soluciones utilizan múltiples unidades de hardware a la vez, lo que eleva exponencialmente los niveles generales de consumo de energía. La eficiencia energética es un tema muy importante en este contexto.

El futuro de la HPC

Si bien es cierto que gran parte de la reciente popularidad de la HPC puede atribuirse al repentino auge de la IA como la última «tendencia informática», el panorama general de estas tecnologías de alto nivel es relativamente volátil, lo que obliga a los proveedores de HPC a adaptarse y evolucionar lo más rápido posible para seguir siendo relevantes. Como tal, la industria de la HPC va a seguir existiendo mientras haya demanda de potencia de cálculo masiva para casos de uso específicos, ya sea IA, IoT, imágenes 3D, combinadas con uno de los muchos tipos diferentes de áreas de aplicación, como la simulación de física de partículas, el análisis meteorológico, el descubrimiento de fármacos y el modelado molecular, la secuenciación del genoma, la exploración espacial, la exploración de petróleo y gas, las imágenes sísmicas y el modelado de terremotos, etc. Los emocionantes y significativos avances de la HPC tanto en el frente técnico como en el estratégico significan que esta disciplina tiene un futuro brillante, y sin duda contribuirá mucho a la humanidad en el futuro.

Sobre el autor
Rob Morrison
Rob Morrison es el director de marketing de Bacula Systems. Comenzó su carrera de marketing de TI con Silicon Graphics en Suiza, desempeñando con fuerza varios puestos de gestión de marketing durante casi 10 años. En los siguientes 10 años, Rob también ocupó varios puestos de gestión de marketing en JBoss, Red Hat y Pentaho, asegurando el crecimiento de la cuota de mercado de estas conocidas empresas. Se graduó en la Universidad de Plymouth y tiene una licenciatura en Medios Digitales y Comunicaciones, y completó un programa de estudios en el extranjero.
Deja un comentario

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *