Los últimos resultados de MLCommons destacan las ganancias competitivas de IA para Intel

Por 3 de julio de 2023 julio 6th, 2023 Noticias

Habana Gaudi2 y los procesadores escalables Intel Xeon de cuarta generación ofrecen un rendimiento líder y ahorros de costes óptimos para la capacitación en IA.

El 27 de junio de 2023, MLCommons publicó sus resultados de su estudio de referencia de rendimiento IA de la industria, MLPerf Training 3.0, en el que tanto el acelerador de Deep Learning Habana Gaudi 2 como el procesador escalable Intel Xeon de 4ª generación brindaron resultados de capacitación impresionantes.

Los últimos resultados de MLPerf publicados por MLCommons validan el valor del TCO que los procesadores Intel Xeon y los aceleradores de aprendizaje profundo Intel Gaudi brindan a los clientes en el área de IA. Los aceleradores integrados de Xeon lo convierten en una solución ideal para ejecutar cargas de trabajo de volumen de IA en procesadores de propósito general, mientras que Gaudi ofrece un rendimiento competitivo para modelos de lenguaje grandes e IA generativa. Los sistemas escalables de Intel con software abierto optimizado y fácil de programar reducen la barrera para que los clientes y socios implementen una amplia gama de soluciones basadas en IA en el centro de datos desde la nube hasta el borde inteligente”. Sandra Rivera, vicepresidenta ejecutiva de Intel y gerente general del Centro de Datos e IA de Intel.

El planteamiento inicial actual es que la IA generativa y los modelos de lenguaje extenso (LLM) sólo pueden ejecutarse en las GPUs de NVIDIA. Pero los nuevos datos muestran que la cartera de soluciones de IA de Intel ofrece opciones competitivas y convincentes para los clientes que buscan liberarse de los ecosistemas cerrados que limitan la eficiencia y la escala.

Los últimos resultados de MLPerf Training 3.0 destacan el rendimiento de los productos de Intel en una variedad de modelos de aprendizaje profundo. La madurez del software y los sistemas de capacitación basados ​​en Gaudi2 se demostró a escala en el modelo de lenguaje grande, GPT-3. Gaudi2 es una de las dos únicas soluciones de semiconductores que presenta resultados de rendimiento al punto de referencia para la capacitación LLM de GPT-3.

Gaudi2 también proporciona ventajas de costos sustancialmente competitivas a los clientes, tanto en los costos del servidor como del sistema. El rendimiento validado por MLPerf del acelerador en GPT-3, visión por computadora y modelos de lenguaje natural, además de los próximos avances de software, hacen de Gaudi2 una alternativa de precio/rendimiento extremadamente atractiva para el H100 de Nvidia.

En el frente de la CPU, el rendimiento del entrenamiento de aprendizaje profundo de los procesadores Xeon de cuarta generación con motores Intel AI demostró que los clientes pueden construir con servidores basados ​​en Xeon un único sistema universal de AI para preprocesamiento de datos, entrenamiento de modelos e implementación para ofrecer la combinación correcta de Rendimiento, eficiencia, precisión y escalabilidad de la IA.

Resultados destacados:

  • Gaudi2 entregó un impresionante tiempo de entrenamiento en GPT-3 1 : 311 minutos en 384 aceleradores.
  • Escala casi lineal del 95 % de 256 a 384 aceleradores en el modelo GPT-3.
  • Excelentes resultados de capacitación en visión artificial (aceleradores ResNet-50 8 y aceleradores Unet3D 8) y modelos de procesamiento de lenguaje natural (aceleradores BERT 8 ​​y 64).
  • Aumentos de rendimiento del 10 % y 4 %, respectivamente, para los modelos BERT y ResNet en comparación con la presentación de noviembre, evidencia de la creciente madurez del software Gaudi2.
  • Los resultados de Gaudi2 se enviaron “listos para usar”, lo que significa que los clientes pueden lograr resultados de rendimiento comparables al implementar Gaudi2 en las instalaciones o en la nube.
  • En la división cerrada, los Xeon de cuarta generación podrían entrenar modelos BERT y ResNet-50 en menos de 50 minutos. (47,93 min.) y menos de 90 min. (88,17 min.), respectivamente.
  • Con BERT en la división abierta, los resultados muestran que Xeon pudo entrenar el modelo en unos 30 minutos (31,06 min.) al escalar a 16 nodos.
  • Para el modelo RetinaNet más grande, Xeon pudo lograr un tiempo de 232 minutos. en 16 nodos, lo que brinda a los clientes la flexibilidad de usar ciclos Xeon fuera de las horas pico para entrenar sus modelos en el transcurso de una mañana, durante el almuerzo o durante la noche.
  • La 4ª Generación de Intel Xeon Advanced Matrix Extensions (Intel® AMX) ofrece importantes mejoras de rendimiento listas para usar que abarcan múltiples marcos, herramientas de ciencia de datos de extremo a extremo y un amplio ecosistema de soluciones inteligentes.

Como partners de Intel desde hace más de 10 años, en Flytech conocemos todas las soluciones y oportunidades que nos presentan los productos de Intel.

Solicitar más información

Deja un comentario