enero 21, 2025

Amazon presenta Trainium, un chip personalizado para aprendizaje automático en la nube

Amazon presentó hoy AWS Trainium, un chip diseñado a medida para ofrecer lo que la empresa describe como un modelo asequible de aprendizaje automático en la nube. Supere la disponibilidad de las nuevas instancias de Amazon Elastic Compute Cloud (EC2) basadas en Habana Gaudí, creadas específicamente para la capacitación en aprendizaje automático, basadas en los nuevos procesadores Habana Gaudi de Intel.

“Sabemos que queremos seguir impulsando el rendimiento de los precios en la capacitación en aprendizaje automático, por lo que tendremos que invertir en nuestros chips”, dijo el CEO de AWS, Andy Jassy, ​​durante un discurso en la conferencia re: Invent de Amazon esta mañana. “Tiene una gama inigualable de instancias en AWS, junto con la innovación en chips”.

Amazon AWS Tranium

Amazon dice que Trainium ofrecerá la mayor cantidad de teraflops de cualquier instancia de aprendizaje automático en la nube, donde un teraflop se traduce en un chip capaz de procesar un billón de cálculos por segundo. (Amazon informa un 30% más de rendimiento y un 45% menos de costo por inferencia que las instancias estándar de GPU de AWS). Cuando Trainium esté disponible para los clientes en la segunda mitad de 2021 como instancias EC2 y en SageMaker, la plataforma de desarrollo de aprendizaje automático completamente administrada de Amazon, admitirá marcos populares como TensorFlow de Google, PyTorch de Facebook y MxNet. Además, Amazon dice que usará el mismo Neuron SDK que Inferentia, el chip alojado en la nube de la compañía para la inferencia de aprendizaje automático.

“Aunque Inferentia ha abordado el costo de la inferencia, que representa hasta el 90 por ciento de los costos de infraestructura de ML, muchos equipos de desarrollo también están limitados por presupuestos fijos para la capacitación de ML”, escribió AWS en una publicación de blog. “Esto limita el alcance y la frecuencia de la formación necesaria para mejorar sus modelos y aplicaciones. AWS Trainium aborda este desafío al proporcionar capacitación de aprendizaje automático de mayor rendimiento y menor costo en la nube. Con Trainium e Inferentia, los clientes tendrán un flujo de procesamiento de aprendizaje automático de extremo a extremo, desde escalar las cargas de trabajo de capacitación hasta implementar inferencias aceleradas “.

En ausencia de resultados de referencia, no está claro cómo se compara el rendimiento de Trainium con las unidades de procesamiento tensorial (TPU) de Google, los chips del gigante de las búsquedas para las cargas de trabajo de entrenamiento de IA alojadas en Google Cloud Platform. Google dice que su próxima TPU de cuarta generación ofrece más del doble de teraflops de multiplicación de matrices que una TPU de tercera generación. (Las matrices se utilizan a menudo para representar los datos que impulsan los modelos de inteligencia artificial). También ofrece un aumento “significativo” en el ancho de banda de la memoria, mientras se beneficia de los avances no especificados en la tecnología de interconexión.

Históricamente, las implementaciones de aprendizaje automático se han visto limitadas por el tamaño y la velocidad de los algoritmos y la necesidad de hardware costoso. De hecho, un informe del MIT descubrió que el aprendizaje automático puede estar acercándose a los límites computacionales. Un estudio separado realizado por Synced estimó que el modelo de detección de noticias falsas Grover de la Universidad de Washington cuesta $ 25,000 para entrenar en aproximadamente dos semanas. Según los informes, OpenAI recaudó la friolera de $ 12 millones para entrenar su modelo de lenguaje GPT-3, y Google gastó alrededor de $ 6,912 para entrenar BERT, un modelo de transformador bidireccional que redefinió el estado del arte para 11 tareas informáticas. del lenguaje natural.

Amazon se ha basado cada vez más en la inteligencia artificial y el aprendizaje automático y los servicios de inferencia a medida que crece la demanda en el negocio. Según una estimación, el mercado global de aprendizaje automático se valoró en $ 1,58 mil millones en 2017 y se espera que alcance los $ 20,83 mil millones en 2024. En noviembre, Amazon anunció que había trasladado parte de la informática para Alexa y Rekognition a instancias. basado en Inferentia, con el objetivo de hacer el trabajo más rápido y más barato alejándolo de los chips Nvidia. En ese momento, la compañía afirmó que cambiar a Inferentia para algunos de sus trabajos de Alexa resultó en una latencia un 25% mejor a un costo 30% menor.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *