El entrenamiento de algoritmos de aprendizaje automático (machine learning, ML), especialmente redes neuronales artificiales como las que utilizan los grandes modelos lingüísticos, está llevando cada vez más al límite el hardware actual. Para generalizar la aplicación y el uso de la IA, es muy importante contar con un hardware especializado y potente. Los chips dedicados a la IA son cada vez más populares porque ofrecen formas más eficientes de paralelizar los cálculos. Algunas empresas emergentes, así como varios gigantes tecnológicos, ya están desarrollando hardware de IA de última generación, impulsando aún más la investigación y el uso del ML y, especialmente, del aprendizaje profundo. En este artículo, presentamos las 10 principales empresas de hardware de IA que están diseñando actualmente nuevos chips de IA con enfoques innovadores y creando así las condiciones para el ML del futuro.
Inhaltsverzeichnis
Clasificación 10 - Groq
Fundada por antiguos empleados de Google, la startup Groq desarrolla procesadores de IA y alto rendimiento para aplicaciones ML que requerían baja latencia. Con un diseño desde cero arquitectura de un solo chip de nuevo desarrollo Los procesadores Groq tienen baja latencia y ofrecen un escalado casi lineal diseñado para aplicaciones ML en tiempo real. En lugar de intentar superar la arquitectura de la competencia, Groq comenzó con el desarrollo de un Compiladores de software. Esto tiene una ventaja decisiva: la infraestructura del chip puede utilizarse así de forma mucho más eficiente.
9º puesto - Hailo
La tecnología de hardware Deep Learning de Hailo está diseñada para llevar los beneficios de la IA a pequeña escala. Adecuada para robots, vehículos autónomos y otros Dispositivos EgdeEl procesador Hailo-8 ofrece funciones de aprendizaje profundo. Rápido y con bajo consumo energético. El compilador desarrollado por Hailo está pensado para distribuir distintas capas de redes neuronales artificiales en diferentes zonas del chip y garantizar así un procesamiento de datos más rápido y eficaz.
Puesto 8 - Graphcore
Graphcore adopta un enfoque diferente: como fabricante de chips de IA mejor valorado de Europa, la start-up se ha especializado en el desarrollo de IPU (Unidades de Procesamiento Inteligente). Las unidades de procesamiento inteligente de Graphcore están diseñadas para acelerar significativamente la formación en ML mediante una arquitectura optimizada para el procesamiento en paralelo. En lugar de separar las capacidades de memoria y computación, los chips tienen una MIMD (instrucción múltiple, datos múltiples) Arquitectura. Esto permite almacenar pequeños paquetes de datos cerca del núcleo respectivo para su cálculo y procesarlos en paralelo. De este modo, los grandes conjuntos de datos pueden procesarse más rápidamente y se reduce el tiempo necesario para entrenar un modelo ML. A diferencia de los cálculos con GPU de un rango de precios similar y con un consumo de energía comparable, el tiempo de entrenamiento de un modelo ML es significativamente menor.
Clasificación 7 - Sistemas Cerebras
La empresa Cerebras Systems se ha especializado en el desarrollo de procesadores de aprendizaje profundo especialmente grandes. Con un tamaño de 462,25 cm², 850.000 núcleos de procesador y 40 GB de RAM, Cerebras ha desarrollado el mayor procesador de IA del mundo: el Wafer-Scale Engine 2. El Procesador con el tamaño de un iPad está diseñado para el cálculo de álgebra lineal, la base del Deep Learning y las redes neuronales. Disponible como sistema independiente con refrigeración, fuente de alimentación y varias interfaces, el procesador empaqueta la potencia de toda una sala de servidores en el factor de forma de un mini frigorífico.
6º puesto - IBM
Como uno de los primeros desarrolladores de hardware de IA, IBM presentó su "Neuromorphic Chip TrueNorth AI" en 2014. El chip contiene 5.400 millones de transistores, un millón de neuronas y 256 millones de sinapsis, y es capaz de procesar IA profunda. Interferencias en la red e interpretar los datos con gran calidad. Recientemente, IBM lanzó el Procesador Telum un chip de IA desarrollado para casos de uso específicos. Con este nuevo chip, IBM se centra principalmente en las ventas a fabricantes y centros de datos y servidores.
5º puesto - Google
El gigante tecnológico Google es conocido por sus servicios e infraestructuras en la nube, así como por su motor de búsqueda homónimo. Sin embargo, Google también ha desarrollado hardware de IA en el pasado: Con la unidad de procesamiento tensorial (TPU), Google Cloud cuenta con una AISC (Circuito integrado de aplicación específica) AI Acelerador desarrollado para redes neuronales profundas y ML "tradicional". El chip es utilizado principalmente por clientes de Google Cloud de todo el mundo para acelerar los cálculos de ML. La empresa también ha desarrollado la TPU Edge, una versión mucho más pequeña de la TPU. Está disponible como un acelerador de IA externo para PC, así como un Chip soldable para placas ML y los herrajes de los bordes.
Puesto 4 - SambaNova Systems
SambaNova Systems adopta un enfoque completamente distinto al de los demás candidatos de esta lista: el Startup alquila centros de datos completos - equipado con hardware desarrollado por SambaNova- y ofrece así tanto la infraestructura como una plataforma para el desarrollo de proyectos de ML. El software de la start-up unicornio ofrece servicios de ML, NLP y visión por ordenador basados en datos específicos del dominio proporcionados por el cliente. Mientras que otros desarrolladores de hardware suelen especializarse únicamente en hardware y compiladores, SambaNova incluye la infraestructura completapara hacer la IA más accesible a las empresas.
3er puesto - AMD
Porque Procesadores gráficos son actualmente la opción más popular y económica para ML, las GPU desarrolladas por AMD para Big Data e IA desempeñan un papel fundamental. La empresa estadounidense, que desarrolla principalmente CPU y GPU para servidores, centros de datos y uso doméstico, también ha lanzado GPU HPC, una Clúster de GPUadecuados para el aprendizaje automático. Estos aceleradores de IA se encuentran en centros de datos extendida por todo el mundo y puede ayudar a acelerar el procesamiento y cálculo de Big Data a gran escala.
2º puesto - Intel
Intel es uno de los mayores fabricantes de hardware informático con un largo historial de desarrollo tecnológico. En 2017, la empresa superó la barrera de los 1.000 millones de dólares de ingresos por chips de IA. Los procesadores Xeon de Intel, adecuados para una amplia gama de tareas, incluida la informática en centros de datos, han tenido un gran impacto en su éxito comercial. Gaudí es un nuevo Acelerador de entrenamiento para redes neuronales de Intel, que ofrece una escalabilidad casi lineal con modelos cada vez más grandes y tiene un coste total de propiedad relativamente bajo. Para la inferencia, Intel ha desarrollado Goya, que está optimizado para el rendimiento y la latencia. Intel® NCS2 es el chip de IA más reciente de Intel y ha sido especialmente para el aprendizaje profundo desarrollado. Como se puede ver, Intel tiene algunos chips serios en su arsenal. Sin embargo, la empresa está adoptando un enfoque diferente al de los desarrolladores de GPU, ya que se centra principalmente en ML compatible con CPU especializado.
1er puesto - NVIDIA
NVIDIA lleva tiempo desarrollando procesadores gráficos de alta calidad para el sector del videojuego. Así, ordenadores personales, consolas, centros de datos y servidores de todo el mundo utilizan las GPU NVIDIA para todo tipo de cálculos. Los chips de NVIDIA siguen siendo los Primera elección para centros de datosque realizan cálculos paralelos, como el aprendizaje automático y el aprendizaje profundo. NVIDIA ofrece nuevos chips de IA para HPC (computación de alto rendimiento), centros de datos, dispositivos periféricos como vehículos autónomos, teléfonos móviles y mucho más. La "Plataforma completa para computación acelerada" permite, con la ayuda de varios SDK (kits de desarrollo de software), conectar de forma óptima el software y el hardware y desarrollar individualmente aplicaciones para casos de uso de IA en cualquier área de aplicación. Con CUDA como plataforma probada de cálculo paralelo e interfaz de programación, los recursos de hardware pueden utilizarse de forma óptima.
0 comentarios