¿Qué es un acelerador de IA?
Los aceleradores de IA (o aceleradores de IA) son componentes de hardware que permiten acelerar las tareas informáticas de IA. Los aceleradores son turbo procesadores que permiten realizar tareas específicas como el reconocimiento de patrones, el análisis de datos no estructurados, las simulaciones Monte Carlo, las tareas de streaming o la construcción de redes neuronales.
Para las tareas de IA en general, hace tiempo que los procesadores convencionales no son suficientes y en muchos centros de datos se utilizan procesadores gráficos (GPU) mucho más rápidos. Las operaciones informáticas del procesamiento de imágenes son similares a las de Redes neuronales y, por tanto, merece la pena utilizar una GPU adecuada. Sin embargo, estas GPU no están diseñadas específicamente para tareas de Aprendizaje profundo y, por tanto, alcanzan rápidamente sus límites.
El hardware se convierte así en un cuello de botella para el rendimiento. Mientras tanto, sin embargo, muchos fabricantes de chips están desarrollando aceleradores que pueden aumentar enormemente la velocidad de cálculo del sistema. Los aceleradores de IA proceden principalmente del fabricante Nvidia. Google, por ejemplo, utiliza las GPU "Tesla P100" y "Tesla K80" en su "Google Cloud Platform". Están apareciendo en el mercado unidades de sistema de alto rendimiento y hay ASIC (Application-Specific Integrated Circuits) "neurooptimizados". Estos se utilizan en dispositivos finales como smartphones, gafas de datos y cámaras IP, así como en pequeños dispositivos. Estos chips sólo son aptos para funciones específicas y están diseñados para ello. Los chips especiales muestran sus ventajas en el aprendizaje profundo y los superordenadores altamente acelerados ayudan a realizar cálculos exhaustivos de IA. La Unidad de Procesamiento Tensorial (TPU) de Google, en particular, puede presumir de su arquitectura ASIC para la aceleración de la IA.
La computación de alto rendimiento (HPC) y la hiperescala también aportan más rendimiento para los cálculos de IA. También hay grandes esperanzas puestas en la Informática cuántica: los ordenadores del futuro. También son prometedores para el futuro los microchips neuromórficos.
¿Acelerador de IA con tarjeta adicional o GPU?
Kontron ofrece ahora un nuevo concepto para su uso en inteligencia artificial. La "Kontron Industrial AI Platform" ofrece un alto rendimiento y con una tarjeta adicional acelera los cálculos. Así, el último módulo Smarc utilizará la GPU para obtener más rendimiento.
La inteligencia artificial está adquiriendo una importancia significativa en el Intelligent Edge de la automatización industrial. La TPU (unidad de procesamiento de sensores) admite aplicaciones pequeñas y de bajo consumo con solo 1 vatio para 2 TOPS. Así, una simple cámara USB sin TPU ofrece solo 6 fotogramas por segundo y una con TPU ofrece cinco veces la velocidad de 30 fotogramas por segundo.
Las aplicaciones de la Industria 4.0 requieren mucha potencia de cálculo. El reconocimiento de objetos, la clasificación y la inspección de la calidad de los objetos, así como el mantenimiento predictivo, se utilizan y se basan en algoritmos de IA. La inteligencia artificial es cada vez más importante para las aplicaciones de los puntos de venta. La publicidad y la información relevante deben colocarse de forma más selectiva. Las tarjetas complementarias ofrecen un alto rendimiento y son ideales para aplicaciones especiales. Las GPU, por su parte, son baratas y generalmente útiles para calcular tareas de IA.
¿Qué aceleradores de IA existen?
La cuestión es qué hardware debe utilizarse para que su funcionamiento sea lo más rápido y eficiente posible. En la IA intervienen dos grandes áreas de aplicación. Por un lado, el entrenamiento de las redes neuronales, que requiere un gran esfuerzo informático, y, por otro, la inferencia, es decir, la extracción de conclusiones a partir de los datos de entrada.
Mediante el entrenamiento, el sistema de aprendizaje automático aprende a partir de una serie de datos de muestra procesados. La calidad de la inferencia de los modelos de IA puede seguir mejorando con el tiempo. Una vez completada la fase de aprendizaje, el sistema de IA está incluso listo para evaluar datos desconocidos. Para el proceso de aprendizaje automático se utiliza el framework TensorFlow for Deep Learning. Al final, la aplicación de IA puede clasificar las piezas de producción en piezas buenas y piezas rechazadas.
Los aceleradores de IA más importantes son las tarjetas gráficas de NVIDIA. Las GPU especialmente optimizadas para IA pueden implementar cientos de cálculos paralelos y crear una potencia de cálculo de más de 100 TeraFLOPS. Los usuarios de IA pueden elegir entre servidores estándar, GPU y chips de IA. En función de las necesidades, se pueden utilizar los dispositivos de hardware adecuados. NVIDIA es realmente rápida y sólo necesita 75 vatios en funcionamiento. La inferencia funciona con un bajo consumo de energía. Para entrenar modelos de aprendizaje automático se recomienda una GPU Fujitsu NVIDIA con núcleos Volta, como una Tesla V100. Estas tarjetas son muy grandes y ocupan dos ranuras. Consumen mucha energía y tienen un precio más elevado. Para requisitos exigentes, está la DLU para Deep Learning.