La aplicación de la IA impulsa el desarrollo de la informática en la memoria
Time:2023-02-16

Desde el desarrollo de las aplicaciones, la aparición de la IA ha impulsado el desarrollo del almacenamiento computacional/almacenamiento integrado y la computación/computación en memoria. La aplicación de tecnología de integración de almacenamiento y cálculo en IA incluye comandos de voz, mejora de voz, monitoreo de salud, identificación del entorno, controles de gestos, clasificación de deportes, detección de objetos, posicionamiento, etc.


Las características de uso intensivo de memoria (demanda de big data) y uso intensivo de computación (operación regular de baja precisión) de los algoritmos de IA brindan condiciones poderosas para la realización del almacenamiento computacional/integración de almacenamiento y computación/computación en memoria:

1) El algoritmo de IA es una red muy grande y compleja, que contiene una gran cantidad de datos de imagen y parámetros de peso, y se generará una gran cantidad de datos durante el proceso de cálculo. Tomando la red VGG-16 como ejemplo, el número de pesos es de aproximadamente 1,4*108, el procesamiento de una imagen de 3 canales con un tamaño de 224*224 requiere aproximadamente 1,5*1010 operaciones de multiplicación y suma, y los datos deben almacenarse en la unidad de cómputo y Movimiento frecuente entre unidades. El ancho de banda de acceso a la memoria se ha convertido en uno de los cuellos de botella importantes de las redes neuronales convolucionales. Al mismo tiempo, el consumo de energía necesario para mover los datos del almacenamiento DRAM a las unidades informáticas es 200 veces mayor que el de la propia informática, lo que afecta gravemente a la eficiencia energética computacional de las redes neuronales convolucionales. Por lo tanto, para las redes neuronales convolucionales, existe una necesidad urgente de medios adecuados para reducir el movimiento de datos y su rendimiento resultante y la sobrecarga de consumo de energía.

2) Hay una gran cantidad de operaciones regulares en el proceso de entrenamiento y razonamiento de los algoritmos de IA, como las operaciones de multiplicación y suma. Para completar una gran cantidad de cálculos, la idea general de diseño de chips es agregar una gran cantidad de unidades de cómputo paralelas, como miles de unidades de convolución. Sin embargo, con el aumento de las unidades informáticas, el ancho de banda de la memoria y la capacidad que puede utilizar cada unidad informática están disminuyendo gradualmente, y el acceso a la memoria se ha convertido en el cuello de botella del rendimiento de la IA. El problema central encontrado en la implementación de chips de algoritmos de IA ha pasado de la fuerte demanda original de poder de cómputo a las restricciones en el ancho de banda de acceso a la memoria y el consumo de energía. Por ejemplo, una GPU que puede proporcionar una gran cantidad de recursos informáticos, su potencia informática real y los recursos informáticos se reducen considerablemente durante el tiempo de ejecución, y la eficiencia informática se ve muy limitada por el acceso a la memoria. Al mismo tiempo, los cálculos en algoritmos de IA no requieren alta precisión.


Por lo tanto, en vista de la naturaleza intensiva en memoria de los algoritmos de IA, así como las operaciones regulares y los requisitos de baja precisión en la computación intensiva, muchos investigadores han comenzado a prestar atención al almacenamiento computacional/almacenamiento integrado y la computación/in-memory. Y los requisitos de computación de baja precisión también brindan más posibilidades para su realización.

WITMEM (2).png