Noticias
Google consigue diseñar chips para IA más pequeños gracias al deep learning
Un grupo de académicos de la Universidad de California en Berkeley e investigadores de Google aseguran haber dado con un sistema para utilizar el deep learning para diseñar chips más pequeños y rápidos capaces de trabajar en Inteligencia Artificial. Los investigadores aseguran que han desarrollado un enfoque de deep learning, al que han llamado Prime, que genera arquitecturas de chips de Inteligencia Artificial a partir de figuras de rendimiento y patrones existentes.
Los investigadores aseguran que su enfoque puede generar diseños con menor latencia y que ocupan menos espacio que el acelerador EdgeTPU que Google tiene en producción, y que otros diseños realizados mediante herramientas tradicionales. Además de diseños más rápidos y eficientes, el enfoque Prime es relevante ya que serviría para solventar dos de los principales problemas del diseño de chips basado en simulaciones, que es el que se emplea habitualmente: la cantidad de tiempo que se invierte en su diseño y la cantidad de recursos de computación que requieren.
Además, según han manifestado, el diseño de chips mediante el uso de software de simulación puede derivar en patrones inviables al intentar mejorar en aspectos concretos, como un consumo de energía menor o una latencia más baja. Pero los realizados con el sistema Prime cuentan con un 50% menos de latencia que los generador mediante métodos basados en simulación. Además, el enfoque Prime redujo el tiempo necesario para el desarrollo de patrones en un 99%.
Por otro lado, los investigadores, tanto los de Berkeley como los de Google, compararon el rendimiento de los diseños de chips generados mediante Prime con EdgeTPU producidos a partir de simulaciones trabajando con nueve aplicaciones de Inteligencia Artificial, entre las que estaban los modelos de clasificación de imagen MobileNetV2 y MobileNetEdge. Para empezar, los diseños con Prime estaban optimizados para cada aplicación, y según los investigadores, mejoraron la latencia 2,7 veces, y redujeron el uso de zonas troqueladas 1,5 veces.
Esto último dejó sorprendidos a los investigadores, porque no habían entrenado a Prime para reducir el tamaño de los troqueles, algo que puede reducir los costes de su fabricación, además de rebajar su consumo de energía. Otros modelos probados obtuvieron todavía mejores resultados en cuanto a latencia y área de troquelado.
Aparte de esto, los investigadores utilizaron Prime para diseñar chips optimizados para trabajar bien con diversas aplicaciones la mismo tiempo, y descubrieron que los diseños con Prime tenían también mejor rendimiento en cuanto a latencia que los diseñados por simulación. Esto sucedía incluso cuando se utilizaban con aplicaciones para las que no había datos de entrenamiento. Además, el rendimiento mejoraba utilizando más aplicaciones.
El grupo de investigadores empleó también Prime para diseñar un chip que pudiese ofrecer el mejor rendimiento posible con las nueve aplicaciones mencionadas. Y en las pruebas solo hubo tres diseños realizados con Prime con una latencia mayor que la de los diseños basados en simulador. Según descubrieron, esto se debía a que Prime favorece los diseños que tienen más memoria integrada en el chip. Como consecuencia, los chips tienen menor potencia de procesador.
Para desarrollar Prime, los investigadores crearon lo que se conoce como un modelo de predicción robusto, que aprende a generar diseños de chip optimizados a partir de los datos de patrones de chips de Inteligencia Artificial que se le suministran. Aprende incluso de diseños de chips que no funcionan. Eso sí, para evitar los obstáculos asociados al uso de machine learning supervisado, los investigadores diseñaron Prime para evitar confusiones por parte de los conocidos como ejemplos antagonistas.
A la vista de los resultados, los investigadores aseguran que el enfoque permite optimizar el modelo para aplicaciones concretas y obtener así mejores resultados. Prime puede además optimizarse para aplicaciones para las que no hay datos de entrenamiento. Para conseguirlo basta con entrenar un modelo de gran envergadura con datos de diseño en aplicaciones para las que sí hay datos disponibles.
Prime no cambiará la ingeniería de chips de Google de la noche a la mañana, pero los investigadores señalan que es prometedor para varias aplicaciones. Entre ellas, para la creación de chips para aplicaciones que requieren la solución de problemas de optimización complejos, así como el uso de patrones de chips de bajo rendimiento para entrenar datos para ayudar al impulso del diseño de hardware. También esperan poder utilizar Prime para el diseño conjunto de hardware y software.
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 6 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace