Conecta con nosotros

Noticias

Nace Ultra Accelerator Link, un grupo para impulsar la conectividad de la IA en centros de datos

Publicado el

Nace Ultra Accelerator Link, un grupo para impulsar la conectividad de la IA en centros de datos

Varias grandes del sector de la tecnología, entre las que están AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta y Microsoft; han anunciado la creación del grupo UALink (Ultra Accelerator Link Consortium), con el fin de dar un impulso a la conectividad de la IA en centros de datos.

Este grupo se encargará del desarrollo de in nuevo estándar de la industria para potenciar la comunicación de alta velocidad y baja latencia para la interconexión de sistemas de día en dicho tipo de instalaciones. Sus miembros iniciales se encargarán de la definición y el establecimiento de este estándar, que desarrollará una interconexión basada en estándares abiertos. Por ahora se desconoce si se unirán más actores a este grupo, ya que por ahora hay ausencias importantes entre sus miembros. Por ejemplo, la de Nvidia.

Si los planes de las empresas fundadoras del grupo salen según lo previsto, el consorcio quedará constituido a lo largo del tercer trimestre de este año. Además, la especificación tendrá su primera versión antes de octubre a disposición de las empresas que se unan al grupo. UALink es una tecnología de interconexión de aceleradores de alta velocidad centrada en la mejora del rendimiento de los clústeres de IA y machine learning de última generación.

De esta manera, los fabricantes de equipos, profesionales de TI e integradores de sistemas contarán con una vía para facilitar la integración de sistemas, así como para aumentar la flexibilidad y la escalabilidad de los centros de datos conectados con IA. Las empresas que forman parte de este grupo inicial promotor aportarán su experiencia en creación de soluciones de IA y HPC a gran escala basadas en estándares abiertos.

UALink, con la nueva especificación que creará para el sector, tendrá un papel destacado en la estandarización de la interfaz para aplicaciones de IA y aprendizaje automático, así como para HPC y para la nube. La especificación definirá una interconexión preparada para comunicaciones escalables entre aceleradores y conmutadores en pods de Inteligencia Artificial. Su versión 1.0 permitirá la conexión de hasta 1.024 aceleradores dentro de uno de estos pods, y permitirá cargas y almacenamiento directo entre la memoria conectada a los aceleradores, como la GPU, en el pod.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído