Los chips programables Silicon One (5 nm) presentados por cisco están destinados a respaldar infraestructuras de inteligencia artificial (IA) y aprendizaje automático (ML) a gran escala para empresas e hiperescaladores. Los chips Silicon One G200 (51,2 Tbps) y G202 (25,6 Tbps) aumentan la familia Silicon One a 13 unidades. Cada conjunto de chips se puede personalizar para enrutamiento o conmutación, eliminando la necesidad de diferentes arquitecturas de silicio para cada función de red, gracias a un sistema operativo común, un código de transferencia programable P4 y un kit de desarrollo de software (SDK).

Los equipos ubicados en la parte superior de la familia Silicon One brindan mejoras ideales para implementaciones exigentes de AI/ML u otras aplicaciones altamente distribuidas, según Rakesh Chopra, miembro de Cisco del Common Hardware Group del proveedor. “La industria está atravesando un gran cambio. Hasta entonces, estábamos acostumbrados a construir grupos de computación de alto rendimiento razonablemente pequeños que parecían grandes en ese momento, pero eso no era nada comparado con las implementaciones absolutamente gigantescas requeridas para AI/ML”, dijo. dijo el señor Chopra. Los modelos de IA/ML han pasado de unas pocas GPU a decenas de miles conectadas en paralelo y en serie. "La cantidad de GPU y la escala de la red no tienen precedentes", añadió.

La familia Silicon One ahora incluye 13 chips programables dedicados al enrutamiento o conmutación. (Crédito a Cisco)

Índice
  1. Soporte para funciones Ethernet mejoradas
  2. En el camino hacia el tejido programado

Soporte para funciones Ethernet mejoradas

Entre las mejoras introducidas por Silcon One, el ejecutivo destaca el procesador de paquetes paralelo programable P4 capaz de lanzar más de 435 mil millones de búsquedas por segundo. "El búfer de paquetes se comparte completamente y cada puerto tiene acceso completo al búfer de paquetes, independientemente de lo que esté sucediendo", explicó Chopra. Esto es muy diferente a asignar buffers a puertos de entrada y salida individuales, lo que hace que el buffer dependa del puerto al que están destinados los paquetes. "Esta atribución limita la capacidad de escribir a través de ráfagas de tráfico y lo pone en mayor riesgo de perder un paquete, lo que realmente perjudica el rendimiento de AI/ML", explicó con más detalle. "Además, cada dispositivo Silicon One puede admitir 512 puertos Ethernet, lo que permite a los clientes construir un clúster de IA/ML con GPU de 32K 400G con un 40 % menos de conmutadores que otros dispositivos de silicio necesarios para admitir ese clúster", añadió Chopra.

El rendimiento del circuito G200 de cuarta generación multiplica por diez el rendimiento teórico de la familia Silicon One. (Crédito a Cisco)

La función esencial del circuito Silicon One es admitir funciones Ethernet mejoradas, como control de flujo, detección y evitación de congestión. El componente también incorpora capacidades avanzadas de equilibrio de carga y distribución de paquetes que distribuyen el tráfico entre múltiples GPU o conmutadores para evitar la congestión y mejorar la latencia. "La recuperación de fallos de enlace basada en hardware también ayuda a garantizar que la red funcione con la máxima eficiencia", afirmó el proveedor.

En el camino hacia el tejido programado

Al combinar estas tecnologías Ethernet mejoradas y llevarlas más lejos, los clientes pueden, en última instancia, implementar lo que Cisco llama Scheduled Fabric. "En una estructura programada, los componentes físicos (chips, ópticas, conmutadores) están vinculados entre sí como en un gran chasis modular y se comunican entre sí para proporcionar un comportamiento de programación óptimo", dijo Chopra. "En última instancia, el rendimiento del ancho de banda es mucho mayor, especialmente para los flujos de IA/ML, lo que da como resultado tiempos de ejecución de tareas mucho más rápidos porque las GPU funcionan de manera mucho más eficiente", añadió. "Con los dispositivos y el software de Silicon One, los clientes pueden implementar tantas funciones, más o menos, como quieran", dijo Chopra.

Cisco es sólo un actor en este creciente mercado de redes de IA junto con Broadcom, Marvell, Arista y otros. Según un blog reciente del Grupo 650, se espera que este mercado alcance los 10.000 millones de dólares en 2027, frente a los 2.000 millones de dólares actuales. “Las redes de IA han estado prosperando durante dos años, cuando comenzamos a rastrear las redes de IA/ML. En nuestro pronóstico, AI/ML se considera una gran oportunidad para la creación de redes y un impulsor clave del crecimiento de las redes de centros de datos”, afirma el blog de 650 Group. “El impacto de la IA/ML en las redes está impulsado por la enorme cantidad de ancho de banda que los modelos de IA necesitan entrenar, las nuevas cargas de trabajo y las potentes soluciones de inferencia que aparecen en el mercado. Además, muchos sectores verticales se someterán a múltiples esfuerzos de digitalización debido a la IA durante los próximos diez años”, añadió el grupo. "Los dispositivos Cisco Silicon One G200 y G202 están siendo probados actualmente por clientes no identificados y están disponibles como muestras", dijo Chopra.