Agregar más y más rápidos procesadores de propósito general a enrutadores, conmutadores y otros equipos de red puede mejorar el rendimiento, pero aumenta los costos del sistema y las demandas de energía, mientras que hace poco para abordar la latencia, una de las principales causas de los problemas de rendimiento en las redes..

Por el contrario, el silicio inteligente minimiza o elimina los puntos de choque de rendimiento al reducir la latencia para tareas de procesamiento específicas.

En 2013 y más allá, los ingenieros de diseño implementarán cada vez más silicio inteligente para lograr los beneficios de su orden de magnitud, mayor rendimiento y mayor eficiencia en costo y potencia.

Redes empresariales

En el pasado, la Ley de Moore era suficiente para seguir el ritmo del aumento de las cargas de trabajo de computación y redes. El hardware y el software avanzaron en gran medida en el bloqueo: a medida que aumentaba el rendimiento del procesador, se podían agregar funciones más sofisticadas en el software.

Estas mejoras paralelas hicieron posible crear un software más abstracto, lo que permitió que se construyera una funcionalidad mucho más rápida y con menos esfuerzo de programación..

Hoy, sin embargo, estas capas de abstracción hacen que sea difícil realizar tareas más complejas con un rendimiento adecuado.

Los procesadores de propósito general, independientemente de su número de núcleos y velocidad de reloj, son demasiado lentos para funciones como la clasificación, la seguridad criptográfica y la gestión del tráfico que deben operar en el fondo de cada paquete. Además, estas funciones especializadas a menudo se deben realizar de forma secuencial, lo que restringe la oportunidad de procesarlas en paralelo en varios núcleos..

Por el contrario, estos y otros tipos especializados de procesamiento son aplicaciones ideales para el silicio inteligente, y es cada vez más común tener múltiples motores de aceleración inteligentes integrados con múltiples núcleos en procesadores de comunicaciones de sistema en chip (SoC) especializados..

La cantidad de motores de aceleración específicos de funciones disponibles continúa creciendo, y la reducción de las geometrías ahora hace posible integrar más motores en un solo SoC.

Incluso es posible integrar la propiedad intelectual única de un proveedor de sistemas como un motor de aceleración personalizado dentro de un SoC. En conjunto, estos avances hacen posible reemplazar múltiples SoC con un solo SoC para permitir arquitecturas de red más rápidas, más pequeñas y más eficientes en el consumo de energía..

Redes de almacenamiento

El mayor cuello de botella en los centros de datos en la actualidad se debe a la diferencia de cinco órdenes de magnitud en la latencia de E / S entre la memoria principal de los servidores (100 nanosegundos) y las unidades de disco duro tradicionales (10 milisegundos)..

La latencia en las redes de área de almacenamiento externo (SAN) y el almacenamiento conectado a la red (NAS) es aún mayor debido a las restricciones de red y rendimiento que se producen cuando un solo recurso atiende múltiples solicitudes simultáneas de forma secuencial en colas profundas.

El almacenamiento en caché del contenido en la memoria en un servidor o en una SAN en un dispositivo de caché de RAM dinámica (DRAM) es una técnica comprobada para reducir la latencia y mejorar así el rendimiento a nivel de la aplicación.

Pero hoy, debido a que la cantidad de memoria posible en un servidor o dispositivo de caché (medido en gigabytes) es solo una pequeña fracción de la capacidad de incluso una sola unidad de disco (medida en terabytes), las mejoras de rendimiento que se pueden obtener del almacenamiento en caché tradicional son insuficientes lidiar con el diluvio de datos.

Los avances en la memoria flash NAND y los procesadores de almacenamiento flash, combinados con algoritmos de almacenamiento en caché más inteligentes, superan la barrera tradicional de escalabilidad del almacenamiento en caché para hacer del almacenamiento en caché una forma eficaz, potente y rentable de acelerar el rendimiento de la aplicación en el futuro.

El almacenamiento de estado sólido es ideal para el almacenamiento en caché, ya que ofrece una latencia mucho menor que las unidades de disco duro con una capacidad comparable. Además de ofrecer un mayor rendimiento de la aplicación, el almacenamiento en caché permite que los servidores virtualizados realicen más trabajo, de manera rentable, con la misma cantidad de licencias de software.

El almacenamiento de estado sólido generalmente produce las mayores ganancias de rendimiento cuando la memoria caché flash se coloca directamente en el servidor en el bus PCIe®. El software de almacenamiento en caché inteligente se utiliza para colocar datos calientes, o de los que se accede con más frecuencia, en almacenamiento flash de baja latencia.

Se puede acceder a los datos en caliente de forma rápida y determinista bajo cualquier carga de trabajo, ya que no hay conexión externa, no hay una red intermedia a una SAN o NAS y no hay posibilidad de congestión de tráfico asociada y retraso..

Emocionantes para los encargados de administrar o analizar las entradas masivas de datos, algunas tarjetas de aceleración de memoria caché flash ahora admiten varios terabytes de almacenamiento de estado sólido, permitiendo el almacenamiento de bases de datos completas u otros conjuntos de datos como datos activos.

Redes móviles

El volumen de tráfico en las redes móviles se duplica cada año, impulsado principalmente por la explosión de aplicaciones de video. El ancho de banda de acceso por usuario también está aumentando en un orden de magnitud de alrededor de 100 Mb / s en redes 3G a 1 Gb / s en redes avanzadas de Evolución a Largo Plazo (LTE) 4G, que a su vez conducirán a la llegada de aún más gráficos Aplicaciones intensivas que consumen mucho ancho de banda..

Las estaciones base deben evolucionar rápidamente para gestionar el aumento de las cargas de red. En la infraestructura, ahora se están utilizando múltiples radios en sistemas de antenas distribuidas similares a la nube y las topologías de red se están aplanando.

Los operadores planean ofrecer una calidad de servicio avanzada con servicios basados ​​en la ubicación y facturación sensible a la aplicación. Al igual que en la empresa, el manejo cada vez más complejo de estas tareas en tiempo real solo es posible mediante la adición de motores de aceleración integrados en silicio inteligente..

Para brindar velocidades de datos 4G más altas de manera confiable a un número creciente de dispositivos móviles, las redes de acceso necesitan más celdas, y más pequeñas, lo que impulsa la necesidad de la implementación de SoC en estaciones base.

Reducir el número de componentes con SoC tiene otra ventaja importante: menor consumo de energía. Desde el borde hasta el núcleo, el consumo de energía es ahora un factor crítico en todas las infraestructuras de red..

Las redes empresariales, las arquitecturas de almacenamiento de centros de datos y las infraestructuras de redes móviles se encuentran en medio de un cambio rápido y complejo. La mejor y posiblemente la única manera de abordar estos cambios de manera eficiente y rentable y aprovechar las oportunidades del diluvio de datos es mediante la adopción de soluciones inteligentes de silicio que están surgiendo de muchas formas para enfrentar los desafíos de las redes de la próxima generación..

  • Greg Huff es el director de tecnología de LSI. En esta capacidad, es responsable de dar forma a la estrategia de crecimiento futuro de los productos LSI dentro de los mercados de almacenamiento y redes.