banner

Noticias

Oct 15, 2023

Implementación experimental de un ecualizador de canal óptico de red neuronal en hardware restringido mediante poda y cuantificación

Scientific Reports volumen 12, Número de artículo: 8713 (2022) Citar este artículo

1355 Accesos

3 citas

1 Altmetric

Detalles de métricas

El despliegue de ecualizadores de canal óptico basados ​​en redes neuronales artificiales en dispositivos de computación perimetral es de vital importancia para la próxima generación de sistemas de comunicación óptica. Sin embargo, este sigue siendo un problema muy desafiante, principalmente debido a la complejidad computacional de las redes neuronales artificiales (NN) requeridas para la ecualización eficiente de canales ópticos no lineales con gran memoria inducida por dispersión. Para implementar el ecualizador de canal óptico basado en NN en hardware, se necesita una reducción sustancial de la complejidad, mientras que debemos mantener un nivel de rendimiento aceptable del modelo NN simplificado. En este trabajo, abordamos el problema de reducción de complejidad aplicando técnicas de poda y cuantificación a un ecualizador de canal óptico basado en NN. Usamos una arquitectura NN ejemplar, el perceptrón multicapa (MLP), para mitigar las deficiencias para la transmisión de 30 GBd 1000 km a través de una fibra monomodo estándar, y demostramos que es factible reducir la memoria del ecualizador hasta en un 87,12 %. , y su complejidad hasta en un 78,34 %, sin una degradación notable del rendimiento. Además de esto, definimos con precisión la complejidad computacional de un ecualizador basado en NN comprimido en el sentido del procesamiento de señal digital (DSP). Además, examinamos el impacto del uso de hardware con diferentes funciones de CPU y GPU en el consumo de energía y la latencia del ecualizador comprimido. También verificamos la técnica desarrollada experimentalmente, implementando el ecualizador NN reducido en dos unidades de hardware de computación de borde estándar: Raspberry Pi 4 y Nvidia Jetson Nano, que se utilizan para procesar los datos generados mediante la simulación de la propagación de la señal por el sistema de fibra óptica. .

Las comunicaciones ópticas forman la columna vertebral de la infraestructura digital global. Hoy en día, las redes ópticas son los principales proveedores de tráfico de datos global, no solo interconectando a miles de millones de personas, sino que también respaldan el ciclo de vida de una gran cantidad de diferentes dispositivos, máquinas y sistemas de control autónomos. Uno de los principales factores que limitan el rendimiento de los sistemas de comunicación de fibra óptica contemporáneos son las deficiencias de transmisión inducidas por la no linealidad1,2, que surgen tanto de la respuesta no lineal de los medios de fibra como de los componentes del sistema. Las soluciones existentes y potenciales para este problema incluyen, por ejemplo, la conjugación de fase óptica de rango medio, la retropropagación digital (DBP) y la función de transferencia inversa de la serie Volterra, por mencionar solo algunos métodos notables2,3,4. Sin embargo, se debe enfatizar que en la industria de las telecomunicaciones, la competencia entre posibles soluciones ocurre no solo en términos de desempeño sino también en términos de opciones de implementación de hardware, costos operativos y consumo de energía.

Durante los últimos años, los enfoques basados ​​en técnicas de aprendizaje automático y, en particular, aquellos que utilizan NN, se han convertido en un tema de investigación cada vez más popular, ya que las NN pueden desenrollar de manera eficiente las deficiencias inducidas tanto por la fibra como por los componentes5,6,7,8, 9,10,11,12,13,14,15. Una de las formas sencillas de usar un NN para la compensación de la corrupción de la señal en los sistemas de transmisión óptica es conectarlo al sistema como un ecualizador posterior7,10,14, un dispositivo especial de procesamiento de señales en el lado del receptor, destinado a contrarrestar los efectos perjudiciales. emergentes durante la transmisión de datos16. Numerosos estudios precedentes han demostrado el potencial de este tipo de soluciones7,8. Ya se han analizado varias arquitecturas NN en diferentes tipos de sistemas ópticos (submarinos, de larga distancia, metro y acceso). Estas arquitecturas incluyen los diseños NN feed-forward como el MLP7,10,14,15, considerado en el estudio actual, o estructuras NN de tipo recurrente más sofisticadas10,11,12,17. Sin embargo, el despliegue práctico de ecualizadores de canal basados ​​en NN en tiempo real implica que su complejidad computacional es, al menos, comparable o deseablemente más baja que la de las soluciones convencionales de procesamiento de señales digitales (DSP) existentes18, y sigue siendo un tema de debate. Este es un aspecto relevante debido a que el buen desempeño alcanzado por las NN típicamente está ligado al uso de una gran cantidad de parámetros y operaciones de punto flotante10. La alta complejidad computacional conduce, a su vez, a altos requerimientos de memoria y potencia de cómputo, aumentando el consumo de energía y recursos19,20. Por lo tanto, el uso de métodos basados ​​en NN, si bien es, sin duda, prometedor y atractivo, enfrenta un gran desafío en la ecualización de canales ópticos, donde la complejidad computacional emerge como un importante factor limitante del despliegue en tiempo real10,12,20,21. Notamos aquí que, por supuesto, es bien sabido que algunas arquitecturas NN pueden simplificarse sin afectar significativamente su rendimiento, gracias, por ejemplo, a estrategias como la poda y la cuantificación19,20,22,23,24,25. Sin embargo, su aplicación en el entorno experimental del hardware con recursos restringidos aún no se ha estudiado completamente en el contexto de la ecualización de canales ópticos coherentes. También es necesario comprender y analizar más a fondo la compensación entre la reducción de la complejidad y la degradación del rendimiento del sistema, así como el impacto de la reducción de la complejidad en el consumo de energía del dispositivo final.

En este artículo, aplicamos las técnicas de poda y cuantificación para reducir los requisitos de hardware de un ecualizador de canal óptico coherente basado en NN, manteniendo su rendimiento a un alto nivel. También enfatizamos la importancia de una evaluación precisa de la complejidad computacional del ecualizador en el sentido de DSP. Además del estudio de la complejidad y tiempos de inferencia, una novedad adicional y avance de nuestro trabajo radica en el análisis del consumo energético y el estudio del impacto que las características, tanto del hardware como del modelo, tienen sobre estas métricas.

Desarrollamos y evaluamos experimentalmente el rendimiento de un ecualizador basado en NN de baja complejidad que se puede implementar en hardware con recursos limitados y, al mismo tiempo, puede mitigar con éxito las deficiencias de transmisión no lineal en un sistema de comunicación óptica simulado. Esto se logra aplicando las técnicas de poda y cuantificación al NN23 y estudiando el compromiso óptimo entre la complejidad de la solución NN y su rendimiento. Los resultados obtenidos se pueden dividir en tres categorías principales.

Primero, cuantificamos cómo las técnicas de reducción de complejidad afectan el rendimiento del modelo NN y establecemos un límite de compresión para un rendimiento óptimo frente a la compensación de complejidad. En segundo lugar, analizamos la complejidad computacional del ecualizador basado en NN podado y cuantificado en términos de DSP. Finalmente, evaluamos experimentalmente el impacto que las características del hardware y el modelo NN tienen en el tiempo de procesamiento de la señal y el consumo de energía al implementar este último tanto en una Raspberry Pi 4 como en una Nvidia Jetson Nano.

Ahora repasamos brevemente los resultados anteriores en el campo de las técnicas de compresión aplicadas a ecualizadores basados ​​en NN en enlaces ópticos, para subrayar la novedad de nuestro enfoque actual. El uso de estas técnicas para reducir la complejidad de las NN en los sistemas ópticos no es, claramente, un concepto nuevo25. Sin embargo, los métodos de compresión han ganado recientemente una nueva ola de atención debido a la cuestión de cuán realista es la implementación de hardware de ecualizadores basados ​​en NN en sistemas de transmisión óptica. En un sistema de transmisión de detección directa, se probó experimentalmente un ecualizador NN de poda paralela para enlaces PAM-4 de 100 Gbps utilizando la versión mejorada del método de poda de un paso26, que redujo en un 50 % el consumo de recursos sin una degradación significativa del rendimiento. Al considerar la transmisión óptica coherente, la complejidad del llamado método de mitigación de no linealidad de DBP aprendido se redujo mediante la poda de los coeficientes en los filtros de respuesta de impulso finitos27 (consulte más explicaciones técnicas en la sección "Métodos" a continuación). En ese caso, utilizando una cascada de tres filtros, se puede lograr un nivel de escasez de alrededor del 92 % con un impacto insignificante en el rendimiento general. Recientemente, se probaron algunas técnicas avanzadas para evitar multiplicaciones en tales ecualizadores usando cuantificación aditiva de potencias de dos28. En este último trabajo, el 99% de los pesos se pudieron eliminar utilizando técnicas avanzadas de poda y, en lugar de multiplicaciones, solo se requirieron operaciones de cambio de bits. Sin embargo, ninguno de esos trabajos se ocupa de la demostración experimental de la implementación del hardware, y nuestro estudio aborda exactamente el último problema.

Entonces, a diferencia de trabajos anteriores, en el estudio actual, implementamos el ecualizador basado en NN comprimido para el canal óptico coherente en dos plataformas de hardware diferentes: una Raspberry Pi 4 y una Nvidia Jetson Nano. También evaluamos el impacto de las técnicas de compresión en la latencia del sistema para cada tipo de hardware y estudiamos la compensación rendimiento-complejidad. Por último, realizamos un análisis del consumo energético y del impacto que tienen en él las características del hardware y del modelo NN.

Para abordar el uso de un MLP como un ecualizador basado en NN, se ha diseñado un sistema de medición preciso tanto para el tiempo de inferencia como para el consumo de energía, tanto en una Raspberry Pi como en una Nvidia Jetson Nano, para que los efectos que la poda y cuantificación tienen en estas métricas, se pueden caracterizar (consulte la sección "Métodos" a continuación para obtener una explicación detallada). En las Refs.10,14, se consideró el posecualizador MLP sin comprimir y se demostró que puede compensar con éxito las degradaciones inducidas por la no linealidad en un sistema de comunicación óptica coherente. Analizamos el rendimiento del ecualizador en términos del factor Q estándar alcanzado, usando los datos simulados para una señal de doble polarización de coseno alzado (RRC) de 0,1, con 30 GBd y modulación 64-QAM, para la transmisión por los 20 \(\times\) Enlaces de 50 km de fibra monomodo estándar (SSMF). Usamos el mismo simulador que se describe en Refs.10,29, para generar nuestros conjuntos de datos de entrenamiento y prueba, y el mismo procedimiento para entrenar el ecualizador basado en NN (consulte la subsección "Configuración numérica y modelo de red neuronal" en "Métodos" para obtener más información). detalles). En nuestra configuración, el NN se coloca en el lado del receptor (Rx) después del Receptor Coherente Integrado (ICR), el Convertidor Analógico-Digital (ADC) y el bloque DSP. Este último bloque consta de un filtro adaptado y un ecualizador lineal. En cuanto al filtro combinado, es el mismo filtro RRC que se usa en el transmisor. Además, el ecualizador lineal se compone de una etapa de compensación de dispersión cromática (CDC) electrónica completa y un paso de normalización, consulte la Fig. 1. El CDC utiliza un ecualizador de dominio de frecuencia y reducción de muestreo a la tasa de símbolo, seguido de un normalizador de fase/amplitud a los transmitidos. Este proceso de normalización puede verse como su normalización por una constante \(K_\text {DSP}\) aprendida usando la siguiente ecuación:

donde las constantes \({\mathcal {K}}, \, {\mathcal {K}}_\text {DSP} \in {\mathbb {C}}\) y \(x_{h\!/\!v }\) es la señal en polarización h o v. No se consideraron otras distorsiones relacionadas con los componentes dentro del transceptor.

Para este sistema, la mejor potencia óptima se produjo a -1 dBm con un factor Q cercano a 7,8, como se puede apreciar en la Fig. 2. Luego queríamos investigar las siguientes 3 potencias (p. ej., 0 dBm, 1 dBm, y 2 dBm) yendo hacia el régimen no lineal superior, donde la tarea de la NN sería más complicada.

Estructura de un canal de comunicación que se ecualiza mediante una red neuronal podada y cuantificada implementada en hardware con recursos restringidos (por ejemplo, una Raspberry Pi 4 o una Nvidia Jetson Nano).

Los hiperparámetros que definen la estructura de la NN se obtienen mediante un optimizador bayesiano (BO)10,30, donde la optimización se realiza con respecto al rendimiento de la calidad de restauración de la señal (ver subsección "Configuración numérica y modelo de red neuronal" en "Métodos "). El MLP optimizado resultante tiene tres capas ocultas (no optimizamos el número de capas, sino el número de neuronas y el tipo de funciones de activación), con 500, 10 y 500 neuronas, respectivamente. (Estos números se establecieron como los límites numéricos de pesos mínimos y máximos, dentro de los cuales el algoritmo BO buscaba la configuración óptima). El optimizador eligió la función de activación "\(\tanh\)" y no se emplea sesgo. El NN toma la señal reducida (1 muestra por símbolo) e ingresa en el ecualizador \(N = 10\) símbolos vecinos (número de toques) para recuperar el central. Este tamaño de memoria fue definido por el procedimiento BO. El NN se sometió a poda y cuantificación después de haber sido entrenado y probado. Analizamos el rendimiento de diferentes modelos NN según su nivel de escasez; este último osciló entre el 20 y el 90 %, con un incremento del 10 %. Los pesos y las activaciones se cuantifican, convirtiendo su tipo de datos de punto flotante de precisión simple de 32 bits (FP32) a entero de 8 bits (INT8). La cuantificación se llevó a cabo para permitir un uso en tiempo real del modelo, así como su implementación en hardware con recursos limitados. El sistema final se muestra en la Fig. 1. El proceso de inferencia (la ecualización de la señal) se llevó a cabo, en primer lugar, utilizando una computadora personal MSI GP76 Leopard, equipada con un procesador Intel® CoreTM i9-10870H, 32 GB de RAM y GPU Nvidia RTX2070 . Los resultados obtenidos en esta computadora se usaron como punto de referencia y se compararon con los obtenidos en dos pequeñas computadoras de placa única: una Raspberry Pi 4 y una Nvidia Jetson Nano.

Finalmente, las NN se desarrollaron utilizando TensorFlow. Las técnicas de poda y cuantificación se implementaron mediante el kit de herramientas de optimización de modelos de TensorFlow: API de poda y TensorFlow Lite31.

Comparación de rendimiento del ecualizador basado en NN con respecto al DSP normal.

Cuando se diseña una NN para un propósito particular, el enfoque tradicional consiste en utilizar modelos densos y sobreparametrizados, en la medida en que a menudo puede proporcionar un buen rendimiento y capacidades de aprendizaje del modelo32,33. Esto se debe al efecto de suavizado de la sobreparametrización sobre la función de pérdida, lo que beneficia la convergencia de las técnicas de descenso de gradiente utilizadas para optimizar el modelo32. Sin embargo, se deben tomar algunas precauciones al entrenar un modelo sobreparametrizado, porque tales modelos a menudo tienden a sobreajustarse y su capacidad de generalización puede degradarse32,34.

El buen rendimiento logrado debido a la parametrización excesiva tiene el costo de mayores recursos computacionales y de memoria. Esto también da como resultado un tiempo de inferencia más largo (crecimiento de la latencia) y un mayor consumo de energía. Tenga en cuenta que estos costos son la consecuencia de la redundancia de parámetros y una gran cantidad de operaciones de punto flotante20,23. Por lo tanto, las capacidades de los ecualizadores basados ​​en NN de alta complejidad aún no se traducen en aplicaciones de usuario final en hardware con recursos limitados. Por lo tanto, reducir la brecha entre las soluciones algorítmicas y las implementaciones experimentales del mundo real es un tema de investigación cada vez más activo. Durante los últimos años, se han invertido esfuerzos notables en el desarrollo de técnicas que pueden ayudar a simplificar las NN sin disminuir significativamente su rendimiento. Estas técnicas se agrupan bajo el término "métodos de compresión de NNs", y los enfoques más comunes son: reducción del tamaño de los modelos, factorización de los operadores, cuantificación, compartición de parámetros o poda20,23,24. Cuando se aplican estas técnicas, el modelo final suele ser mucho menos complejo y, por lo tanto, su latencia, o el tiempo que se tarda en hacer una predicción, disminuye, lo que también se traduce en un menor consumo de energía20. En este trabajo, nos enfocamos tanto en la poda como en la cuantificación para comprimir nuestro ecualizador NN y cuantificar una compensación entre la reducción de la complejidad y el rendimiento del sistema; consulte la sección "Métodos" para obtener una descripción detallada de ambos enfoques.

En primer lugar, observamos que la reducción de la complejidad del ecualizador no debe afectar drásticamente su rendimiento, es decir, aún se requiere que el rendimiento del sistema esté dentro de un rango aceptable. En la Fig. 3a, el factor Q logrado por el ecualizador NN se representa frente a diferentes valores de dispersión, para tres niveles de potencia de lanzamiento: 0 dBm, azul; 1 dBm, rojo; y 2 dBm, verde. Los resultados se muestran mediante líneas de puntos y estrellas, que son los obtenidos en PC, Raspberry Pi y Nvidia Jetson Nano, utilizando el modelo podado y cuantizado. Para cada una de estas potencias de lanzamiento, se representan dos líneas base para el factor Q: una corresponde al nivel alcanzado por el modelo sin comprimir, definido por las líneas rectas, mientras que la otra proporciona el punto de referencia cuando no empleamos ninguna ecualización NN y usamos solo compensación de dispersión cromática lineal estándar más normalización de fase/amplitud (LE, ecualización lineal); los últimos niveles para los tres diferentes poderes de lanzamiento están marcados por líneas de puntos con los colores apropiados.

La figura 3b cuantifica el impacto que tiene cada técnica de compresión en el rendimiento: en esa figura, trazamos el factor Q logrado por el ecualizador NN frente a diferentes valores de dispersión, para la potencia de lanzamiento de 1 dBm. Las líneas rectas azul y roja representan el factor Q del modelo original y el factor Q logrado por él después de ser cuantificado. Las líneas punteadas con asteriscos muestran el rendimiento de un modelo que solo ha sido podado (azul) y el rendimiento en el caso de poda y cuantificación (rojo). Se ve que se puede lograr una reducción sustancial de la complejidad sin una degradación dramática del rendimiento. Los niveles de escasez en los que se produce el rápido deterioro del rendimiento también se ven claramente en esta figura.

(a) Factor Q logrado para modelos reducidos y cuantificados frente al nivel de escasez para conjuntos de datos correspondientes a tres potencias de lanzamiento: 0 dBm, 1 dBm y 2 dBm; Las líneas sólidas corresponden al factor Q logrado por el modelo original. Las líneas discontinuas muestran el factor Q cuando solo se implementa la ecualización lineal (LE). (b) Factor Q logrado después de la poda en comparación con el logrado después de la poda y la cuantificación, para diferentes niveles de dispersión y para un conjunto de datos correspondiente a la potencia de lanzamiento de 1 dBm. Las líneas continuas azul y roja corresponden al factor Q logrado por el modelo original y el logrado por este modelo después de la cuantificación, respectivamente.

En primer lugar, se puede observar en la Fig. 3a que el proceso de cuantificación y poda no causa una degradación significativa del rendimiento hasta que se alcanza un nivel de dispersión igual al 60 %, con solo una reducción del rendimiento del \(4\%\). Sin embargo, cuando nos movemos a niveles de escasez en torno al 90%, el rendimiento se acerca al que se consigue utilizando una ecualización lineal (es decir, las curvas del factor Q descienden hasta los niveles marcados con las líneas discontinuas del mismo color).

Podemos concluir que cuando los niveles de dispersión están por encima del 60%, la disminución del rendimiento es principalmente efecto del proceso de cuantificación. También se ha observado una caída de casi el 2,5 % en el valor del factor Q al cuantificar un modelo ya podado. Una vez que los niveles de dispersión superan el 60%, la reducción del rendimiento debido a la cuantificación se acelera. Además, observamos que cierto grado de dispersión puede incluso mejorar el rendimiento del modelo con respecto al modelo sin podar. Este comportamiento ya ha sido reportado en otros estudios y se encontró que es específicamente pertinente a los modelos sobreparametrizados. Así, los RN con estructuras menos complejas no muestran tal aumento de rendimiento debido a la poda de baja dispersión, lo que hace imposible alcanzar unas relaciones rendimiento-complejidad tan buenas32,33,35,36.

La Figura 4 muestra la reducción en el tamaño del modelo, así como la complejidad computacional del modelo para diferentes valores de dispersión, después de haber aplicado la cuantificación. Para la definición de las métricas utilizadas para calcular la complejidad computacional así como el tamaño de los modelos, consulte las subsecciones "Métricas de complejidad computacional y métricas de tamaño de memoria" en "Métodos". En general, hemos logrado una reducción del 87,12 % en el tamaño de la memoria después de eliminar el 60 % de los pesos del ecualizador NN y cuantificar los restantes. Como consecuencia, el tamaño del modelo se redujo de 201,4 a 25,9 kilobytes. Para la disminución de la complejidad computacional del modelo, se pasa de 75.960.427,38 a 16.447.962 operaciones de bits (BoPs) después de aplicar la misma estrategia de compresión, lo que supone una reducción de \(78,34\%\) (ver definición explícita de BoPs en la sección "Métodos" ). Nos gustaría señalar una vez más que se pueden alcanzar niveles de escasez de \(60\%\) sin una pérdida sustancial de rendimiento. Por lo tanto, se puede lograr aproximadamente el mismo alto nivel de rendimiento con un modelo que es significativamente menos complejo que la estructura NN inicial, que es uno de los principales hallazgos de nuestro trabajo.

Complejidad y reducción de tamaño lograda mediante poda y cuantificación para diferentes niveles de escasez. La línea negra discontinua representa la complejidad de referencia cuando solo se aplica la cuantificación.

Vale la pena mencionar el impacto individual que tienen la cuantificación y la poda en la complejidad computacional del modelo. Cuando se calcula la complejidad computacional para un modelo cuantificado, pero sin podar, el número de BOP es igual a 23 321 563. Por tanto, si se compara este valor con los ya mencionados 75.960.427 BoPs para las NN no podadas y no cuantificadas, se obtiene una reducción de la complejidad del 69,3% gracias a la cuantificación. Como se puede ver en la Fig. 4, la ganancia restante proviene de la técnica de poda y crece linealmente como se indica en la Ec. (5).

Numerosas aplicaciones de aprendizaje profundo son críticas para la latencia y, por lo tanto, el tiempo de inferencia debe estar dentro de los límites especificados por los objetivos de nivel de servicio. Las aplicaciones de comunicación óptica que emplean técnicas de aprendizaje profundo son un buen ejemplo de esto. Tenga en cuenta que la latencia depende en gran medida de la implementación del modelo NN y del hardware empleado (p. ej., FPGA, CPU, GPU). Consulte la sección "Métodos" para obtener más detalles sobre las mediciones de tiempo de inferencia de los dispositivos.

Al medir el tiempo de inferencia para los diferentes tipos de hardware y el modelo cuantificado al que se le ha podado el 60% de sus pesos, los resultados son:

Latencia Raspberry Pi: \(\mu = 0.81~s\) y \(\sigma = \pm 0.035\)

Nvidia Jetson Nano Latencia: \(\mu=0.53~s\) y \(\sigma=\pm 0.022\)

PC de latencia: \(\mu = 0.1~s\) y \(\sigma =0.006\)

En el caso del modelo sin podar y sin cuantificar:

Latencia Raspberry Pi: \(\mu = 1,84~s\) y \(\sigma = \pm 0,08\)

Nvidia Jetson Nano Latencia: \(\mu = 1,22~s\) y \(\sigma=\pm 0,052 s\)

PC de latencia: \(\mu = 0,18~s\) y \(\sigma = \pm 0,008\)

La Figura 5 muestra la latencia del modelo NN considerado antes y después de la cuantificación. Notamos que los resultados se expresan de una manera más apropiada para la tarea en cuestión. Así, la latencia se define como el tiempo que se tarda en procesar un símbolo: lo hemos promediado sobre 30k símbolos. Con el modelo cuantificado, observamos una reducción de aproximadamente el 56 % en la latencia para los tres valores de potencia, en comparación con el modelo original. Debemos notar que la poda no se tiene en cuenta porque no afecta esta métrica ya que Tensorflow Lite aún no admite la inferencia dispersa, lo que hace que el algoritmo aún use la misma cantidad de memoria caché. Además, pudimos observar que Raspberry Pi tiene el tiempo de inferencia más largo entre nuestros dispositivos. Esto está en consonancia con el hecho de que Raspberry está diseñada como una computadora de placa única de uso general y bajo costo37. Por otro lado, la Nvidia Jetson Nano fue desarrollada con capacidades de GPU, lo que la hace más adecuada para aplicaciones de aprendizaje profundo, permitiéndonos lograr latencias más bajas.

Resumen del tiempo de procesamiento de símbolos (inferencia) para los modelos NN comprimidos (después de la poda y la cuantificación) y los modelos originales para tres dispositivos en evaluación: una Raspberry Pi 4, una Nvidia Jetson Nano y una PC estándar.

En el contexto de la informática perimetral, no solo la velocidad es un factor importante, sino también la eficiencia energética. En este trabajo, la métrica utilizada para evaluar el consumo de energía y comparar los diferentes tipos de hardware para la tarea de ecualización del canal óptico coherente es la energía por símbolo recuperado. Cuando se usa un modelo cuantificado con un nivel de poda del 60 %, la energía promedio consumida durante la inferencia para Raspberry Pi 4 y Nvidia Jetson Nano es de 2,98 W (\(\sigma = \pm 0,012\) ) y 3,03 W (\( \sigma = \pm 0.017\)), respectivamente. Por otro lado, si se emplea el modelo original, hay un aumento en el consumo de energía de alrededor del 3%, lo cual es congruente con los hallazgos en trabajos previos23. Así, durante la inferencia, la Raspberry Pi 4 consume 3,06 W (\(\sigma = \pm 0,011\) ) y la Nvidia Jetson Nano 3,13 W (\(\sigma = \pm 0,015\)), respectivamente. Al multiplicar estos valores por los tiempos de procesamiento de NN por símbolo recuperado informados en la Fig. 5, obtenemos los resultados presentados en la Fig. 6. Notamos que Raspberry Pi tiene el mayor consumo de energía por símbolo recuperado. Esto es consecuencia de la falta de una GPU, lo que se traduce en tiempos de inferencia más largos. Así, la Nvidia Jetson Nano consume un 33,78% menos de energía que la Raspberry Pi 4. En cuanto a la poda y cuantificación, el uso de estas técnicas permite un ahorro energético del 56,98% para la Raspberry Pi 4 y del 57,76% para la Nvidia Jetson Nano.

Debe tenerse en cuenta que aunque TensorFlow Lite no admite la inferencia dispersa y, por lo tanto, la poda no ayuda a reducir el tiempo de inferencia, afecta el tamaño del modelo. Esto tiene un efecto directo en el consumo de energía del dispositivo debido a la disminución en el uso de recursos. Por el contrario, la cuantificación tiene un efecto positivo en ambos parámetros gracias al empleo de formatos de menor precisión y la reducción del tamaño del modelo. Por lo tanto, tiene un efecto más fuerte en el consumo de energía. Esto se refleja en los resultados expuestos en esta sección. Además, es congruente con los hallazgos reportados en estudios previos23,38.

Consulte la sección "Métodos" para obtener más detalles sobre la medición del consumo de energía.

Consumo de energía para Raspberry Pi 4 y Nvidia Jetson Nano. La sección azul representa el consumo de energía por símbolo recuperado cuando se usa el modelo comprimido, y su costo de energía relativo se expresa como un porcentaje con respecto a la suma de la energía consumida tanto por el modelo original como por el comprimido. Asimismo, la sección roja describe el consumo de energía por símbolo recuperado al usar el modelo original y su costo de energía relativo.

En nuestro trabajo, investigamos cómo podemos utilizar la poda y la cuantificación para reducir la complejidad de la implementación de hardware de un ecualizador de canal basado en NN en un sistema de transmisión óptica coherente. Con esto probamos la implementación del ecualizador diseñado de manera experimental, utilizando una Raspberry Pi 4 y una Nvidia Jetson Nano. Se demostró que es posible reducir el uso de memoria de la NN en \(87,12\%\) y la complejidad computacional de la NN en \(78,34\%\) sin ninguna penalización grave en el rendimiento, gracias a las dos técnicas de compresión antes mencionadas.

Además, se caracterizó experimentalmente el efecto de usar diferentes tipos de hardware midiendo el tiempo de inferencia y el consumo de energía tanto en una Raspberry Pi 4 como en una Nvidia Jetson Nano. Sin embargo, notamos que experimentamos solo con los dispositivos de borde, y los datos del sistema de comunicación se obtuvieron a través de simulaciones; pero no esperamos que los resultados con respecto a la compensación de rendimiento frente a complejidad lograda gracias a la poda y la cuantificación para el verdadero sistema óptico difieran seriamente. Se ha demostrado que la Nvidia Jetson Nano permite tiempos de inferencia un 34% más rápidos que la Raspberry Pi, y que, gracias al proceso de cuantificación, se puede conseguir una reducción del tiempo de inferencia del 56%. Finalmente, debido al uso de técnicas de poda y cuantificación, logramos un ahorro de energía del 56,98 % para Raspberry Pi 4 y del 57,76 % para Nvidia Jetson Nano; también observamos que este último dispositivo consume un 33,78% menos de energía.

En general, nuestros hallazgos demuestran que el uso de poda y cuantificación puede ser una estrategia adecuada para la implementación de ecualizadores basados ​​en NN que son eficientes en sistemas de transmisión óptica de alta velocidad cuando se implementan en hardware con recursos restringidos. Creemos que estas técnicas de compresión de modelos se pueden utilizar para el despliegue de ecualizadores basados ​​en NN en sistemas de comunicación óptica reales y para el desarrollo de nuevas herramientas de procesamiento de señales ópticas en línea. Esperamos que nuestros resultados también puedan ser de interés para los investigadores que desarrollan sistemas de detección y láser, donde la aplicación del aprendizaje automático para el procesamiento y la caracterización de campo es un área de investigación en rápido desarrollo39.

Simulamos numéricamente la transmisión de polarización dual (DP) de una señal de un solo canal a 30 GBd. La señal está preformada con un filtro de raíz de coseno alzado (RRC) con caída de 0,1 a una frecuencia de muestreo de 8 muestras por símbolo. Además, el formato de modulación de la señal es 64-QAM. Consideramos el caso de transmisión sobre 20 \(\times\) enlaces de 50 km de SMF. La propagación de la señal óptica a lo largo de la fibra se simuló resolviendo la ecuación de Manakov mediante el método de Fourier de paso dividido40 con una resolución de 1 km por paso. Los parámetros considerados de la fibra TWC son: el parámetro de atenuación \(\alpha = 0.23 dB/km\), el coeficiente de dispersión \(D = 2.8\) ps/(nm \(\times\) km), y el efectivo coeficiente de no linealidad \(\gamma = 2.5\) (W \(\times\) km)\(^{-1}\). Los parámetros SSMF son: \(\alpha = 0.2\) dB/km, \(D = 17\) ps/(nm \(\times\) km), y \(\gamma = 1.2\) (W \( \veces\) km)\(^{-1}\). Además, después de cada tramo, se colocó un amplificador óptico con una figura de ruido NF = 4.5 dB para compensar completamente las pérdidas de fibra y se agregó ruido de emisión espontánea amplificada (ASE). En el receptor, se empleó un Rx-DSP estándar. Consistía en la compensación de dispersión cromática (CDC) electrónica completa utilizando un ecualizador de dominio de frecuencia, la aplicación de un filtro adaptado y la reducción de muestreo a la tasa de símbolo. Finalmente, los símbolos recibidos fueron normalizados (por fase y amplitud) a los transmitidos. En este trabajo, no se tomaron en cuenta distorsiones adicionales del transceptor. Después del Rx-DSP, la tasa de error de bit (BER) se estima utilizando los símbolos transmitidos, los símbolos suaves recibidos y las decisiones duras después de la ecualización.

El NN recibe como entrada un tensor con una forma definida por tres dimensiones: (B, M, 4), donde B es el tamaño del mini lote, M es el tamaño de la memoria determinado por el número de vecinos N como \(M = 2N + 1\), y 4 es el número de características de cada símbolo, que corresponden a las partes real e imaginaria de dos componentes de polarización. El NN deberá recuperar las partes real e imaginaria del k-ésimo símbolo de una de las polarizaciones. Por lo tanto, la forma del lote de salida NN se puede expresar como (B, 2). Esta tarea puede tratarse como una de regresión o de clasificación. Este aspecto ha sido considerado en estudios previos y se afirma que los resultados obtenidos por los algoritmos de regresión y clasificación son similares pero se necesitan menos épocas en el caso de la regresión. Por lo tanto, en este artículo se utiliza el estimador de pérdida del error cuadrático medio (MSE), ya que es la función de pérdida estándar empleada en las tareas de regresión41. La función de pérdida se optimiza utilizando el algoritmo de Adam42 con la tasa de aprendizaje predeterminada igual a 0,001. El número máximo de épocas durante el proceso de entrenamiento fue de 1000, ya que se detenía antes si el valor de la función de pérdida no cambiaba en 150 épocas. Después de cada época de entrenamiento, calculamos el BER obtenido utilizando el conjunto de datos de prueba. El número óptimo de neuronas y funciones de activación en cada capa de la NN, así como la memoria (entrada) del sistema fueron inferidas empleando el algoritmo de Optimización Bayesiana (BO). Los valores probados para el número de neuronas fueron \(n \in [10, 500]\) . Para la función de activación, el BO tuvo que elegir entre: "\(\tanh\)", "ReLu", "sigmoid" y "LeackyReLu". Los valores probados para la memoria (entrada) del sistema fueron \(N \in [5, 50]\) La métrica del BO fue el BER, encontrando los hiperparámetros que ayudaron a reducir al máximo el BER con una validación conjunto de datos de \(2^{17}\) puntos de datos. La solución final fue el uso de "\(\tanh\)" como función de activación y 500, 10 y 500 neuronas para la primera, segunda y tercera capa, respectivamente. Los conjuntos de datos de entrenamiento y prueba se componían de símbolos de longitud \(2^{18}\) generados de forma independiente cada uno. Para evitar cualquier posible periodicidad y sobreestimación de los datos43,44, se utilizó una secuencia de bits pseudoaleatorios (PRBS) de orden 32 para generar esos conjuntos de datos con diferentes semillas aleatorias para cada uno de ellos. La periodicidad de los datos es, por lo tanto, \(2^{12}\) veces mayor que el tamaño de nuestro conjunto de datos de entrenamiento. Para la simulación se utilizó el generador de tornados Mersenne45 con diferentes semillas aleatorias. Además, los datos de entrenamiento se barajaron antes de usarse como entrada para la NN.

Finalmente, nos gustaría señalar un asunto importante como es la necesidad del reentrenamiento periódico del ecualizador en una transmisión realista. En este caso, puede ser un punto de preocupación. Este problema ya se ha abordado en estudios anteriores29, donde se ha demostrado que el uso del aprendizaje por transferencia puede reducir drásticamente el tiempo de entrenamiento y los requisitos de datos de entrenamiento cuando se producen cambios en la configuración de la transmisión.

Con la poda, los elementos NN redundantes se pueden eliminar para dispersar la red sin limitar significativamente su capacidad para realizar una tarea requerida24,32,46. De esta manera, se obtienen redes de tamaño y complejidad computacional reducidos, lo que se traduce en menores requerimientos de hardware y tiempos de predicción más rápidos23,24. Además, la poda actúa como técnica de regularización, mejorando la calidad del modelo al ayudar a reducir el sobreajuste32. Además, volver a entrenar una NN ya podada puede ayudar a escapar de los mínimos de la función de pérdida local, lo que puede conducir a una mejor precisión de predicción24. Por lo tanto, a menudo se pueden lograr modelos menos complejos sin un efecto notable en el rendimiento de la NN32.

Dependiendo de lo que se vaya a podar, las técnicas de esparsificación se pueden clasificar en dos tipos: esparsificación modelo y esparsificación efímera32. En el primer caso, la dispersión se aplica permanentemente al modelo, mientras que en el segundo caso, la dispersión solo tiene lugar durante el proceso de cálculo. En nuestro trabajo, utilizaremos la dispersión del modelo, debido a los efectos que tiene sobre los requisitos de hardware de memoria y computación de la NN final. Sumado a esto, la dispersión del modelo puede consistir en eliminar no solo pesos sino también bloques de construcción más grandes, como neuronas, filtros convolucionales, etc.32. Aquí aplicamos la poda solo a los pesos de la red, en aras de la simplicidad y en la medida en que coincida con la estructura NN (MLP) que se considera.

Después de haber definido qué podar, es necesario definir cuándo se produce la poda. En base a esto, existen dos tipos principales de poda: estática y dinámica24. En el caso estático, los elementos se eliminan de la NN después del entrenamiento, y en este trabajo, para demostrar el efecto, utilizamos la variante de poda estática debido a su simplicidad.

La poda estática se realiza generalmente en tres pasos. Primero, decidimos qué requiere ser podado. Un enfoque simple para definir los objetos de poda puede ser evaluar el desempeño de la NN con y sin elementos particulares (podados). Sin embargo, esto plantea problemas de escalabilidad: tenemos que evaluar el rendimiento al podar los parámetros de cada NN en particular, y puede haber millones de estos.

Alternativamente, es posible seleccionar los elementos que se eliminarán aleatoriamente, lo que se puede hacer más rápido32,47,48. Siguiendo este último enfoque, decidimos de antemano podar los pesos. Una vez que se ha decidido qué elementos se van a podar, es necesario establecer los criterios de cómo se van a eliminar los elementos de la NN, asegurando que se alcancen altos niveles de escasez sin una pérdida significativa en el rendimiento. Al podar los pesos de la NN, es posible eliminarlos en función de diferentes aspectos: considerando su magnitud (es decir, los pesos que tienen valores cercanos a cero deben ser podados, con el porcentaje de poda definido por el nivel de dispersión que pretendemos lograr), o su similitud (si dos pesos tienen un valor similar, solo se mantiene uno de ellos); mencionamos que los demás procedimientos de selección también existen32,48. Aquí, elegimos la estrategia de poda de pesos relativamente simple en función de su magnitud. En la Fig. 7 mostramos el impacto cuando hemos reducido nuestro ecualizador NN en un 40 %. Al comparar las distribuciones de peso de los modelos original y podado, está claro que el nivel de escasez define la cantidad de pesos que se deben podar. Por lo tanto, el proceso de poda comienza eliminando el peso más pequeño y continúa hasta que se alcanza el nivel de escasez deseado. Finalmente, se debe realizar una fase de reentrenamiento o ajuste fino para reducir la degradación en el desempeño de la NN modificada24.

Al realizar la poda usando la API de Tensorflow Model Optimization, es necesario definir un cronograma de poda para controlar este proceso notificando en cada paso el nivel en el que se debe podar la capa49. En este trabajo se emplea el programa conocido como Polynomial Decay. La principal característica de este tipo de programación es que se construye una función de dispersión polinomial. En este caso, la potencia de la función es igual a 3 y la poda se realiza cada 50 pasos. Esto significa que durante los últimos pasos se emplean proporciones más altas de dispersión (por ejemplo, se eliminan más pesos), lo que acelera el proceso de poda. Por el contrario, si la potencia de la función fuera negativa, la poda se ralentizaría. El modelo comienza con una dispersión del 0% y el proceso tiene lugar durante 300 épocas. Esto es aproximadamente el 35 % del número de iteraciones necesarias para entrenar el modelo original. Es objetivo de futuros trabajos optimizar los hiperparámetros del proceso de poda, mejorar su eficiencia y reducir el costo relacionado con un alto número de iteraciones.

Una distribución típica de los pesos del ecualizador MLP basado en NN sin poda y con poda cuando el nivel de escasez se establece en 40%.

Además de la reducción en el número de operaciones involucradas en el procesamiento de la señal NN, la precisión de dichas operaciones aritméticas es otro factor crucial a la hora de determinar la complejidad del modelo y, por tanto, la latencia de inferencia, así como los requerimientos de energía y memoria del ecualizador23,50,51 ,52. El proceso de aproximación de una variable continua con un conjunto específico de valores discretos se conoce como cuantización. El número de valores discretos determinará el número de bits necesarios para representar los datos. Así, al aplicar esta técnica en el contexto del aprendizaje profundo, el objetivo es disminuir la precisión numérica utilizada para codificar los pesos y activaciones de los modelos, evitando una disminución notoria en el desempeño de las NN20,52.

El uso de formatos de baja precisión nos permite acelerar las operaciones matemáticas intensivas, como la convolución y la multiplicación de matrices52. Por otra parte, el tiempo de inferencia (procesamiento de la señal) depende no solo del formato de representación de los dígitos involucrados en las operaciones matemáticas, sino que también se ve afectado por el transporte de los datos desde la memoria hasta los elementos de cómputo23,38. Además, durante este último proceso se genera calor y, por lo tanto, usar una representación de menor precisión puede generar ahorros de energía23. Finalmente, otro beneficio de usar formatos de baja precisión es que se necesita una cantidad reducida de bits para almacenar los datos, lo que reduce la huella de memoria y los requisitos de tamaño23,52.

FP32 se ha utilizado tradicionalmente como el formato numérico para codificar pesos y activaciones (salida de las neuronas) en una NN, para aprovechar un rango dinámico más amplio. Sin embargo, como ya se mencionó, esto resulta en tiempos de inferencia más altos, lo cual es un factor importante cuando se considera un procesamiento de señales en tiempo real20. Últimamente se han propuesto una variedad de alternativas al formato numérico FP32 para la representación de elementos de NN, para reducir el tiempo de inferencia, así como disminuir los requisitos de hardware. Por ejemplo, se está volviendo popular entrenar NN en formatos FP16, ya que es compatible con la mayoría de los aceleradores de aprendizaje profundo20. Por otro lado, las operaciones de tensor intensivas en matemáticas ejecutadas en tipos INT8 pueden ver una aceleración de hasta 16\(\times\) en comparación con las mismas operaciones en FP32. Además, las operaciones con memoria limitada podrían experimentar una aceleración de hasta 4\(\times\) en comparación con la versión FP3222,23,24,52. Por tanto, además de la poda, reduciremos la precisión de los pesos y activaciones para disminuir aún más la complejidad computacional del ecualizador, empleando la técnica conocida como cuantificación de enteros52.

La cuantización de enteros mapea un valor de punto flotante \(x\in [\alpha ,\,\beta ]\) a un bit entero \(x_{q}\in [\alpha _{q},\,\beta _{} q}]\). Este mapeo se puede definir matemáticamente usando la siguiente fórmula: \(x_{q} = \mathrm {redondo} \left( \frac{1}{s}x + z\right)\), donde s (un punto flotante positivo número) se conoce como la escala, y z es el punto cero (un número entero). El factor de escala básicamente divide un rango de valores reales, en este caso aquellos dentro del rango de recorte \([\alpha ,\,\beta ]\), en un número de particiones. Por lo tanto, se puede expresar como \(s = \frac{\beta - \alpha }{2^{b}-1}\) donde b es el ancho de bits de cuantificación. Por otro lado, el punto cero se puede definir como \(z = \frac{\alpha (1 - 2^{b} )}{\beta - \alpha }\). Por tanto, será 0 en el caso de cuantización simétrica. Además, el mapeo anterior se puede refactorizar para tener en cuenta que si x está fuera del rango \([\alpha ,\,\beta ]\), entonces \(x_{q}\) está fuera de \( [\alpha _{q}, \, \beta _{q}]\). Por lo tanto, es necesario recortar los valores cuando esto suceda; como consecuencia, la fórmula de mapeo se convierte en: \(x_{q} = \mathrm {clip}(\mathrm {ronda} \left[ \frac{1}{s}x + z \right] , \alpha _{q }, \beta _{q})\), donde la función \(\mathrm {clip}\) toma los valores24,53:

La cuantificación de enteros puede tomar diferentes formas, dependiendo del espacio entre los niveles de cuantificación y la simetría del rango de recorte (determinado por el valor del punto cero z)53. En aras de la simplicidad, en este trabajo, utilizamos la cuantificación entera simétrica y uniforme.

El proceso de cuantificación puede ocurrir después del entrenamiento o durante el mismo. El primer caso se conoce como cuantificación posterior al entrenamiento (PTQ) y el segundo es el entrenamiento consciente de la cuantificación22,23,24. En PTQ, un modelo entrenado tiene cuantificado su peso y activaciones. Después de esto, se utiliza un pequeño conjunto de calibración sin etiquetar para determinar los rangos dinámicos de las activaciones23,52,53,54. No se necesita readiestramiento, lo que hace que este método sea muy popular debido a su simplicidad y menores requisitos de datos53,54. No obstante, cuando un modelo entrenado se cuantifica directamente, esto puede perturbar los parámetros entrenados, alejando el modelo del punto de convergencia alcanzado durante el entrenamiento con una precisión de punto flotante. En otras palabras, notamos que PTQ puede tener problemas relacionados con la precisión53.

En este trabajo, la cuantificación se realiza después de la etapa de entrenamiento, es decir, utilizamos el PTQ. El proceso de calibración requerido para estimar el rango, es decir, (mín., máx.) de las activaciones en el modelo, se realiza ejecutando algunas inferencias con una pequeña porción del conjunto de datos de prueba. En nuestro caso, constaba de 100 muestras. Al usar la API de Tensorflow Lite, la calibración se realiza automáticamente y no es posible elegir el número de inferencias.

Finalmente, es importante discutir cómo podemos evaluar correctamente la complejidad computacional de dichos modelos. En este sentido, evaluamos cuantitativamente la reducción de la complejidad de cálculo lograda mediante la aplicación de poda y cuantificación, calculando la cantidad de bits utilizados durante un paso de inferencia. Las operaciones más comunes en una NN son las operaciones de multiplicación y acumulación (MAC). Se trata de operaciones de la forma \(a = a + w \times x\), donde intervienen tres términos: primero, x corresponde a la señal de entrada de la neurona; en segundo lugar, w se refiere al peso; y, finalmente, la variable acumulada a55. Tradicionalmente, la aritmética de la complejidad de la red se ha medido utilizando el número de operaciones MAC. Sin embargo, en términos del procesamiento DSP, el número de BoP es una métrica más apropiada para describir la complejidad computacional del modelo, ya que para redes de baja precisión compuestas por operaciones enteras, no es posible medir la complejidad computacional usando FLOPS22, 56. Por lo tanto, en este trabajo usamos BoPs para cuantificar la complejidad del ecualizador. Es importante señalar que, en el contexto de la compensación no lineal del canal óptico, la complejidad de los ecualizadores de canal basados ​​en NN se ha medido tradicionalmente teniendo en cuenta solo el número de multiplicaciones12,44,57. Por lo tanto, se despreció la contribución del acumulador. Sin embargo, en este proyecto, nuestro objetivo es tener una métrica de complejidad más general y, por lo tanto, incluirla en nuestros cálculos.

La medida BOPs se propuso por primera vez en 56 y se definió para una capa convolucional que había sido cuantificada como:

En la ecuación. (2), \(b_{w}\) y \(b_{a}\) son el peso y el ancho de bits de activación, respectivamente; n es el número de canales de entrada, m es el número de canales de salida y k define el tamaño de los filtros (por ejemplo, \(k\times k\) filtros)58. Teniendo en cuenta que una operación MAC toma la forma: \(a = a + w \times x\), es posible distinguir dos contribuciones en la ecuación anterior: una correspondiente a \(nk^{2}\times b_ {0}\) número de adiciones, donde \(b_{0} = b_{a} +b_{w} + \log _{2}(nk^{2})\) (por ejemplo, ancho del acumulador en las operaciones MAC ), y el otro corresponde al número de multiplicaciones, por ejemplo, \(nk^{2}(b_{a}b_{w})\)56.

La ecuación (2) se adaptó aún más para el caso de una capa densa que se ha podado y cuantificado59. Por lo tanto, es aplicable a nuestro caso, ya que el MLP consiste en una serie de capas densas dispuestas una tras otra:

En la ecuación. (3), n y m corresponden al número de entradas y salidas, respectivamente; \(b_{w}\) y \(b_{a}\) son los anchos de bit de los pesos y activaciones. El término adicional, \(f_{p_{i}}\), es la fracción de los pesos de las capas podadas, lo que nos permite tener en cuenta la reducción en las operaciones de multiplicación debido a la poda. Esta es la razón por la que solo se relaciona con el término \(b_{a}b_{w}\)59.

Por tanto, en nuestro caso del MLP con 3 capas ocultas, el número total de BOPs es:

donde \(i\in [1,2,3]\), \(\mathrm {BoPs_{input}}\) y \(\mathrm {BoPs_{output}}\) corresponden a las contribuciones de la entrada y salida capas. La ecuación (4) se puede escribir de una manera menos compacta de la siguiente manera:

donde \(n_{i}\), \(n_{1}\), \(n_{2}\), \(n_{3}\) y \(n_{o}\) son el número de neuronas en las capas de entrada, primera, segunda, tercera y salida, respectivamente; \(b_{w}\), \(b_{a}\), \(b_{o}\) y \(b_{i}\) son el ancho de bits de los pesos, activaciones, salida y entrada, respectivamente ; \(f_{p}\) es la fracción de los pesos que se han podado en una capa, que, en nuestro caso, es igual para todas las capas.

En este trabajo, el tamaño del modelo se define como el número de bytes que ocupa en memoria. Además, notamos la correlación directa entre el valor de esta métrica y el formato utilizado para representar el modelo. Por lo tanto, a diferencia de los formatos tradicionales utilizados en Tensorflow (p. ej., formato de datos binarios .h5 o HDF5 y .pb o protobuf), un modelo de TensorFlow Lite se representa en un formato portátil eficiente especial identificado por la extensión de archivo .tflite. Esto proporciona dos ventajas principales: un tamaño de modelo reducido y tiempos de inferencia más bajos. Por lo tanto, la implementación del modelo NN en un hardware con recursos restringidos se vuelve factible. Como consecuencia, no tendría sentido comparar los modelos guardados en el formato Tensorflow tradicional con aquellos que han sido podados y cuantificados, así como convertidos a Tensorflow Lite. Éramos conscientes de esta situación durante la realización del procedimiento y, por lo tanto, para evitar sobrestimar los beneficios de la poda y la cuantificación, el modelo sin podar y sin cuantificar se convirtió a formato .tflite. Para comprender mejor las implicaciones que tiene este paso, el tamaño del modelo original en formato .h5 experimentaría una reducción de tamaño del 96,22% después de ser convertido a formato .tflite, cuantificado y podado (60% de dispersión). En cambio, si el modelo original ya se ha convertido a .tflite, la reducción de tamaño es del 87,12%. Por supuesto, en base a esto, usar siempre el formato .tflite en lugar de los otros convencionales parece ser la mejor estrategia. La principal razón para no hacer esto es que un gráfico que está en formato .tflite no se puede volver a entrenar, ya que solo admite un modo de inferencia en línea. Sin embargo, un modelo que está, por ejemplo, en formato .h5, se puede entrenar fuera de línea. Por lo tanto, el .tflite solo está destinado a usarse en el contexto de la informática perimetral.

En muchas aplicaciones de aprendizaje profundo, el bajo consumo de energía y un tiempo de inferencia reducido son especialmente deseables. Además, el uso de unidades de procesamiento de gráficos (GPU) para lograr un alto rendimiento tiene algunos problemas relacionados con los costos que están lejos de resolverse finalmente37,60. Por lo tanto, se requiere un hardware pequeño, portátil y de bajo costo para dar solución a este problema. Como resultado, las computadoras de placa única se han vuelto populares, y Raspberry Pi 4 y Nvidia Jetson Nano se encuentran entre las más utilizadas37. Por lo tanto, aquí analizamos el funcionamiento de nuestro ecualizador basado en NN utilizando estos dos tipos de hardware populares mencionados anteriormente.

Raspberry Pi es una pequeña computadora de placa única. Está equipado con una GPU Broadcom Video Core VI (32 bits), una CPU Quad-core ARM CortexA72 de 64 bits y 1,5 GHz, 2 puertos USB 2.0 y 2 puertos USB 3.0; para el almacenamiento de datos, utiliza una tarjeta MicroSD. Además, las conexiones se proporcionan a través de Gigabit Ethernet/WiFi 802.11ac. Utiliza un sistema operativo conocido como Raspbian y no tiene capacidad de GPU ni acelerador de hardware especializado37,61.

Nvidia Jetson Nano es una pequeña computadora de placa única basada en GPU que permite la operación paralela de múltiples NN. Tiene un tamaño reducido (100 mm \(\times\) 80 mm \(\times\) 29 mm) y está equipado con una GPU Maxwell de 128 núcleos, una CPU Quad-core ARM A57 de 64 bits a 1,4 GHz. Como en el caso de Raspberry Pi, se utiliza una tarjeta MicroSD para almacenar los datos. Finalmente, las conexiones se establecen a través de Gigabit Ethernet y el SO empleado es Linux4Tegra, basado en Ubuntu 18.0437,60.

En este trabajo, junto con la latencia y precisión atribuida al procesamiento de cada modelo, también abordamos el tema del consumo de energía para los ecualizadores NN implementados en Nvidia Jetson Nano y Raspberry Pi 4.

Es posible medir el consumo de energía tanto de Nvidia Jetson Nano como de Raspberry Pi de diferentes maneras. Con respecto a Nvidia Jetson Nano, hay tres sensores integrados ubicados en la entrada de energía, en la GPU y en la CPU. Por tanto, la precisión de las medidas está limitada por estos sensores. Para leer las grabaciones de estos sensores, es posible hacerlo automáticamente usando la herramienta tegrastats, o manualmente leyendo archivos .sys, un pseudo-sistema de archivos en Linux. Al usar ambos enfoques, la información de las mediciones de potencia, voltaje y corriente se puede recopilar fácilmente62. Por el contrario, Raspberry Pi 4 no tiene un sistema para proporcionar fácilmente números de consumo de energía. Se han desarrollado algunos métodos basados ​​en software, así como algunas estimaciones empíricas63. Sin embargo, se ha demostrado que la mayoría de los métodos de software antes mencionados dan solo una aproximación que puede no usarse si se requieren resultados muy precisos63. Por otro lado, la segunda estrategia empírica para medir el consumo de energía en Raspberry Pi es específica para este tipo de hardware y no se puede utilizar en Nvidia Jetson Nano.

Para comparar el consumo de energía del ecualizador en estos dos tipos de hardware, es más preciso y deseable usar el mismo método en ambos, para evitar cualquier sesgo instrumental. En este documento, desarrollamos un método independiente de la plataforma mediante el uso de un multímetro USB digital. El sistema de medición de consumo de energía propuesto aborda el problema de estos dispositivos que no tienen resistencias de derivación integradas; este enfoque nos permite medir fácilmente la potencia con una sonda de energía externa. En la Fig. 8 se muestra un esquema de las configuraciones de medición.

(a) La configuración de medición de potencia para Nivida Jetson Nano, y (b)—lo mismo para Raspberry Pi.

En el caso de Raspberry Pi, la alimentación se suministra a través de un puerto USB tipo C a través de un adaptador de corriente de 5,1 V–2,5 A. Para Nvidia Jetson Nano, la alimentación se puede suministrar a través de un conector Micro-USB con un adaptador de alimentación de 5,1 V–2,5 A o un conector de alimentación Barrel jack de 5 V–4 A (20 W). Es posible cambiar de una configuración a otra configurando un puente y pasando del Modo de 5 W al de 10 W. Para utilizar la misma fuente de alimentación que en Raspberry Pi, se utiliza la configuración Micro-USB.

Como la energía se suministra a través de una conexión USB, es posible medir la potencia mediante un multímetro digital USB. El modelo utilizado en este trabajo es el A3-B/A3 fabricado por Innovateking-EU. Registra voltaje, corriente, impedancia y consumo de energía. Los rangos de tensión y corriente de entrada son 4,5 V–24 V y 0 A–3 A, respectivamente. Además, podemos medir la energía en un rango que va de 0 a 99.999 mWh. La resolución de medición de tensión y corriente es de 0,01 V y 0,001 A, con precisiones de medición de ± 0,2 % y ± 0,8 %, respectivamente.

El multímetro digital USB A3-B/A3 viene con el software denominado UM24C PC Software V1.3, que permite enviar los datos medidos a una computadora en tiempo real, como se muestra en la Fig. 8a,b. Durante el proceso de medición, no se conectan periféricos ni a Raspberry Pi ni a Nvidia Jetson Nano, excepto el puerto Ethernet. Este se utiliza para la comunicación sobre SSH, Fig. 8. Además, se tomaron 25 medidas para cada dispositivo. En cada uno de ellos se ejecutaron 100 inferencias, y sobre ellas se promedió el consumo de energía, sin tener en cuenta la energía consumida durante la fase de inicialización.

Para evaluar el tiempo de inferencia de cada modelo, no se conectan periféricos ni a la Raspberry Pi ni a la Nvidia Jetson Nano, excepto el puerto Ethernet, que se utiliza para establecer comunicación sobre el protocolo Secure Shell. Además, cualquier tiempo de inicialización (p. ej., carga de la biblioteca, generación de datos y carga del peso del modelo) se ignora porque se trata de un costo único que se produce durante la configuración del dispositivo. Además, se tomaron 25 medidas para cada dispositivo. En cada uno de ellos se corrieron 100 inferencias (en cada inferencia se recuperan 30k símbolos) y se promedió el tiempo de inferencia, sin tener en cuenta la fase de inicialización.

Los datos subyacentes a los resultados presentados en este documento no están disponibles públicamente en este momento, pero se pueden obtener de los autores previa solicitud.

Winzer, PJ, Neilson, DT & Chraplyvy, AR Transmisión y redes de fibra óptica: los 20 años anteriores y los próximos 20 años. Optar. Expreso 26, 24190–24239. https://doi.org/10.1364/OE.26.024190 (2018).

Artículo ADS CAS PubMed Google Scholar

Cartledge, JC, Guiomar, FP, Kschischang, FR, Liga, G. & Yankov, MP Procesamiento de señales digitales para no linealidades de fibra. Optar. Expreso 25, 1916-1936. https://doi.org/10.1364/OE.25.001916 (2017).

Artículo ADS PubMed Google Scholar

Rafique, D. Compensación de no linealidad de fibra: Aplicaciones comerciales y análisis de complejidad. J. Lightw. Tecnología 34, 544–553. https://doi.org/10.1109/JLT.2015.2461512 (2016).

Artículo ANUNCIOS Google Académico

Dar, R. & Winzer, PJ Mitigación de interferencia no lineal: Métodos y ganancia potencial. J. Lightw. Tecnología 35, 903–930. https://doi.org/10.1109/JLT.2016.2646752 (2017).

Artículo CAS Google Académico

Musumeci, F. et al. Una descripción general de la aplicación de técnicas de aprendizaje automático en redes ópticas. Común IEEE. sobrev. Tutor. 21, 1383–1408. https://doi.org/10.1109/COMST.2018.2880039 (2019).

Artículo Google Académico

Nevin, JW et al. Aprendizaje automático para sistemas de comunicación de fibra óptica: introducción y descripción general. Fotón APL. https://doi.org/10.1063/5.0070838 (2021).

Artículo Google Académico

Jarajreh, MA et al. Ecualizador no lineal de red neuronal artificial para ofdm óptico coherente. Fotón IEEE. Tecnología Letón. 27, 387–390. https://doi.org/10.1109/LPT.2014.2375960 (2015).

Artículo ANUNCIOS Google Académico

Häger, C. & Pfister, HD Mitigación de interferencia no lineal a través de redes neuronales profundas. En 2018 Conferencia y exposición de comunicaciones de fibra óptica (OFC), 1–3 (IEEE) (2018).

Zhang, S. et al. Demostración experimental de campo y laboratorio de compensación de deterioro no lineal utilizando redes neuronales. Nat. común 10, 3033. https://doi.org/10.1038/s41467-019-10911-9 (2019).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Freire, PJ et al. Estudio de rendimiento versus complejidad de ecualizadores de redes neuronales en sistemas ópticos coherentes. J. Lightw. Tecnología 39, 6085–6096. https://doi.org/10.1109/JLT.2021.3096286 (2021).

Artículo ANUNCIOS Google Académico

Deligiannidis, S., Bogris, A., Mesaritakis, C. & Kopsinis, Y. Compensación de las no linealidades de la fibra en sistemas coherentes digitales que aprovechan las redes neuronales de memoria a corto plazo. J. Lightw. Tecnología 38, 5991–5999. https://doi.org/10.1109/JLT.2020.3007919 (2020).

Artículo ANUNCIOS Google Académico

Deligiannidis, S., Mesaritakis, C. y Bogris, A. Análisis de rendimiento y complejidad de modelos de redes neuronales recurrentes bidireccionales frente a ecualizadores no lineales volterra en sistemas coherentes digitales. J. Lightw. Tecnología 39, 5791–5798. https://doi.org/10.1109/JLT.2021.3092415 (2021).

Artículo ANUNCIOS Google Académico

Freire, PJ et al. Estudio experimental del rendimiento de ecualizadores de redes neuronales profundas en enlaces ópticos. En 2021 Conferencia y exposición de comunicaciones de fibra óptica (OFC), 1–3 (2021).

Sidelnikov, O., Redyuk, A. & Sygletos, S. Rendimiento de ecualización y análisis de complejidad de redes neuronales profundas dinámicas en sistemas de transmisión de larga distancia. Optar. Expreso 26, 32765–32776. https://doi.org/10.1364/OE.26.032765 (2018).

Artículo ADS PubMed Google Scholar

Sidelnikov, OS, Redyuk, AA, Sygletos, S. & Fedoruk, MP Métodos para la compensación de efectos no lineales en sistemas de transferencia de datos multicanal basados ​​en redes neuronales dinámicas. Electrón Cuántico. 49, 1154. https://doi.org/10.1070/QEL17158 (2019).

Artículo ANUNCIOS Google Académico

Barry, JR, Lee, EA y Messerschmitt, DG Comunicación Digital 3ra ed. (Springer, ***, 2004).

Libro Google Académico

Ming, H. et al. Red de memoria a largo y corto plazo de complejidad ultrabaja para la mitigación de la no linealidad de la fibra en sistemas de comunicación óptica coherente. arXiv:2108.10212 (versión preliminar de arXiv) (2021).

Kaneda, N. et al. Implementación de FPGA de ecualizadores basados ​​en redes neuronales profundas para pon de alta velocidad. En Conferencia de comunicación de fibra óptica (OFC) 2020, T4D.2. https://doi.org/10.1364/OFC.2020.T4D.2 (Sociedad Óptica de América, 2020) (2020).

Blalock, D., Ortiz, JJG, Frankle, J. & Guttag, J. ¿Cuál es el estado de la poda de redes neuronales? (2020). arXiv:2003.03033.

Han, S., Mao, H. & Dally, WJ Compresión profunda: Compresión de redes neuronales profundas con poda, cuantificación entrenada y codificación Huffman (2016). arXiv:1510.00149.

Srinivas, S., Subramanya, A. & Babu, RV Entrenamiento de redes neuronales dispersas. Conferencia IEEE de 2017 sobre talleres de visión artificial y reconocimiento de patrones (CVPRW) 455–462 (2017).

Halcones, B. et al. Ps y qs: poda consciente de la cuantificación para una inferencia eficiente de redes neuronales de baja latencia. Frente. Artefacto Intel.https://doi.org/10.3389/frai.2021.676564 (2021).

Artículo PubMed PubMed Central Google Académico

Sze, V., Chen, Y.-H., Yang, T.-J. & Emer, JS Procesamiento eficiente de redes neuronales profundas: tutorial y encuesta. proc. IEEE 105, 2295–2329. https://doi.org/10.1109/JPROC.2017.2761740 (2017).

Artículo Google Académico

Liang, T., Glossner, J., Wang, L., Shi, S. y Zhang, X. Poda y cuantificación para la aceleración de redes neuronales profundas: una encuesta. Neurocomputación 2101, 09671 (2021).

Google Académico

Fujisawa, S. et al. Técnicas de poda de peso hacia la implementación fotónica de compensación de deterioro no lineal utilizando redes neuronales. J. Lightw. Tecnología.https://doi.org/10.1109/JLT.2021.3117609 (2021).

Artículo Google Académico

Li, M., Zhang, W., Chen, Q. & He, Z. Implementación de hardware de alto rendimiento de ecualización no lineal basada en red neuronal podada para interconexión óptica de corto alcance de 100 gbps. Optar. Letón. 46, 4980–4983 (2021).

Artículo ANUNCIOS Google Académico

Oliari, V. et al. Revisión de la compensación eficiente de no linealidad de varios pasos con aprendizaje automático: una demostración experimental. J. Lightw. Tecnología 38, 3114–3124 (2020).

Artículo ADS CAS Google Académico

Koike-Akino, T., Wang, Y., Kojima, K., Parsons, K. y Yoshida, T. Ecualización de dnn dispersa con multiplicador cero para sistemas qam de fibra óptica con configuración de amplitud probabilística. En 2021 Conferencia Europea sobre Comunicaciones Ópticas (ECOC), 1–4 (IEEE) (2021).

Freire, PJ et al. Transferencia de aprendizaje para ecualizadores basados ​​en redes neuronales en sistemas ópticos coherentes. J. Lightw. Tecnología 39, 6733–6745. https://doi.org/10.1109/JLT.2021.3108006 (2021).

Artículo ANUNCIOS Google Académico

Pelikan, M., Goldberg, DE, Cantú-Paz, E. et al. Boa: El algoritmo de optimización bayesiano. En Actas de la Conferencia de Computación Genética y Evolutiva GECCO-99, vol. 1, 525–532 (Citeseer) (1999).

Abadi, M. et al. TensorFlow: aprendizaje automático a gran escala en sistemas heterogéneos (2015). Software disponible en tensorflow.org.

Hoefler, T., Alistarh, D., Ben-Nun, T., Dryden, N. y Peste, A. Transferencia de aprendizaje para ecualizadores basados ​​en redes neuronales en sistemas ópticos coherentes. J. Mach. Aprender. Res. 2102, 00554 (2021).

Google Académico

Allen-Zhu, Z., Li, Y. y Song, Z. Una teoría de la convergencia para el aprendizaje profundo a través de la parametrización excesiva. En Conferencia internacional sobre aprendizaje automático, 242–252 (PMLR) (2019).

Neill, JO Una descripción general de la compresión de redes neuronales. arXiv:2006.03669 (2020).

Neyshabur, B., Li, Z., Bhojanapalli, S., LeCun, Y. y Srebro, N. Hacia la comprensión del papel de la parametrización excesiva en la generalización de las redes neuronales. arXiv:1805.12076 (versión preliminar de arXiv) (2018).

Zhu, M. & Gupta, S. Podar o no podar: Exploración de la eficacia de la poda para la compresión de modelos. arXiv:1710.01878 (versión preliminar de arXiv) (2017).

Hadidi, R. et al. Caracterización del despliegue de redes neuronales profundas en dispositivos perimetrales comerciales. En 2019 Simposio internacional IEEE sobre caracterización de cargas de trabajo (IISWC), 35–48 (IEEE) (2019).

Yang, T.-J., Chen, Y.-H., Emer, J. & Sze, V. Un método para estimar el consumo de energía de las redes neuronales profundas. En 2017, 51.a Conferencia de Asilomar sobre señales, sistemas y computadoras, 1916-1920 (IEEE) (2017).

Närhi, M. et al. Análisis de aprendizaje automático de eventos extremos en inestabilidad de modulación de fibra óptica. Nat. común 9, 4923. https://doi.org/10.1038/s41467-018-07355-y (2018).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Agrawal, G. Capítulo 2: propagación de pulsos en fibras. En Nonlinear Fiber Optics (quinta edición), Optics and Photonics (ed. Agrawal, G.) 27–56 (Academic Press, Boston, 2013). https://doi.org/10.1016/B978-0-12-397023-7.00002-4.

Capítulo Google Académico

Freire, PJ, Prilepsky, JE, Osadchuk, Y., Turitsyn, SK & Aref, V. Redes neuronales basadas en ecualización posterior en sistemas ópticos coherentes: regresión versus clasificación. arXiv:2109.13843 (versión preliminar de arXiv) (2021).

Kingma, DP & Ba, J. Adam: Un método para la optimización estocástica. arXiv: 1412.6980 (versión preliminar de arXiv) (2014).

Eriksson, TA, Bülow, H. & Leven, A. Aplicación de redes neuronales en sistemas de comunicación óptica: posibles trampas. Fotón IEEE. Tecnología Letón. 29, 2091–2094 (2017).

Artículo ANUNCIOS Google Académico

Freire, PJ et al. Ecualizadores basados ​​en redes neuronales para transmisión óptica coherente: advertencias y peligros. arXiv:2109.14942 (versión preliminar de arXiv) (2021).

Matsumoto, M. & Nishimura, T. Mersenne twister: Un generador de números pseudoaleatorios uniforme equidistribuido en 623 dimensiones. ACM Trans. Modelo. computar Simul. 8, 3–30 (1998).

Artículo Google Académico

Dong, X. & Zhou, L. Comprensión de redes profundas sobreparametrizadas por geometrización. arXiv:1902.03793 (2019).

Bondarenko, A., Borisov, A. & Alekseeva, L. Neuronas frente a poda de pesos en redes neuronales artificiales. En MEDIO AMBIENTE. TECNOLOGÍAS. RECURSOS. Actas de la Conferencia Internacional Científica y Práctica, vol. 3, 22–28 (2015).

Hu, H., Peng, R., Tai, Y. y Tang, C. Recorte de red: un enfoque de poda de neuronas basado en datos hacia arquitecturas profundas eficientes. arXiv:1607.03250CorR (2016).

Bartoldson, B., Morcos, A., Barbu, A. & Erlebacher, G. La compensación entre generalización y estabilidad en la poda de redes neuronales. Adv. Neural. información Proceso. sist. 33, 20852–20864 (2020).

Google Académico

Choukroun, Y., Kravchik, E., Yang, F. y Kisilev, P. Cuantificación de bits bajos de redes neuronales para una inferencia eficiente. arXiv:1902.06822 (2019).

Yang, J. et al. Redes de cuantización. arXiv:1911.09464 (2019).

Wu, H., Judd, P., Zhang, X., Isaev, M. y Micikevicius, P. Cuantificación de enteros para la inferencia de aprendizaje profundo: principios y evaluación empírica. arXiv:2004.09602 (versión preliminar de arXiv) (2020).

Gholami, A. et al. Un estudio de los métodos de cuantificación para la inferencia eficiente de redes neuronales. arXiv:2103.13630 (versión preliminar de arXiv) (2021).

Hubara, I., Nahshan, Y., Hanani, Y., Banner, R. y Soudry, D. Cuantificación precisa posterior al entrenamiento con pequeños conjuntos de calibración. En Conferencia internacional sobre aprendizaje automático, 4466–4475 (PMLR) (2021).

de Lima, TF et al. Aprendizaje automático con fotónica neuromórfica. J. Lightw. Tecnología 37, 1515-1534 (2019).

Artículo ANUNCIOS Google Académico

Baskin, C. et al. Uniq: inyección de ruido uniforme para la cuantificación no uniforme de redes neuronales. ACM Trans. computar Sist.https://doi.org/10.1145/3444943 (2021).

Artículo Google Académico

Freire, PJ et al. Diseño de redes neuronales de valor complejo para la mitigación de distorsiones de señal en enlaces ópticos. J. Lightw. Tecnología 39, 1696–1705. https://doi.org/10.1109/JLT.2020.3042414 (2021).

Artículo ANUNCIOS Google Académico

Albawi, S., Mohammed, TA y Al-Zawi, S. Comprensión de una red neuronal convolucional. En la Conferencia Internacional de Ingeniería y Tecnología de 2017 (ICET), 1–6 (Ieee) (2017).

Tran, N. et al. Ps y qs: poda consciente de la cuantificación para una inferencia eficiente de redes neuronales de baja latencia. Frente. Artefacto Intel. 4, 94 (2021).

Artículo Google Académico

Valladares, S., Toscano, M., Tufiño, R., Morillo, P. & Vallejo-Huanga, D. Evaluación del desempeño de la nvidia jetson nano a través de una aplicación de aprendizaje automático en tiempo real. En Conferencia internacional sobre integración de sistemas humanos inteligentes, 343–349 (Springer) (2021).

Tang, R., Wang, W., Tu, Z. y Lin, J. Un análisis experimental del consumo de energía de las redes neuronales convolucionales para la detección de palabras clave. En 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 5479–5483 (IEEE) (2018).

Holly, S., Wendt, A. y Lechner, M. Elaboración de perfiles de consumo de energía de redes neuronales profundas en nvidia jetson nano. En 2020, 11.º Talleres internacionales de computación ecológica y sostenible (IGSC), 1–6 (IEEE) (2020).

Kaup, F., Gottschling, P. & Hausheer, D. Powerpi: Medición y modelado del consumo de energía de raspberry pi. En la 39.ª Conferencia anual de IEEE sobre redes informáticas locales, 236–243 (IEEE) (2014).

Descargar referencias

SKT y MKK cuentan con el apoyo parcial del programa EPSRC Grant TRANSNET, EP/R035342/1. PJF y DAR agradecen el apoyo de los proyectos EU Horizon 2020 Marie Skodowska-Curie Action No. 813144 (REAL-NET) y 860360 (POST-DIGITAL), respectivamente. JEP y SKT agradecen el apoyo del proyecto Leverhulme Trust RPG-2018-063.

Instituto Aston de Tecnologías Fotónicas, Universidad de Aston, Birmingham, B4 7ET, Reino Unido

Diego Argüello Ron, Peter J. Freire, Jaroslaw E. Prilepsky, Morteza Kamalian-Kopae & Sergei K. Turitsyn

Infinera, St. Martin's Str. 76 , 81541 , Múnich , Alemania

Peter J. Freire y Anthony Napoli

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

DAR, PJF y JEP concibieron el estudio. DAR y PJF propusieron el modelo de red neuronal. DAR realizó las simulaciones numéricas, diseñó el montaje experimental y obtuvo los resultados experimentales. PJF generó los datos y realizó la optimización de la arquitectura. DAR y PJF diseñaron las figuras y tablas. DAR, PJF y JEP escribieron el manuscrito, con la asistencia de MKK y SKT Todos los autores revisaron el manuscrito. El trabajo de DAR fue supervisado por MKK y SKT El trabajo de PJF fue supervisado por JEP, AN y SKT

Correspondencia a Diego Argüello Ron o Sergei K. Turitsyn.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Ron, DA, Freire, PJ, Prilepsky, JE et al. Implementación experimental de un ecualizador de canal óptico de red neuronal en hardware restringido mediante poda y cuantificación. Informe científico 12, 8713 (2022). https://doi.org/10.1038/s41598-022-12563-0

Descargar cita

Recibido: 06 enero 2022

Aceptado: 03 mayo 2022

Publicado: 24 mayo 2022

DOI: https://doi.org/10.1038/s41598-022-12563-0

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.

COMPARTIR