Transformer DPD for non-linear power amplifiers in multi carrier signals

Bookmark (0)
Please login to bookmark Close

Esta tesis investiga la aplicación de una Red Neuronal Transformadora en un sistema de pre distorsión digital (DPD) para contrarrestar las no linealidades de los amplificadores de potencia en escenarios de señales multicarrier. Basándose en trabajos anteriores que probaron la arquitectura Transformador en una señal de un solo portador, demostrando su superioridad sobre otros modelos de ´ ultima generación´ on, este estudio extiende la exploración a entornos multicarrier más complejos y realistas. La investigación investiga y propone mejoras y modificaciones a la arquitectura Transformer y a las características de entrada utilizadas para entrenar la red, y evalúa sus capacidades en diversas condiciones de señal. El modelo propuesto se compara contra otros modelos de Neural Network, específicamente un Long Short-Term Memory Neural Network (LSTMNN), un Bidirectional LSTM Neural Network (BiLSTMNN) y un Bidirectional Gated Recurrent Unit Neural Network (BiGRUNN), conocidos por su eficacia en la modelización de DPD. Además, el modelo ha sido evaluado junto con los modelos DPD propietarios de Ericsson. Las métricas evaluativas incluyen el normalized mean square error (NMSE) y el adjacent channel leakage ratio (ACLR). El modelo basado en Transformer muestra un rendimiento superior cuando se compara con las otras redes neuronales, y también un rendimiento comparable al de los DPD de Ericsson. Sin embargo, la complejidad del modelo sigue siendo demasiado alta para la implementación práctica en FPGA. Este aspecto se identifica como un área significativa para futuras investigaciones y optimización, aunque queda fuera del alcance de esta tesis.
ABSTRACT
This thesis investigates the application of the Transformer Neural Network for digital predistortion (DPD) to counteract the nonlinearities of power amplifiers in multi-carrier signal scenarios. Building upon previous work that tested the Transformer architecture on a single-carrier signal, demonstrating its superiority over other state-of-the-art models, this study extends the exploration to more complex and realistic multi-carrier environments. The research investigates and proposes improvements and modifications to the Transformer architecture and to the input features used to train the network, and assesses its capabilities across diverse signal conditions. The proposed model is compared against other neural network models, specifically a Long Short-Term Memory Neural Network (LSTMNN), a Bidirectional LSTM Neural Network (BiLSTMNN) and a Bidirectional Gated Recurrent Unit Neural Network (BiGRUNN), known for their effectiveness in DPD modeling. Additionally, the model has been evaluated alongside Ericsson’s proprietary DPD models. Evaluative metrics include normalized mean square error (NMSE) and adjacent channel leakage ratio (ACLR). The Transformer-based model shows superior performance when compared to the other neural networks, and also comparable performance to Ericsson’s DPD. However, the complexity of the model remains too high for practical FPGA implementation. This aspect is identified as a significant area for future research and optimization, although it falls outside the scope of this thesis.

​Esta tesis investiga la aplicación de una Red Neuronal Transformadora en un sistema de pre distorsión digital (DPD) para contrarrestar las no linealidades de los amplificadores de potencia en escenarios de señales multicarrier. Basándose en trabajos anteriores que probaron la arquitectura Transformador en una señal de un solo portador, demostrando su superioridad sobre otros modelos de ´ ultima generación´ on, este estudio extiende la exploración a entornos multicarrier más complejos y realistas. La investigación investiga y propone mejoras y modificaciones a la arquitectura Transformer y a las características de entrada utilizadas para entrenar la red, y evalúa sus capacidades en diversas condiciones de señal. El modelo propuesto se compara contra otros modelos de Neural Network, específicamente un Long Short-Term Memory Neural Network (LSTMNN), un Bidirectional LSTM Neural Network (BiLSTMNN) y un Bidirectional Gated Recurrent Unit Neural Network (BiGRUNN), conocidos por su eficacia en la modelización de DPD. Además, el modelo ha sido evaluado junto con los modelos DPD propietarios de Ericsson. Las métricas evaluativas incluyen el normalized mean square error (NMSE) y el adjacent channel leakage ratio (ACLR). El modelo basado en Transformer muestra un rendimiento superior cuando se compara con las otras redes neuronales, y también un rendimiento comparable al de los DPD de Ericsson. Sin embargo, la complejidad del modelo sigue siendo demasiado alta para la implementación práctica en FPGA. Este aspecto se identifica como un área significativa para futuras investigaciones y optimización, aunque queda fuera del alcance de esta tesis.
ABSTRACT
This thesis investigates the application of the Transformer Neural Network for digital predistortion (DPD) to counteract the nonlinearities of power amplifiers in multi-carrier signal scenarios. Building upon previous work that tested the Transformer architecture on a single-carrier signal, demonstrating its superiority over other state-of-the-art models, this study extends the exploration to more complex and realistic multi-carrier environments. The research investigates and proposes improvements and modifications to the Transformer architecture and to the input features used to train the network, and assesses its capabilities across diverse signal conditions. The proposed model is compared against other neural network models, specifically a Long Short-Term Memory Neural Network (LSTMNN), a Bidirectional LSTM Neural Network (BiLSTMNN) and a Bidirectional Gated Recurrent Unit Neural Network (BiGRUNN), known for their effectiveness in DPD modeling. Additionally, the model has been evaluated alongside Ericsson’s proprietary DPD models. Evaluative metrics include normalized mean square error (NMSE) and adjacent channel leakage ratio (ACLR). The Transformer-based model shows superior performance when compared to the other neural networks, and also comparable performance to Ericsson’s DPD. However, the complexity of the model remains too high for practical FPGA implementation. This aspect is identified as a significant area for future research and optimization, although it falls outside the scope of this thesis. Read More