Desarrollo y validación de un algoritmo de redes neuronales profundas para la predicción de parámetros ambientales críticos en motores de inducción trifásicos: estudio experimental en ambientes controlados

 

Development and validation of a deep neural network algorithm for predicting critical environmental parameters in three-phase induction motors: an experimental study under controlled environments

 

Geovanna Shirley Agila Aguinda1 Envelope, Johnatan Israel Corrales Bonilla1 Envelope

 

1Universidad Nacional de Chimborazo, Riobamba Ecuador

 

Correo de correspondencia: geovanna.agila@unach.edu.ec; juanatan.corrales@unach.edu.ec

 

Información del artículo

 

Tipo de artículo:

Artículo original

 

Recibido:

20/02/2026

 

Aceptado:

25/03/2026

 

Publicado:

14/04/2026

 

Revista:

DATEH

 

Resumen

El monitoreo predictivo de motores de inducción trifásicos constituye un desafío clave en entornos industriales debido a la complejidad de las interacciones entre variables térmicas, eléctricas y mecánicas. En este estudio se propone y valida un modelo de redes neuronales profundas tipo LSTM multisalida para la predicción simultánea de la temperatura del estator, la temperatura del rodamiento y la vibración RMS, utilizando datos experimentales obtenidos en condiciones controladas. La metodología incluye preprocesamiento, normalización sin fuga de información, construcción de secuencias temporales mediante ventanas deslizantes y entrenamiento con validación temporal. El desempeño fue evaluado mediante métricas MAE y RMSE, junto con análisis de residuos, bootstrap y validación cruzada. Los resultados muestran que el modelo LSTM alcanza un desempeño consistente, con errores del orden de 6.8–7.0 °C en variables térmicas y aproximadamente 0.83 mm/s en vibración. La comparación con modelos tradicionales evidenció que Random Forest presenta un mejor desempeño en variables térmicas, mientras que el LSTM muestra ventajas en la modelación temporal y en la predicción de vibración. Asimismo, se identificó una tendencia a generar predicciones suavizadas, limitando la captura de fluctuaciones de alta frecuencia. La prueba de hipótesis indicó que el modelo LSTM no presenta una mejora estadísticamente significativa respecto a un modelo base. En conjunto, los resultados evidencian que la selección del modelo depende de las características del dataset, sugiriendo el uso de enfoques híbridos en aplicaciones industriales.

 

Palabras clave: LSTM multisalida, motores trifásicos, mantenimiento predictivo, series temporales multivariada, aprendizaje profundo, análisis estadístico

 

Abstract

Predictive monitoring of three-phase induction motors is a key challenge in industrial environments due to the complex interactions between thermal, electrical, and mechanical variables. This study proposes and validates a multivariate Long Short-Term Memory (LSTM) neural network model for the simultaneous prediction of stator temperature, bearing temperature, and RMS vibration using experimental data collected under controlled conditions. The methodology includes preprocessing, leakage-free normalization, temporal sequence construction using sliding windows, and model training with temporal validation. Performance was evaluated using MAE and RMSE metrics, complemented by residual analysis, bootstrap confidence intervals, and time-series cross-validation. Results show that the LSTM model achieves consistent performance, with errors of approximately 6.8–7.0 °C for thermal variables and 0.83 mm/s for vibration. Comparison with traditional models indicates that Random Forest outperforms LSTM in thermal prediction, while LSTM provides advantages in temporal modeling and vibration prediction. The model exhibits a smoothing effect, limiting its ability to capture high-frequency fluctuations. Hypothesis testing revealed no statistically significant improvement over a baseline model. Overall, the findings suggest that model performance depends on dataset characteristics, highlighting the potential of hybrid approaches for industrial applications.

 

Keywords: multi-output LSTM, three-phase motors, predictive maintenance, time series, deep learning, statistical analysis

 


INTRODUCCIÓN

En los últimos años, el monitoreo inteligente de condición y la predicción del comportamiento dinámico en sistemas electromecánicos se han vuelto cada vez más relevantes para la industria moderna. Esto es particularmente cierto en sectores donde mantener la continuidad operativa, optimizar la eficiencia energética y garantizar la sostenibilidad de los procesos productivos son aspectos críticos. Los motores de inducción trifásicos representan, sin duda, uno de los componentes más empleados en entornos industriales; de hecho, son responsables de una porción considerable del consumo energético a nivel mundial y resultan fundamentales para el funcionamiento de sistemas de bombeo, compresión y diversos mecanismos de accionamiento. Lei et al. (2020) y Zhu et al. (2023) han señalado que, dada la importancia de estos equipos, se han venido desarrollando estrategias cada vez más sofisticadas de mantenimiento predictivo que aprovechan el análisis de datos y las capacidades de la inteligencia artificial.

 

Cuando hablamos de "parámetros ambientales" en el contexto de sistemas electromecánicos, no nos referimos únicamente a factores externos como la temperatura del ambiente o los niveles de humedad. El concepto es más amplio e incluye también las condiciones internas que caracterizan el entorno operativo del sistema. Por ejemplo, variables como la temperatura del estator, la temperatura en los rodamientos y los niveles de vibración se consideran indicadores fundamentales del estado térmico y mecánico del motor, ya que tienen un impacto directo en su eficiencia, rendimiento y, por supuesto, en cuánto tiempo puede seguir funcionando de manera confiable.

 

Históricamente, las estrategias de mantenimiento se han centrado en dos enfoques principales: el correctivo, que actúa después de que ocurre una falla, y el preventivo, que se basa en inspecciones programadas, análisis espectrales y límites establecidos a partir de la experiencia práctica. El problema es que estos métodos muestran sus debilidades cuando intentamos aplicarlos a sistemas electromecánicos reales, que son inherentemente complejos. Estos sistemas presentan comportamientos no lineales y múltiples interacciones entre variables eléctricas, térmicas y mecánicas que están íntimamente relacionadas. Gangsar & Tiwari (2020) han argumentado que los métodos que analizan señales de forma individual no consiguen captar por completo cómo interactúan las distintas fuentes de degradación. En la misma línea, Jiao et al. (2020) y  Zhang et al. (2020) han documentado que estos enfoques tradicionales tienen problemas para adaptarse cuando hay ruido en las señales o cuando las condiciones operativas varían.

 

Ante estas limitaciones, el mantenimiento predictivo basado en datos ha ganado terreno de manera notable durante la última década. Según lo planteado por Theissler et al. (2021) y Xu & Saleh (2021), las técnicas de machine learning ofrecen la posibilidad de convertir enormes cantidades de datos históricos en información realmente útil para detectar fallas antes de que ocurran y para anticipar el comportamiento del sistema. Los modelos de aprendizaje profundo, en particular, han demostrado ser bastante efectivos cuando se trata de representar sistemas dinámicos complejos. Tama et al. (2023) y Qiu et al. (2023) han encontrado que estas arquitecturas profundas logran mejores resultados que los métodos convencionales en tareas de diagnóstico y pronóstico aplicadas a maquinaria rotativa.

 

Entre las diferentes técnicas disponibles, las redes Long Short-Term Memory (LSTM) se han popularizado bastante para analizar series temporales en contextos industriales. La razón principal es que tienen la capacidad de identificar patrones tanto a corto como a largo plazo, lo cual resulta crucial cuando estamos estudiando fenómenos de degradación que avanzan de forma gradual. Deng et al. (2021) y Wang et al. (2024) han reportado que el uso de modelos LSTM produce mejoras notables en métricas de error como MAE y RMSE al predecir variables térmicas. Por su parte, Kirchgässner et al. (2021) y Hughes et al. (2023) enfatizan que incluir variables que tengan sentido desde el punto de vista físico ayuda a mejorar considerablemente la precisión de estos modelos.

 

A pesar de todo esto, todavía quedan retos por resolver. Varios estudios han observado que los modelos de aprendizaje profundo a veces tienen dificultades para captar fluctuaciones rápidas o cambios transitorios, sobre todo cuando los datos vienen de experimentos controlados donde la variabilidad es más bien limitada. En esos casos, los modelos suelen representar bien la tendencia general del sistema, pero les cuesta más trabajo reproducir eventos súbitos o cambios bruscos.

 

En cuanto al diagnóstico de fallas, se han llevado a cabo numerosas investigaciones que usan aprendizaje automático para identificar patrones anormales en señales de vibración, corriente eléctrica y temperatura. Zhao et al. (2020) y  Neupane & Seok (2020), por ejemplo, han mostrado mejoras importantes en la detección de fallas en rodamientos utilizando modelos de deep learning. Singh et al. (2023) y H. Wang et al. (2023) también han destacado lo útil que puede ser la inteligencia artificial para detectar anomalías de forma temprana en maquinaria rotativa.

 

Sin embargo, hay algo que llama la atención al revisar la literatura: muchos estudios tratan las variables físicas de manera separada. Cen et al. (2022) y Nikfar et al, (2022) han notado que es común que las investigaciones aborden las variables térmicas, eléctricas y mecánicas de forma aislada, lo que termina limitando la capacidad de entender cómo realmente interactúan entre sí dentro del sistema. Esto es especialmente problemático en motores eléctricos, donde sabemos que estos fenómenos están fuertemente conectados.

 

Un aspecto que resulta especialmente crítico es la forma en que se estructura el pipeline de análisis de datos. Tal como señala Lei et al. (2020), una configuración inadecuada del proceso de entrenamiento puede conducir a modelos con sobreajuste o a estimaciones de desempeño que no reflejan su comportamiento real. En este sentido, la literatura reciente enfatiza la necesidad de aplicar esquemas de validación temporal estrictos y de preservar conjuntos de prueba completamente independientes, con el fin de obtener evaluaciones más confiables.

 

En este trabajo se plantea el desarrollo de un modelo LSTM multisalida orientado a la predicción simultánea de la temperatura del estator, la temperatura del rodamiento y la vibración mecánica en motores de inducción trifásicos. A diferencia de enfoques convencionales, la propuesta integra múltiples variables físicas dentro de una misma arquitectura, lo que permite aproximarse de forma más completa a la dinámica real del sistema.

 

Además, no solo se busca estimar estas variables, sino también analizar en qué medida el modelo es capaz de seguir su evolución temporal. En particular, se presta atención a sus limitaciones, sobre todo en escenarios donde se presentan cambios rápidos o transitorios. Para ello, se implementa una metodología estructurada que incluye el preprocesamiento de datos, la construcción de secuencias mediante ventanas deslizantes y la validación bajo un enfoque temporal.

 

Más allá de los indicadores cuantitativos, el interés también se centra en comprender cómo responde el modelo en condiciones controladas, identificando tanto sus fortalezas como sus restricciones. Este tipo de análisis resulta relevante para el desarrollo de aplicaciones basadas en inteligencia artificial orientadas al monitoreo de sistemas electromecánicos, donde la interpretación del comportamiento del modelo es tan importante como su precisión numérica.

 

MATERIALES Y MÉTODOS

Diseño de la investigación

 

La investigación se desarrolló bajo un enfoque cuantitativo, con alcance aplicado y experimental, orientado al desarrollo y validación de un algoritmo de redes neuronales profundas para la predicción de parámetros ambientales críticos en motores de inducción trifásicos. El estudio se basa en el análisis de datos experimentales obtenidos en ambientes controlados, lo que permitió evaluar el comportamiento del sistema electromecánico bajo condiciones reproducibles de laboratorio.

 

El diseño metodológico corresponde a un estudio longitudinal de series temporales multivariables, dado que las variables fueron registradas de forma secuencial en el tiempo. Este enfoque es coherente con el objetivo de anticipar comportamientos críticos asociados al desempeño térmico y vibracional del motor.

 

Materiales e instrumentación

 

El estudio se realizó sobre un único sistema experimental, basado en motores de inducción trifásicos de jaula de ardilla con características técnicas equivalentes, instrumentados con sensores industriales para la medición de variables ambientales, eléctricas, térmicas y mecánicas. Los motores fueron operados de manera alternada dentro del mismo entorno experimental y bajo condiciones controladas de laboratorio. Con el fin de evitar sesgos asociados a la identificación individual de cada equipo, los registros temporales fueron analizados de forma agregada, sin asignar etiquetas específicas por motor. La Tabla 1, presenta el resumen de los materiales e instrumentos utilizados en el sistema experimental.

 

Tabla 1

Materiales e instrumentos empleados en el sistema experimental.

Elemento

Descripción General

Medidas / Unidades

Motor de inducción

Motor trifásico de jaula de ardilla

Potencia nominal ≈ 5 kW

Sensor de temperatura

Sensor industrial de contacto / ambiente

°C

Sensor de humedad

Sensor ambiental

%

Sensor de flujo de aire

Anemómetro industrial

m/s

Sensor de vibración

Sensor de vibración industrial

mm/s

Sensores eléctricos

Sensores de corriente y voltaje

A, V

Sistema de adquisición

Sistema multicanal sincronizado

Registro temporal

Sistema computacional

Computador de propósito general

Procesamiento de datos

 

Configuración del sistema experimental

 

El sistema experimental fue configurado de manera que los sensores ambientales, eléctricos, térmicos y mecánicos operaran de forma sincronizada durante el funcionamiento del motor. La disposición de los sensores permitió capturar información representativa de las condiciones de operación del sistema, asegurando coherencia temporal entre las variables medidas.

 

La adquisición de datos se realizó mediante un sistema multicanal sincronizado, lo que permitió registrar de forma simultánea todas las magnitudes físicas consideradas en el estudio.

 

Procedencia y recolección de los datos

 

El conjunto de datos utilizado en esta investigación corresponde a registros experimentales obtenidos a partir de un sistema electromecánico instrumentado, operado bajo condiciones controladas en un entorno de laboratorio. Posteriormente, dichos datos fueron proporcionados para su análisis, procesamiento y modelado, constituyendo la base experimental del presente estudio.

 

El proceso de recolección no involucró participantes humanos ni seres vivos, por lo que no se requirieron consentimientos informados ni consideraciones éticas adicionales.

 

Descripción del dataset

 

El dataset empleado en el análisis está conformado por 1500 registros experimentales, organizados como una serie temporal multivariable, sin identificación por unidad individual. Esta característica indica que los datos corresponden a una única configuración experimental, basada en un motor instrumentado, y que el análisis se realiza sobre el comportamiento agregado del sistema.

 

Para facilitar la comprensión de la estructura general del conjunto de datos, la Tabla 2 resume sus principales características.

 

Tabla 2

Estructura general del dataset.

Característica

Descripción

Tipo de datos

Serie temporal multivariable

Número de registros

1500

Sistema analizado

Sistema experimental con motores equivalentes operados de forma alternada

Entorno

Ambiente controlado

Identificación por unidad

No disponible

Finalidad

Predicción de parámetros críticos


Variables consideradas

 

Las variables incluidas en el dataset fueron clasificadas según su naturaleza física y su rol dentro del modelo predictivo. Esta clasificación permitió definir de manera clara las variables de entrada y las variables objetivo del algoritmo de redes neuronales profundas.

 

La Tabla 3 presenta el detalle de las variables consideradas, junto con sus unidades de medida y su función dentro del modelo.

 

Tabla 3

Variables del dataset.

Variable

Tipo

Unidad

Rol

Temperatura ambiente

Ambiental

°C

Entrada

Humedad relativa

Ambiental

%

Entrada

Velocidad del aire

Ambiental

m/s

Entrada

Carga del motor

Operativa

%

Entrada

Tensión de línea

Eléctrica

V

Entrada

Corriente de línea

Eléctrica

A

Entrada

Potencia activa

Eléctrica

kW

Entrada

Velocidad de rotación

Mecánica

rpm

Entrada

Vibración global

Mecánica

mm/s

Salida

Temperatura del estator

Térmica

°C

Salida

Temperatura del rodamiento

Térmica

°C

Salida

Severidad ambiental

Derivada

Entrada

 

Preprocesamiento y análisis de datos

 

Previo al proceso de modelado, el dataset fue sometido a un análisis exploratorio de datos, con el fin de identificar rangos operativos, tendencias generales y posibles valores atípicos. Posteriormente, se aplicaron técnicas de preprocesamiento, que incluyeron la depuración de datos inconsistentes y la normalización de las variables de entrada, garantizando estabilidad numérica durante el entrenamiento del modelo.

 

Los datos fueron reorganizados en secuencias temporales mediante el uso de ventanas deslizantes, lo que permitió capturar dependencias temporales relevantes para el enfoque de redes neuronales profundas.

 

Pipeline metodológico del algoritmo propuestos

 

Con el objetivo de garantizar la reproducibilidad del estudio, se definió un pipeline metodológico estructurado, que integra de manera secuencial todas las etapas seguidas desde la disponibilidad del dataset hasta la obtención de los resultados predictivos.

 

Para efectos de claridad conceptual, el pipeline se organiza en tres macro-etapas principales:

(i) gestión y preparación de datos,

(ii) modelado mediante redes neuronales profundas, y

(iii) evaluación e interpretación de resultados.

 

La Tabla 4 presenta el detalle de los procesos que componen cada una de estas macro-etapas, mientras que la Figura 1 muestra una representación esquemática y sintetizada del flujo metodológico adoptado en el estudio.

 

Tabla 4

Pipeline metodológico del estudio

Etapa

Proceso

Descripción

1

Gestión del dataset

Verificación de estructura y coherencia temporal

2

Análisis exploratorio

Estadística descriptiva y detección de atípicos

3

Preprocesamiento

Depuración y normalización de datos

4

Secuenciación temporal

Construcción de ventanas deslizantes

5

Definición del modelo

Selección de variables de entrada y salida

6

Modelado

Diseño del algoritmo de red neuronal profunda

7

Entrenamiento

Ajuste de parámetros del modelo

8

Validación

Evaluación mediante métricas estadísticas

9

Comparación

Análisis frente a métodos alternativos

10

Interpretación

Análisis de resultados predictivos

 

La Figura 1, muestra una representación esquemática y sintetizada del pipeline metodológico, organizado en tres macro-etapas: gestión de datos, modelado con redes neuronales profundas y evaluación de resultados.


 

Figura 1. Pipeline esquemático del proceso metodológico

 



Consideraciones éticas

 

La investigación no involucró participantes humanos ni seres vivos. El estudio se realizó exclusivamente sobre un sistema electromecánico instrumentado, cumpliendo las normas de seguridad del laboratorio y los principios de uso responsable de los datos experimentales.

 

RESULTADOS

Los resultados se presentan mediante un enfoque integral que combina análisis exploratorio, evaluación cuantitativa, validación del modelo y discusión crítica en relación con la literatura especializada. A diferencia de enfoques puramente descriptivos, esta sección incorpora análisis estadístico, evaluación de generalización y verificación explícita de posibles fenómenos de sobreajuste, con el fin de garantizar la validez científica de los resultados.

 

1. Validación y análisis del dataset

 

1.1.  Validación estructural del dataset

 

El conjunto de datos empleado en este estudio corresponde a una serie temporal multivariada compuesta por 1500 registros, obtenidos con un intervalo de muestreo constante de cinco minutos. Este dataset integra variables de distinta naturaleza —ambientales, eléctricas, mecánicas y térmicas— que, en conjunto, permiten describir el comportamiento operativo de un sistema electromecánico basado en motores de inducción.

 

Desde el punto de vista estructural, el conjunto de datos incluye 13 variables: una variable temporal (timestamp), once variables numéricas y una variable categórica (environmental_severity). Al revisar la integridad de los datos, no se identificaron valores nulos, inconsistencias ni registros atípicos que requirieran procesos adicionales de limpieza. Esto facilita el análisis posterior y aporta confianza en la calidad de la información utilizada para el entrenamiento del modelo.

 

Un aspecto que vale la pena mencionar es el comportamiento de la variable categórica environmental_severity, la cual mantiene un único valor (“Normal”) a lo largo de toda la serie temporal. Esto sugiere que los datos fueron recolectados bajo condiciones operativas estables y controladas. Si bien esta característica contribuye a la coherencia del dataset, también introduce una limitación: la ausencia de variabilidad en el entorno puede afectar la capacidad del modelo para generalizar en escenarios más diversos o con condiciones menos controladas. 


1.2.  Análisis estadístico descriptivo

 

Con el objetivo de caracterizar el comportamiento de las variables del sistema, se realizó un análisis estadístico descriptivo considerando medidas de tendencia central, dispersión y rango. Los resultados obtenidos se presentan en la Tabla 5.

 

Tabla 5

Estadística descriptiva de las variables numéricas del dataset experimental.

Variable

Media

Desv. Est.

Mín

P25

Mediana

P75

Máx

Temperatura ambiente (°C)

28,16

2,92

22,00

26,13

28,15

30,04

38,00

Humedad relativa (%)

78,08

5,87

59,88

74,19

77,99

82,02

95,00

Flujo de aire (m/s)

2,47

0,61

1,00

2,06

2,49

2,87

4,45

Carga del motor (%)

69,85

17,38

40,01

54,61

69,49

85,54

99,97

Voltaje de línea (V)

399,64

8,27

374,23

393,91

399,58

405,44

428,23

Corriente de línea (A)

10,51

3,04

2,00

8,16

10,48

12,90

19,84

Potencia activa (kW)

6,18

1,79

1,15

4,79

6,18

7,57

11,57

Velocidad de rotación (rpm)

1479,81

14,36

1421,16

1470,19

1480,00

1489,45

1527,37

Vibración (mm/s)

2,49

0,78

0,50

1,97

2,47

3,01

5,20

Temperatura del estator (°C)

55,17

7,06

37,21

49,75

55,13

60,82

73,68

Temperatura del rodamiento (°C)

51,14

7,11

31,08

45,69

51,04

56,58

69,81

 

Como se observa en la Tabla 5, las variables eléctricas presentan un comportamiento altamente estable, con valores de voltaje cercanos a 400 V y una variabilidad moderada en corriente y potencia activa. Este comportamiento es consistente con la operación de un sistema industrial bajo condiciones nominales. La velocidad de rotación del motor se mantiene alrededor de 1480 rpm, lo cual concuerda con el régimen esperado de un motor de inducción trifásico en condiciones de carga constante. Por su parte, las variables térmicas (temperatura del estator y del rodamiento) presentan una dispersión moderada, reflejando la respuesta térmica del sistema ante variaciones en la carga. En relación con la vibración, los valores registrados muestran una baja dispersión relativa, lo que sugiere la ausencia de eventos anómalos o fallas mecánicas significativas durante el periodo de estudio. Este comportamiento indica que el dataset representa predominantemente condiciones de operación normal, lo cual debe considerarse en la interpretación de los resultados del modelo.

 

1.3.  Relación entre variables y preprocesamiento

 

Para analizar las relaciones entre las variables del sistema, se calculó la matriz de correlación de Pearson, cuyos resultados se presentan en la Figura 2.


 

Figura 2. Matriz de correlación de las variables numéricas del dataset experimental.

 


El análisis de la Figura 2 revela la existencia de relaciones altamente significativas entre variables eléctricas y operativas. En particular, se observa una fuerte correlación entre la corriente de línea y la potencia activa, así como entre la carga del motor y dichas variables, lo cual es consistente con los principios físicos que gobiernan el comportamiento de sistemas electromecánicos.

 

Asimismo, se identifica una alta correlación entre la temperatura del estator y la temperatura del rodamiento, lo que evidencia el acoplamiento térmico entre los componentes del sistema. Este comportamiento es esperable debido a la transferencia de calor generada durante la operación del motor.

 

En contraste, la variable de vibración presenta correlaciones bajas con la mayoría de las variables analizadas, lo que sugiere una dinámica parcialmente independiente. Este hallazgo resulta particularmente relevante, ya que permite explicar el comportamiento del modelo predictivo en etapas posteriores. Específicamente, la baja correlación de la vibración con otras variables limita la capacidad del modelo para capturar sus variaciones a partir de dependencias multivariadas, favoreciendo una tendencia a la suavización en las predicciones.

 

2. Construcción y entrenamiento del modelo

 

2.1 Preparación de los datos para el modelado

 

Los datos fueron ordenados temporalmente según la variable timestamp para preservar la coherencia secuencial. Se definieron ocho variables de entrada (features) y tres variables objetivo (targets): temperatura del estator, temperatura del rodamiento y vibración RMS, conforme a la Tabla 3. El dataset fue dividido mediante un esquema temporal en entrenamiento (70%), validación (15%) y prueba (15%), evitando fuga de información. Posteriormente, se aplicó un escalado Min-Max ajustado únicamente con el conjunto de entrenamiento y luego aplicado a los demás subconjuntos. Finalmente, los datos fueron reorganizados en secuencias mediante ventanas deslizantes con un tamaño de 12 pasos (60 min) y un horizonte de 1 paso (5 min), permitiendo capturar dependencias temporales relevantes.

 

2.2 Configuración de la arquitectura LSTM multisalida

 

Para modelar la dinámica temporal multivariada del sistema, se implementó una red neuronal recurrente tipo LSTM multisalida orientada a regresión. La arquitectura estuvo compuesta por dos capas LSTM consecutivas de 64 y 32 unidades, respectivamente, complementadas con capas de regularización Dropout con una tasa de 0,10, con el fin de mejorar la capacidad de generalización del modelo y reducir el riesgo de sobreajuste. Posteriormente, se incorporó una capa densa intermedia de 32 neuronas con función de activación ReLU, seguida de una capa de salida lineal de tres neuronas, correspondiente a la predicción simultánea de la temperatura del estator, la temperatura del rodamiento y la vibración RMS. El modelo fue entrenado utilizando el optimizador Adam con una tasa de aprendizaje de 0,001, empleando como función de pérdida la función Huber y como métrica de evaluación el error absoluto medio (MAE). La configuración final del modelo y sus principales hiperparámetros se resumen en la Tabla 6.

 

Tabla 6

Hiperparámetros y configuración del modelo de redes neuronales profundas

Parámetro

Valor

Tipo de modelo

LSTM multisalida (regresión)

Tamaño de ventana (lookback)

12 pasos (≈ 60 min)

Horizonte de predicción

1 paso (≈ 5 min)

Entradas (features)

8 variables

Salidas (targets)

3 variables

Capa LSTM 1

64 unidades, return_sequences=True

Capa LSTM 2

32 unidades, return_sequences=False

Regularización

Dropout = 0,10

Capa densa intermedia

Dense(32), activación ReLU

Capa de salida

Dense(3), activación lineal

Función de pérdida

Huber (δ = 1.0)

Optimizador

Adam

Learning rate

0,001

Métrica reportada

MAE

Parámetros entrenables totales

32 259

La implementación se realizó en TensorFlow 2.19.0.

 

2.3 Entrenamiento y validación del modelo

 

El modelo fue entrenado durante un máximo de 100 épocas, con un tamaño de lote de 32 muestras, utilizando Early Stopping con una paciencia de 10 épocas y monitoreo del error de validación. El proceso de entrenamiento finalizó en la época 15, alcanzando su mejor desempeño en la época 6. En este punto, el modelo obtuvo un MSE de 0.0391 en entrenamiento y 0.0396 en validación, así como valores de MAE de 0.1634 y 0.1625, respectivamente, como se muestra en la Tabla 7.

 

Tabla 7

Resultados finales del entrenamiento del modelo LSTM

Métrica

Valor

Épocas totales

15

Mejor época

6

MSE entrenamiento

0.0391

MSE validación

0.0396

MAE entrenamiento

0.1634

MAE validación

0.1625

 

La evolución del proceso de entrenamiento puede observarse en las curvas de error presentadas en la Figura 3 (MSE) y la Figura 4 (MAE), donde se evidencia una convergencia estable y sin divergencias significativas entre entrenamiento y validación.

 

Figura 3. Curva de entrenamiento y validación del error cuadrático medio (MSE).

 


Figura 4.
Curva de entrenamiento y validación del error absoluto medio (MAE).

 

La similitud entre las métricas de entrenamiento y validación indica una adecuada capacidad de generalización y ausencia de sobreajuste clásico. No obstante, el modelo presenta una mayor capacidad para capturar la tendencia global del sistema que las fluctuaciones de alta frecuencia, aspecto que será analizado en las secciones posteriores.

 

3. Validación del modelo en el conjunto de prueba

 

3.1 Evaluación del desempeño en el conjunto de prueba

 

El desempeño del modelo fue evaluado utilizando el conjunto de prueba, considerando como métricas el error absoluto medio (MAE) y la raíz del error cuadrático medio (RMSE). Los resultados obtenidos se presentan en la Tabla 8.

 

Tabla 8

Métricas de desempeño del modelo en el conjunto de prueba.

Variable objetivo

MAE

RMSE

Temperatura del estator (°C)

5.6924

6.8681

Temperatura del rodamiento (°C)

5.7924

7.0254

Vibración RMS (mm/s)

0.6626

0.8275

 

Los valores obtenidos evidencian un comportamiento consistente del modelo en las tres variables objetivo. En particular, se obtuvo un MAE de 5.6924 °C y un RMSE de 6.8681 °C para la temperatura del estator, así como un MAE de 5.7924 °C y un RMSE de 7.0254 °C para la temperatura del rodamiento. En el caso de la vibración RMS, el modelo alcanzó un MAE de 0.6626 mm/s y un RMSE de 0.8275 mm/s, reflejando una adecuada capacidad predictiva en términos generales.

 

3.2 Comparación entre valores reales y predichos

 

Para analizar el comportamiento temporal del modelo, se compararon los valores reales y predichos en el conjunto de prueba. Los resultados se muestran en las Figuras 5, 6 y 7. En la Figura 5, correspondiente a la temperatura del estator, se observa que el modelo reproduce adecuadamente la tendencia global de la señal, aunque presenta una ligera suavización en los cambios abruptos.

 


Figura 5. Valores reales vs predichos de la Temperatura del estator.

 


En la Figura 6, asociada a la temperatura del rodamiento, se identifica un comportamiento similar, donde el modelo mantiene una buena aproximación general, pero con desviaciones en los picos locales.


 

Figura 6. Valores reales vs predichos de la Temperatura del rodamiento.

 


Por su parte, la Figura 7, correspondiente a la vibración RMS, muestra una mayor dispersión entre valores reales y predichos. Este comportamiento se relaciona con la menor correlación de esta variable respecto a las demás, dificultando su modelado preciso.


 

Figura 7. Valores reales vs predichos de la Vibración RMS del motor.

 


En conjunto, los resultados evidencian que el modelo captura adecuadamente la dinámica global del sistema, aunque presenta limitaciones en la representación de fluctuaciones de alta frecuencia.

 

Este comportamiento confirma la ausencia de sobreajuste clásico, pero evidencia un fenómeno de suavización asociado a la priorización de la tendencia global sobre fluctuaciones de alta frecuencia.

 

4. Análisis estadístico del error

 

4.1 Análisis de residuos

 

Con el objetivo de evaluar la calidad de las predicciones, se analizó la distribución de los residuos definidos como la diferencia entre los valores reales y los valores predichos. Los resultados se presentan en la Tabla 9.

 

Tabla 9

Estadísticos descriptivos de los residuos en el conjunto de prueba

Variable

Media

Desv. estándar

Mediana

P25

P75

Mín

Máx

Estator (°C)

0.7466

6.8435

0.0752

-4.8804

6.2513

-14.3530

16.0838

Rodamiento (°C)

1.1574

6.9457

0.8678

-4.7102

6.3183

-14.4649

16.4715

Vibración (mm/s)

0.1342

0.8184

0.1185

-0.4061

0.7431

-1.9659

2.1933

 

Los valores medios de los residuos son relativamente cercanos a cero, lo que indica una ausencia de sesgo sistemático significativo en el modelo. Sin embargo, se observa una ligera tendencia positiva en las variables térmicas, especialmente en la temperatura del rodamiento, lo que sugiere una leve subestimación de los valores reales. La desviación estándar de los residuos es mayor en las variables térmicas (≈ 6.8–6.9 °C) en comparación con la vibración (≈ 0.82 mm/s), reflejando una mayor variabilidad del error en las variables asociadas a procesos térmicos.

 

4.2 Pruebas de normalidad de los residuos

 

Para evaluar la distribución de los residuos, se aplicaron las pruebas de Shapiro–Wilk y Kolmogorov–Smirnov, cuyos resultados se resumen en la Tabla 10. Estas pruebas permiten verificar si los errores se aproximan a una distribución normal, condición relevante para el análisis estadístico del desempeño del modelo.

 

Tabla 10

Resultados de las pruebas de normalidad de los residuos

Variable

Shapiro–Wilk p-value

Kolmogorov–Smirnov p-value

Estator (°C)

0.0097

0.5339

Rodamiento (°C)

0.0214

0.5358

Vibración (mm/s)

0.6691

0.9301

 

Los resultados de la prueba de Shapiro-Wilk indican que las variables térmicas no siguen una distribución normal (p < 0.05), mientras que la variable de vibración sí presenta comportamiento aproximadamente normal (p > 0.05). Por otro lado, la prueba de Kolmogorov-Smirnov no evidencia desviaciones significativas respecto a la normalidad en ninguna de las variables, lo cual sugiere que la distribución de los residuos, aunque no estrictamente normal, es estadísticamente aceptable para fines de modelado.

 

4.3 Intervalos de confianza de las métricas de error

 

Con el objetivo de cuantificar la incertidumbre asociada a las métricas de desempeño, se estimaron intervalos de confianza al 95 % para el MAE y el RMSE mediante remuestreo bootstrap. La Tabla 11 presenta los valores medios y sus respectivos intervalos.

 

Tabla 11

Intervalos de confianza (95 %) de las métricas de error en el conjunto de prueba

Variable

MAE

IC95% MAE

RMSE

IC95% RMSE

Estator (°C)

5.6880

[5.1552–6.2248]

6.8568

[6.3416–7.4004]

Rodamiento (°C)

5.7933

[5.2679–6.3036]

7.0203

[6.4691–7.5288]

Vibración (mm/s)

0.6626

[0.5987–0.7312]

0.8274

[0.7527–0.9040]

 

Los intervalos obtenidos muestran una baja variabilidad en las métricas, lo que indica estabilidad en el desempeño del modelo. En particular, los rangos de RMSE para las variables térmicas se mantienen dentro de intervalos estrechos, evidenciando consistencia en las predicciones.

 

4.4 Validación temporal cruzada

 

Con el fin de evaluar la estabilidad del modelo bajo diferentes segmentos temporales, se aplicó un esquema de validación cruzada basado en TimeSeriesSplit. Este enfoque permite preservar la dependencia temporal de los datos y evitar fuga de información. Los resultados muestran valores de RMSE comprendidos entre 5.00 °C y 5.10 °C, con MAE entre 4.17 °C y 4.28 °C, evidenciando una consistencia del desempeño del modelo en distintos subconjuntos temporales. Estos resultados son coherentes con la evaluación sobre el conjunto de prueba independiente, lo que refuerza la capacidad de generalización del modelo.

 

Tabla 12

Validación temporal (TimeSeriesSplit)

Fold

MAE

RMSE

Train

Test

1

4.2861

5.0985

372

372

2

4.2086

5.0032

744

372

3

4.1744

5.0557

1116

372

 

5. Comparación con métodos alternativos

 

5.1 Comparación cuantitativa con modelos tradicionales

 

Con el objetivo de evaluar el desempeño del modelo propuesto, se realizó una comparación con modelos tradicionales de regresión, específicamente Random Forest y XGBoost. Los resultados obtenidos se presentan en la Tabla 13.

 

Tabla 13

Comparación del desempeño del modelo LSTM multisalida con métodos alternativos (ARIMA robusto, Random Forest y XGBoost)

Modelo

Variable

RMSE

MAE

Random Forest

Estator (°C)

6.7736

5.6502

Random Forest

Rodamiento (°C)

6.9017

5.7303

Random Forest

Vibración (mm/s)

0.8316

0.6587

XGBoost

Estator (°C)

6.9771

5.8021

XGBoost

Rodamiento (°C)

7.0274

5.7610

XGBoost

Vibración (mm/s)

0.8815

0.6920

LSTM

Estator (°C)

6.8681

5.6924

LSTM

Rodamiento (°C)

7.0254

5.7924

LSTM

Vibración (mm/s)

0.8275

0.6626

(Métricas RMSE y MAE calculadas sobre el conjunto de prueba; valores en unidades reales de cada variable)

 

El modelo Random Forest mostró el mejor desempeño en las variables térmicas, alcanzando un RMSE de 6.7736 °C para la temperatura del estator y 6.9017 °C para la temperatura del rodamiento, superando ligeramente al modelo LSTM. Por su parte, el modelo XGBoost presentó un desempeño inferior en comparación con los otros enfoques evaluados.

 

El modelo LSTM multisalida obtuvo resultados competitivos, con valores de RMSE de 6.8681 °C para el estator y 7.0254 °C para el rodamiento. En el caso de la vibración RMS, el modelo LSTM presentó el mejor desempeño relativo (RMSE = 0.8275 mm/s), evidenciando una mejor capacidad para modelar esta variable en comparación con los modelos basados en árboles.

 

En términos generales, los resultados evidencian que el modelo LSTM multisalida presenta un desempeño competitivo frente a modelos tradicionales, aunque no logra superar consistentemente a Random Forest en las variables térmicas. Este comportamiento sugiere que, en escenarios con baja variabilidad y alta correlación entre variables, los modelos basados en árboles pueden capturar de manera más eficiente las relaciones estáticas del sistema. No obstante, el modelo LSTM mantiene la ventaja de modelar dependencias temporales, lo cual resulta relevante para aplicaciones donde la dinámica del sistema es un factor crítico.

 


6. Análisis de resultados y validación experimental

 

6.1 Importancia de variables en la predicción de la temperatura del estator

 

Con el objetivo de identificar las variables que influyen significativamente en la predicción de la temperatura del estator, se aplicó un análisis de importancia por permutación sobre el conjunto de prueba. Este método evalúa la contribución individual de cada variable midiendo el incremento del error cuando su información es aleatorizada, manteniendo constantes las demás variables. El desempeño base del modelo alcanzó un RMSE de aproximadamente 6.86 °C y un MAE de 5.69 °C, valores que se tomaron como referencia. Los resultados del análisis se presentan en la Tabla 14.

 

Tabla 14

Importancia por permutación de las variables en la predicción de la temperatura del estator

Variable

Importancia media

Desv. estándar

Potencia activa

0.000052

0.000058

Carga del motor

0.000033

0.000054

Velocidad de rotación

0.000026

0.000068

Flujo de aire

0.000023

0.000057

Corriente

0.000013

0.000054

Voltaje

-0.000010

0.000071

Humedad

-0.000022

0.000088

Temperatura ambiente

-0.000035

0.000077

El incremento medio del error respecto al modelo base; valores positivos indican mayor contribución.

 

Se observa que la carga del motor y la potencia activa constituyen las variables con mayor contribución en la predicción, evidenciando su papel dominante en la dinámica térmica del sistema. En contraste, variables como el voltaje, la corriente y las condiciones ambientales presentan una influencia limitada o redundante.

 

6.2 Influencia de la señal de vibración en la precisión del modelo

 

Para evaluar el impacto de la señal de vibración en el desempeño del modelo, se compararon dos configuraciones: una sin incluir la variable de vibración y otra incorporándola dentro del conjunto de entrada. Los resultados obtenidos se presentan en la Tabla 15. Se observa que la inclusión de la vibración reduce ligeramente el RMSE de 6.9669 a 6.8520 y el MAE de 5.7110 a 5.6844.

 

Tabla 15

Comparación con y sin vibración

Configuración

RMSE

MAE

Sin vibración

6.9669

5.7110

Con vibración

6.8520

5.6844

 

No obstante, la magnitud de esta mejora es reducida, lo que sugiere que la vibración no constituye una variable dominante en la predicción de la temperatura del estator bajo las condiciones analizadas. Este comportamiento es consistente con el análisis de correlación previamente presentado.

 

6.3 Prueba de Hipótesis

 

H₁: Una arquitectura LSTM multivariada que incorpore todas las variables registradas reduce el RMSE de la predicción de la temperatura del estator en al menos un 25 % respecto a un modelo base. Para su evaluación, se comparó el desempeño del modelo LSTM multivariado frente a un modelo base, utilizando como métricas el RMSE y el MAE, además de estimar intervalos de confianza mediante bootstrap. Los resultados se presentan en la Tabla 16.

 

Tabla 16

Resultados de la prueba de hipótesis H₁: comparación entre modelo base y LSTM multivariado

Modelo

RMSE (°C)

MAE (°C)

Modelo base univariante (ARIMA/Naive)

6.8262

5.6777

LSTM multivariado (con vibración)

6.8791

5.6737

Reducción relativa RMSE (%)

−0.7759

IC95% reducción RMSE – límite inferior (%)

−2.2215

IC95% reducción RMSE – límite superior (%)

0.6429

 

El modelo base alcanzó un RMSE de 6.8262 °C, mientras que el modelo LSTM obtuvo un RMSE de 6.8791 °C, lo que corresponde a una reducción relativa de −0.7759 %. El intervalo de confianza al 95 % incluye el valor cero, lo que indica que la diferencia no es estadísticamente significativa. En consecuencia, la hipótesis planteada es rechazada, ya que el modelo LSTM multivariado no logra una mejora sustancial respecto al modelo base bajo las condiciones analizadas.

 

DISCUSIÓN

Los resultados que obtuvimos en este estudio nos dan una visión bastante completa del desempeño del modelo LSTM multisalida cuando se trata de predecir variables críticas en motores de inducción trifásicos. Hemos podido evaluar no solo qué tan bien funciona el modelo, sino también dónde muestra sus limitaciones al compararlo con otros enfoques.

 

Si miramos el panorama general, el modelo LSTM tuvo un rendimiento que podríamos calificar como competitivo. Los valores de error se mantuvieron bastante consistentes tanto en el conjunto de prueba como en la validación temporal cruzada, lo cual es una buena señal de que el modelo tiene capacidad para generalizar. Esto va en línea con lo que se ha venido reportando en la literatura científica, donde las arquitecturas recurrentes han probado ser bastante efectivas para capturar dependencias temporales en sistemas industriales que son, por naturaleza, complejos (Deng et al., 2021; H. Wang et al., 2023). Ahora bien, hay algo interesante que notamos: el modelo no logra superar de manera consistente a algoritmos como Random Forest, particularmente cuando hablamos de predecir variables térmicas.

 

Esta observación resulta llamativa porque coincide con lo que otros estudios recientes han encontrado. Qiu et al. (2023) y Tama et al. (2023) han señalado que modelos como Random Forest pueden funcionar mejor en situaciones donde las variables están muy correlacionadas y no presentan mucha variabilidad. La razón tiene que ver con cómo estos algoritmos capturan relaciones no lineales de forma bastante eficiente, sin necesidad de modelar explícitamente la estructura temporal como lo hacen las LSTM. Lo que esto nos dice es que la ventaja teórica que tienen las redes LSTM para modelar el tiempo no siempre se traduce en una reducción significativa del error, sobre todo cuando trabajamos con datos que vienen de entornos controlados.

 

Uno de los descubrimientos más interesantes fue la tendencia del modelo LSTM a producir predicciones que están, digamos, suavizadas. Esto se nota claramente cuando comparamos los valores reales con los que predice el modelo. No es algo nuevo, en realidad; ya se había reportado antes. Zhang et al. (2020) mencionan que las redes recurrentes suelen enfocarse más en seguir la tendencia general de la señal y, como consecuencia, pierden capacidad para capturar esas fluctuaciones rápidas de alta frecuencia. En nuestro caso, creemos que esta limitación tiene dos causas: por un lado, la arquitectura misma del modelo, y por otro, la naturaleza del dataset que usamos, que tiene una variabilidad más bien limitada.

 

El análisis de importancia por permutación nos permitió identificar algo que, pensándolo bien, tiene mucho sentido desde el punto de vista físico. Las variables eléctricas y operativas, especialmente la potencia activa y la carga del motor, son las que más influyen en la predicción de la temperatura del estator. Esto es coherente con lo que sabemos sobre cómo funcionan los motores eléctricos: el calor se genera principalmente por las pérdidas eléctricas y está directamente relacionado con el nivel de carga al que opera el motor (Lei et al., 2020). En contraste, las variables ambientales tuvieron una contribución bastante marginal, lo que nos hace pensar que quizás hay cierta redundancia en el dataset o simplemente no variaban lo suficiente.

 

Cuando analizamos la variable de vibración, nos encontramos con que su inclusión mejora un poco el desempeño del modelo, aunque el impacto no es tan grande como esperábamos. Una posible explicación es que esta variable tiene una correlación menor con las variables térmicas. Neupane & Seok (2020) han comentado algo similar, destacando que las señales de vibración pueden necesitar enfoques específicos para su modelado porque son altamente no lineales y muy sensibles a factores externos.

 

La prueba de hipótesis que planteamos nos ayudó a evaluar de forma rigurosa qué tanto aportaba realmente el modelo LSTM multivariado comparado con un modelo más simple. Los resultados fueron, en cierto modo, sorprendentes: la reducción del error no resultó ser estadísticamente significativa, lo que nos llevó a rechazar la hipótesis inicial. Este hallazgo es importante porque nos recuerda que un modelo más complejo no necesariamente va a funcionar mejor. Realmente refuerza la idea de que debemos elegir arquitecturas que se ajusten bien a las características de nuestros datos.

 

Cuando examinamos los residuos desde un punto de vista estadístico, encontramos que el modelo no muestra sesgos sistemáticos importantes, lo cual es positivo. Sin embargo, las distribuciones de error en las variables térmicas no siguen de manera estricta una distribución normal. Esto no es del todo inesperado si consideramos la naturaleza no lineal de los sistemas electromecánicos y el ruido que inevitablemente está presente en cualquier proceso de medición (Allal & Khechekhouche, 2022). Aun así, los intervalos de confianza que calculamos usando bootstrap muestran poca variabilidad en las métricas, lo que nos da confianza en que el modelo es estable.

 

Si juntamos todas estas piezas, lo que vemos es que los modelos de aprendizaje profundo como las LSTM son herramientas muy potentes para analizar series temporales, eso está claro. Pero su desempeño real depende mucho de la calidad de los datos con los que trabajamos, de cuánta variabilidad tienen y de qué tan complejos son. En escenarios donde las condiciones están bastante controladas y las dinámicas son relativamente estables, los modelos más tradicionales pueden dar resultados que son comparables o incluso mejores.

 

Para cerrar, creemos que estos hallazgos abren puertas interesantes para futuras investigaciones. Una dirección prometedora sería desarrollar modelos híbridos que combinen la capacidad de las redes LSTM para modelar el tiempo con enfoques probabilísticos o basados en árboles de decisión. También vale la pena considerar la incorporación de variables adicionales que nos ayuden a capturar mejor esas fluctuaciones transitorias que el sistema presenta. Además, sería útil explorar arquitecturas más avanzadas, como los modelos basados en mecanismos de atención o redes neuronales que integren componentes físicos de manera explícita. Todo esto con el objetivo de mejorar no solo la precisión de las predicciones, sino también su interpretabilidad cuando las aplicamos en contextos industriales reales.

 

CONCLUSIONES

En este estudio se desarrolló un modelo LSTM multisalida con el objetivo de predecir, de forma conjunta, variables térmicas y vibracionales en motores de inducción trifásicos. A partir de los datos experimentales utilizados, se pudo comprobar que el modelo reproduce de manera adecuada el comportamiento general del sistema, manteniendo resultados estables tanto en el conjunto de prueba como en los esquemas de validación aplicados.

 

En relación con el desempeño, los valores obtenidos (RMSE entre 6.8 y 7.0 °C en temperatura y alrededor de 0.83 mm/s en vibración) muestran que el modelo funciona de manera consistente. Sin embargo, al comparar estos resultados con los obtenidos mediante Random Forest, se observa que este último logra un ajuste ligeramente mejor en variables térmicas. Esto sugiere —y es importante destacarlo— que aumentar la complejidad del modelo no siempre se traduce en una mejora directa en la precisión.

 

Al analizar las predicciones (especialmente en las figuras de resultados), se nota un aspecto interesante: el modelo tiende a suavizar la señal. Es decir, sigue bien la tendencia general, pero pierde detalle en cambios rápidos. Esto no es un error como tal, sino más bien una característica del enfoque LSTM y también del tipo de datos utilizados. En consecuencia, el modelo resulta útil para monitoreo general, aunque no es el más adecuado cuando se requiere capturar eventos transitorios.

 

Otro punto relevante tiene que ver con las variables. En este caso, la potencia activa y la carga del motor aparecen como los factores más influyentes en la predicción de temperatura, lo cual coincide con el comportamiento físico esperado del sistema. Por el contrario, las variables ambientales aportan menos información, y la vibración, aunque útil, tiene un impacto más bien complementario.

 

Respecto a la hipótesis planteada, los resultados muestran que el modelo LSTM no logra una mejora significativa frente a un modelo base. Este resultado puede parecer contraintuitivo al inicio, pero en realidad refuerza una idea clave: no siempre el modelo más complejo es el más adecuado, especialmente cuando los datos no presentan suficiente variabilidad.

 

Finalmente, el análisis de residuos y los intervalos de confianza obtenidos mediante bootstrap permiten afirmar que el modelo es estable, aunque las distribuciones no son completamente normales, algo esperable considerando la naturaleza no lineal del sistema.

 

A partir de estos resultados, se abren varias líneas de trabajo interesantes. Por ejemplo, combinar modelos (híbridos) podría aprovechar lo mejor de cada enfoque. También sería útil incorporar nuevas variables o explorar arquitecturas más avanzadas que permitan capturar mejor los cambios rápidos en el sistema.

 

CONTRIBUCIÓN DE LOS AUTORES

Geovanna Shirley Agila Aguinda se encargó de: definición del problema de investigación y concepción del estudio; diseño de la metodología y estructuración del enfoque experimental; implementación del pipeline de análisis y procesamiento del conjunto de datos; análisis e interpretación de los resultados obtenidos; y redacción del manuscrito.

 

Corrales Bonilla Johnatan Israel se encargó de: orientación científica y metodológica durante el desarrollo del estudio; supervisión del diseño experimental y validación de la metodología aplicada; revisión de la implementación de las técnicas de aprendizaje profundo; validación de los resultados obtenidos; y revisión crítica del manuscrito, aportando observaciones para mejorar la coherencia, el rigor metodológico y la calidad académica.

 

REFERENCIAS BIBLIOGRÁFICAS

Allal, A., & Khechekhouche, A. (2022). Diagnosis of Induction Motor Faults Using the Motor Current Normalized Residual Harmonic Analysis Method. International Journal of Electrical Power & Energy Systems, 141, 108219. https://doi.org/10.1016/j.ijepes.2022.108219

Cen, J., Yang, Z., Liu, X., Xiong, J., & Chen, H. (2022). A Review of Data-Driven Machinery Fault Diagnosis Using Machine Learning Algorithms. Journal of Vibration Engineering & Technologies, 10, 2481-2507. https://doi.org/10.1007/s42417-022-00498-9

Deng, F., Bi, Y., Liu, Y., & Yang, S. (2021). Deep-Learning-Based Remaining Useful Life Prediction Based on a Multi-Scale Dilated Convolution Network. Mathematics, 9(23), 3035. https://doi.org/10.3390/math9233035

Gangsar, P., & Tiwari, R. (2020). Signal Based Condition Monitoring Techniques for Fault Detection and Diagnosis of Induction Motors: A State-of-the-Art Review. Mechanical Systems and Signal Processing, 144, 106908. https://doi.org/10.1016/j.ymssp.2020.106908

Hughes, R., Haidinger, T., Pei, X., & Vagg, C. (2023). Real-Time Temperature Prediction of Electric Machines Using Machine Learning with Physically Informed Features. Energy and AI, 14, 100288. https://doi.org/10.1016/j.egyai.2023.100288

Jiao, J., Zhao, M., Lin, J., & Liang, K. (2020). A Comprehensive Review on Convolutional Neural Network in Machine Fault Diagnosis. Neurocomputing, 417, 36-63. https://doi.org/10.1016/j.neucom.2020.07.088

Kirchgässner, W., Wallscheid, O., & Böcker, J. (2021). Estimating Electric Motor Temperatures With Deep Residual Machine Learning. IEEE Transactions on Power Electronics, 36(7), 7480-7488. https://doi.org/10.1109/TPEL.2020.3045596

Lei, Y., Yang, B., Jiang, X., Jia, F., Li, N., & Nandi, A. K. (2020). Applications of Machine Learning to Machine Fault Diagnosis: A Review and Roadmap. Mechanical Systems and Signal Processing, 138, 106587. https://doi.org/10.1016/j.ymssp.2019.106587

Neupane, D., & Seok, J. (2020). Bearing Fault Detection and Diagnosis Using Case Western Reserve University Dataset with Deep Learning Approaches: A Review. IEEE Access, 8, 93155-93178. https://doi.org/10.1109/ACCESS.2020.2990528

Nikfar, M., Bitencourt, J., & Mykoniatis, K. (2022). A Two-Phase Machine Learning Approach for Predictive Maintenance of Low Voltage Industrial Motors. Procedia Computer Science, 200, 111-120. https://doi.org/10.1016/j.procs.2022.01.210

Qiu, S., Cui, X., Ping, Z., Shan, N., Li, Z., Bao, X., & Xu, X. (2023). Deep Learning Techniques in Intelligent Fault Diagnosis and Prognosis for Industrial Systems: A Review. Sensors, 23(3), 1305. https://doi.org/10.3390/s23031305

Singh, V., Gangsar, P., Porwal, R., & Atulkar, A. (2023). Artificial Intelligence Application in Fault Diagnostics of Rotating Industrial Machines: A State-of-the-Art Review. Journal of Intelligent Manufacturing, 34(3), 931-960. https://doi.org/10.1007/s10845-021-01861-5

Tama, B. A., Vania, M., Lee, S., & Lim, S. (2023). Recent Advances in the Application of Deep Learning for Fault Diagnosis of Rotating Machinery Using Vibration Signals. Artificial Intelligence Review, 56, 4667-4709. https://doi.org/10.1007/s10462-022-10293-3

Theissler, A., Pérez-Velázquez, J., Kettelgerdes, M., & Elger, G. (2021). Predictive Maintenance Enabled by Machine Learning: Use Cases and Challenges in the Automotive Industry. Reliability Engineering & System Safety, 215, 107864. https://doi.org/10.1016/j.ress.2021.107864

Wang, H., Zheng, J., & Xiang, J. (2023). Online Bearing Fault Diagnosis Using Numerical Simulation Models and Machine Learning Classifications. Reliability Engineering & System Safety, 234, 109142. https://doi.org/10.1016/j.ress.2023.109142

Wang, L., Qiu, F., & Li, Z. (2024). Short and Long Term Memory Method for Predicting the Temperature of Motor Stator Based on Harris Eagle Algorithm Optimization. Case Studies in Thermal Engineering, 59, 104454. https://doi.org/10.1016/j.csite.2024.104454

Xu, Z., & Saleh, J. H. (2021). Machine Learning for Reliability Engineering and Safety Applications: Review of Current Status and Future Opportunities. Reliability Engineering & System Safety, 211, 107530. https://doi.org/10.1016/j.ress.2021.107530

Zhang, S., Zhang, S., Wang, B., & Habetler, T. G. (2020). Deep Learning Algorithms for Bearing Fault Diagnostics—A Comprehensive Review. IEEE Access, 8, 29857-29881. https://doi.org/10.1109/ACCESS.2020.2972859

Zhao, Z., Li, T., Wu, J., Sun, C., Wang, S., Yan, R., & Chen, X. (2020). Deep Learning Algorithms for Rotating Machinery Intelligent Diagnosis: An Open Source Benchmark Study. ISA Transactions, 107, 224-255. https://doi.org/10.1016/j.isatra.2020.08.010

Zhu, Z., Lei, Y., Qi, G., Chai, Y., Mazur, N., An, Y., & Huang, X. (2023). A Review of the Application of Deep Learning in Intelligent Fault Diagnosis of Rotating Machinery. Measurement, 206, 112346. https://doi.org/10.1016/j.measurement.2022.112346