Artículo Académico / Academic Paper
Recibido: 30-04-2021, Aprobado tras revisión: 23-07-2021
Forma sugerida de citación: Chiza, L.; Cepeda, J. (2021). Predicción del Margen de Estabilidad de Corredores de Transmisión
Aplicando Criterios de Minería de datos y Algoritmos de Machine Learning”. Revista Técnica “energía”. No. 18, Issue I,
Pp. 37-47
ISSN On-line: 2602-8492 - ISSN Impreso: 1390-5074
© 2021 Operador Nacional de Electricidad, CENACE
Transmission Corridor Stability Margin Prediction Applying Data Mining
Criteria and Machine Learning Algorithms
Predicción del Margen de Estabilidad de Corredores de Transmisión
Aplicando Criterios de Minería de datos y Algoritmos de Machine Learning
L.L. Chiza
1
J.C. Cepeda
2
1
Escuela Politécnica Nacional, Quito, Ecuador
E-mail: luis.chiza@epn.edu.ec
2
Operador Nacional de Electricidad -CENACE, Quito, Ecuador
E-mail: cepedajaime@ieee.org
Abstract
Voltage Stability refers to the ability of the system to
maintain acceptable voltages in all busbars,
considering normal operating conditions and after
being subjected to a disturbance. The present work
predicts the critical parameters of the system based
on the P-V Curve determined by the Thévenin's
Equivalent in a transmission corridor. A dataset is
obtained via Monte Carlo simulations performed on
the 39-bus test system model in PowerFactory
controlled by Python. Given an operating condition,
N simulations are performed to establish different
system operating conditions under variations in the
values of each of the system loads. From the obtained
dataset, Data Mining is applied to train regression
models based on artificial neural networks and
support vector machines to predict the maximum
power transfer condition. Afterwards, the MSE
(Mean-squared error) is used to analyze the
performance of the regression models. The proposed
methodology can be applied in control centers to
predict the maximum transfer power point of a
congested transmission corridor. This prediction
offers early warning signs in operations and might
allow structuring criteria for security constrained
dispatch in planning.
Resumen
La Estabilidad de Voltaje se refiere a la habilidad del
sistema de mantener voltajes aceptables en todas las
barras, considerando condiciones normales de
operación y posterior a ser sometido a una
perturbación. El presente trabajo predice los
parámetros críticos del sistema basados en la Curva
P-V determinada mediante el cálculo del
Equivalente de Thévenin en un corredor de
transmisión. Se obtiene un conjunto de datos
(dataset) mediante simulaciones de Montecarlo
efectuadas en el sistema de prueba de 39 barras en
PowerFactory, controlado mediante Python. Dada
una condición operativa se efectúan N simulaciones
que permiten establecer distintas condiciones
operativas del sistema ante variaciones de los valores
de cada una de las cargas del sistema. A partir del
dataset, se aplica Minería de Datos para entrenar
modelos de regresión basados en redes neuronales
artificiales y máquinas de soporte vectorial que
predicen la condición de máxima transferencia de
potencia. Posteriormente, el MSE (Mean-squared
error) es usado para analizar el desempeño de los
modelos de regresión. La metodología propuesta
puede ser aplicada en centros de control para
predecir el punto de máxima transferencia de
potencia de un corredor de transmisión
congestionado. Esta predicción brinda señales de
alerta temprana en la operación, así como permite
estructurar criterios de despacho con restricciones
de seguridad en la planificación.
Index terms Montecarlo, voltage stability, feature
extraction, PCA, machine learning, ANN, SVM,
gridsearch
Palabras clave Montecarlo, estabilidad de voltaje,
extracción de características, PCA, máquina de
aprendizaje, ANN, SVM, gridsearch
37
Edición No. 18, Issue I, Julio 2021
1. INTRODUCCIÓN
El presente trabajo está enfocado en el cálculo de los
parámetros de la curva P-V tales como Potencia de Carga
máxima, Voltaje en el punto de colapso, Margen de
cargabilidad, Potencia y Voltaje en los Puntos de
operación, basado en la técnica del Equivalente
Thévenin. Para determinar los diferentes puntos de
operación que permitan establecer un conjunto de datos
extensos, se emplea Simulación de Montecarlo,
estableciendo N condiciones operativas. Obtenido el
dataset, se procede a efectuar una reducción de la
dimensionalidad empleando la técnica de Feature
extraction denominada Análisis de Componentes
Principales, seguidamente se emplea modelos entrenados
basados en técnicas de Machine Learning con sus
correspondientes análisis de desempeño.
La operación de los Sistemas Eléctricos de Potencia
(SEP) cerca de sus límites físicos, incurre en la presencia
en ciertas perturbaciones de manera imprevista las cuales
podrían causar una eventual violación de los límites de
seguridad del SEP, que puede conllevar a poner en riesgo
de un posible colapso total o parcial.
Entre las herramientas más utilizadas para analizar la
estabilidad de voltaje en los sistemas de potencia está la
determinación de las curvas Potencia-Voltaje (P-V) y de
la capacidad de transferencia disponible. Con relación al
desarrollo de las tecnologías de medición sincrofasorial,
el uso de herramientas de monitoreo de estabilidad de
voltaje en tiempo real es de gran utilidad. Entre las
herramientas empleadas está la técnica del Equivalente
de Thévenin, la cual permite calcular la proximidad entre
el estado operativo actual y el colapso de voltaje, a través
de la determinación de la curva P-V en tiempo real. Así,
se puede determinar la robustez relativa del sistema de
transmisión respecto de las barras de carga [1].
Asimismo, existen otros métodos de análisis de
estabilidad de voltaje tales como el análisis de
sensibilidad o modal del jacobiano reducido [1]. No
obstante, estos métodos convencionales no realizan una
predicción anticipada (alerta temprana) del punto de
máxima transferencia de potencia, sino que brindan un
valor único para la condición de análisis. En este sentido,
el presente trabajo plantea una metodología capaz de
realizar esta predicción.
La curva P-V se determinar a partir de un punto de
operación dado, consecuentemente se puede establecer
los valores del margen de cargabilidad considerando la
capacidad de transferencia disponible. La aplicación de
la técnica del Equivalente de Thévenin en un corredor de
transmisión se lo realiza considerando tanto las barras de
envío y como las de recepción, considerando que en cada
uno de estos puntos se tiene instalado una Unidad de
medición fasorial (PMU, por sus siglas en inglés). Las
PMUs son dispositivos que permiten efectuar una
estimación de sincrofasores de las ondas sinusoidales de
corriente y voltaje AC. Sus características de alta
precisión, velocidad de respuesta y sincronización de
tiempo, hacen de estos equipos ideales para el monitoreo
global en estado estable y dinámico. Adicional a los
valores y mediciones estimadas por parte de las PMU en
cada uno de los extremos del corredor de transmisión, se
requiere determinar el estado operativo de todo el
sistema, es decir, los valores de voltaje y corrientes de
cada uno de las barras y corredores de transmisión [1] [2].
Para el análisis a efectuarse, se emplea el sistema de
prueba de 39 barras disponible en DIgSILENT
PowerFactory. Se consideran tres corredores de
transmisión que son: Línea 4-14 (Corredor 1), Línea 21-
22 (Corredor 2) y Línea 16-17 (Corredor 3). La selección
de estos corredores se lo realiza a partir del criterio de
cargabilidad y selección de áreas analizadas en [3].
El conjunto de datos que se obtendrá de la red de
prueba de manera general está compuesto por:
Voltaje de Punto de Colapso para los corredores
de transmisión seleccionados.
Potencia de carga máxima para los corredores de
transmisión seleccionados.
Margen de cargabilidad para los corredores de
transmisión seleccionados.
Voltaje y Potencia en el punto de operación para
los corredores de transmisión seleccionados.
Voltajes y corrientes para cada una de las líneas y
barras del sistema.
De esta manera, se genera un dataset de 88 variables.
Por lo tanto, a partir de todo este conjunto de datos, se
propone elaborar un modelo inteligente que permita
determinar los valores críticos tales como del voltaje en
el punto de colapso y del margen de estabilidad de los
corredores de transmisión.
Para este fin, debido a la gran cantidad de
información obtenida del sistema se emplea como punto
de partida a lo que se denomina “Feature Extraction”,
mediante estas técnicas se procederá a efectuar una
reducción de la dimensionalidad del conjunto de
variables. Entre las técnicas de Feature Extraction se
tiene al denominado Análisis de Componentes
Principales (PCA, por sus siglas en inglés), en donde
primeramente se hace una identificación de las entradas
y salidas del modelo a entrenarse.
Para la estimación o predicción de los valores del
voltaje en el punto de colapso y del margen de estabilidad
se emplean técnicas de Machine Learning, los cuales, en
complemento a la reducción de la dimensionalidad
obtenida, permitirán obtener modelos entrenados, que
ante condiciones operativas determinadas permitirán
estimar los valores críticos del sistema. Las técnicas a
emplearse serán: Redes Neuronales y Máquinas de
Soporte Vectorial, en su versión de regresor. Para un
mejor desempeño de los modelos, se ha empleado una
técnica de optimización denominada GridSearchCV, la
cual permitirá establecer los mejores parámetros para
cada uno de los modelos de regresión. Al tratarse de
38
Chiza et al. / Predicción del Margen de Estabilidad de Corredores de Transmisión aplicando Machine Learning
modelos entrenados, existe la necesidad de establecer
parámetros que permitan tener una estimación de su
rendimiento y precisión. Por lo cual, para el caso práctico
del presente trabajo se ha empleado el índice Mean-
Squared Error (MSE), en base al cual se realizará un
análisis comparativo con cada uno de los modelos
empleados.
2. MARCO TEÓRICO
2.1. Estabilidad de Voltaje
En base a la curva P-V se pueden determinar
parámetros tales como los voltajes de colapso y la
máxima transferencia de potencia en un corredor de
transmisión a partir de un punto de operación dado, de
esta manera además se pueden establecer los valores del
margen de cargabilidad considerando la capacidad de
transferencia disponible. Para determinar estos
parámetros se emplea la técnica basada en el modelo del
Equivalente de Thévenin, en donde, considerando al
corredor de transmisión cuyas barras son B1 y B2 como
en la Fig.1, de envío y recepción respectivamente, se
puede realizar la estimación en tiempo real, considerando
que en cada una de las barras se tiene instalado una PMU
[1].
Figura 1: Monitoreo de corredores de transmisión a través de
PMUs [1]
Considerando el circuito equivalente basado en el
modelo T” de la línea de transmisión de la Fig. 2, se
tiene representado a la barra de envío B1 como un
generador equivalente y a la barra de recepción B2 como
una carga equivalente.
Figura 2: Equivalente “T” de la línea de transmisión [1]
En relación al Teorema del Equivalente de Thévenin,
se tiene que a un circuito eléctrico lineal se lo puede
representar por un circuito equivalente, el cual está
conformado por un generador de voltaje (

) en serie
con una impedancia (

), tal como se muestra en el
circuito de la Fig. 3.
Figura 3: Equivalente Thévenin del corredor de transmisión [1]
Las expresiones que permiten la obtención del
circuito equivalente de Thévenin se detallan a
continuación [1] [2]:





(1)




(2)
Obtenidos los parámetros del equivalente de
Thévenin, se los puede emplear para la deducción de la
expresión de la curva P-V, la misma que está dada por la
siguiente expresión:

󰇛


󰇜


󰇛


󰇜
󰇛


󰇜
(3)
2.2. Simulación de Montecarlo
Se trata de una técnica que permite la generación de
datos de forma aleatoria basados en una función de
distribución conocida.
Su aplicación está enfocada en determinar situaciones
en las cuales se requiere hacer una estimación y toma de
decisiones a partir de variables con incertidumbre [3].
2.3. Análisis de Componentes Principales (PCA) [4]
[5] [6] [7]
El análisis de componentes principales (PCA) es una
técnica de minería de datos que permite reducir la
dimensionalidad de los datos, manteniendo a la medida
de lo posible, la variación presente en ellos. Esto se
consigue mediante la transformación de los datos en un
nuevo conjunto de variables, denominadas componentes
principales (PCs), que no están correlacionadas, y que
están ordenadas de manera que los primeros
componentes conservan la mayor parte de la variación
presente en las variables originales. Estas nuevas
variables (z
i
) se determinan en base a los valores (
i
) y
vectores (u
i
) propios de la matriz de covarianza de los
datos originales
 (4)
La suma de los valores propios de los PCs (
i
) es
equivalente a la varianza total de la matriz de datos, y
cada valor propio ofrece una medición de la variabilidad
explicada (EV
i
) por el i-ésimo PC. Por lo tanto, el número
de los PCs elegidos depende de la variabilidad explicada
que se desee.
39
Edición No. 18, Issue I, Julio 2021
Para tener una idea de la selección del número de
componentes principales, se puede también usar la
gráfica de Número de Componentes Principales vs.
Variabilidad Explicada. En donde, se puede observar la
cantidad de información que se puede obtener de acuerdo
con un número determinado de componentes principales,
tal como se muestra en la Fig. 4.
Figura 4: Gráfica de Componentes Principales vs Variabilidad
2.4. Técnicas de Machine Learning
Las técnicas de Machine Learning o conocidas
también de aprendizaje automático se basa en todo lo que
se refiere con las ciencias de la computación, ciencia de
datos y estadística. Permitiendo establecer a los
algoritmos la identificación de patrones a partir de
aquellos datos [8].
Entre las técnicas de aprendizaje automático que se
van a emplear están:
Red Neuronal (Multi-layer Percepton)
Regresor basado en Máquinas de Soporte
Vectorial (SVM)
2.4.1. Multi-layer Percepton (MLP) [9]
Denominado como Perceptrón Multicapa, en su
traducción al español, este algoritmo es del tipo
supervisado. Su aprendizaje está basado en la función:
󰇛
󰇜

(5)
Su entrenamiento se da en un conjunto de datos, en
donde m es el número de dimensiones para la entrada y
o es el número de dimensiones para la salida.
Considerando a un conjunto de características
y a un valor objetivo , posee la capacidad
de aprendizaje de un aproximador de función no lineal
para la clasificación o regresión. En la Fig. 5 se muestra
un ejemplo de un MLP de una capa oculta con salida de
tipo escalar.
Figura 5: MLP de una capa oculta [9]
La capa que se encuentra más a la izquierda,
denominada como capa de entrada, consta de un conjunto
de neuronas
, las mismas que son la
representación de las características de entrada.
La operación que efectúa cada neurona de la capa
oculta consiste en la transformación de los valores de la
capa anterior con una suma lineal ponderada, de la
siguiente manera:
(6)
Seguidamente se determina una función de activación
no lineal
󰇛
󰇜
, la cual es denotada como la
función de bronceado hiperbólico [10] (Fig. 6). La capa
de salida recibe los valores de la última capa oculta y los
transforma en valores de salida.
Figura 6: Función de bronceado hiperbólico [10]
2.4.2. Regresor basado en Máquinas de Soporte
Vectorial (SVM)
La relevancia que presenta el uso de una máquina de
soporte vectorial (SVM) está en la capacidad que
presenta para aprender de clasificación de datos con
precisión y reproducibilidad equilibradas.
40
Chiza et al. / Predicción del Margen de Estabilidad de Corredores de Transmisión aplicando Machine Learning
La función de decisión de una SVM es un hiperplano
óptimo, el cual separa (clasifica) las observaciones
pertenecientes a una clase de otra en base a patrones de
información sobre dichas observaciones denominadas
como características. Tal hiperplano se puede usar para
establecer la etiqueta más probable para los datos
invisibles.
La implementación de una SVM implica el equilibrio
de dos objetivos que se complementan:
Maximización del porcentaje de etiquetas
correctas que se asignan a nuevos ejemplos
(optimizar su precisión).
El modelo entrenado sea generalizable a nuevos
datos (optimizar su reproducibilidad).
De manera general la primera característica está
limitada por la importancia de los features. En cuanto a
la segunda característica, se encuentra limitada por el
número de ejemplos únicos utilizados para el
entrenamiento del modelo [11].
Previamente al entrenamiento del modelo, se requiere
de la transformación de los datos originales de
entrenamiento sin procesar a un conjunto de
características que se los puede usar como entrada para la
SVM. Entre los métodos empleados para este fin, se
emplea al denominado “método kernel”. En donde, se usa
una función kernel que representa las medidas de
similitud por pares entre todos los patrones de ejemplo,
las cuales se las resume en una matriz de kernel con N x
N dimensiones, en donde N representa al número de
observaciones.
La función de kernel permite un entrenamiento de la
SVM a través de la matriz del kernel, aplicable tanto en
casos lineales como no lineales, efectuando un mapeo de
los datos sin procesar a un espacio de características de
mayor dimensión, un ejemplo de lo detallado se muestra
en la Fig. 7 [12].
Figura 7: Aplicación del método de kernel [12]
El entrenamiento de un modelo de SVM está
relacionado con establecer los parámetros w y b de la
función de decisión:
󰇛
󰇜
 (7)
Esta función orienta el hiperplano, de esta manera la
proyección de puntos separa al máximo los miembros de
las dos clases.
Además del ajuste de los parámetros centrales (w,b),
se debe de considerar como parámetros críticos a la
elección de los valores de los hiperparámetros, los cuales
se tratan de variables que se relacionan con el ajuste de la
función de decisión y se establecen previo al inicio del
entrenamiento [13].
El desempeño de la SVM se lo evalúa a partir de su
sensibilidad, especificidad y precisión, estableciendo
métricas e información acerca de la precisión y
reproducibilidad del hiperplano SVM.
Para la evaluación conjunta de la precisión y la
reproducibilidad, es necesario efectuar pruebas de
permutación, de manera que el hiperplano se estima de
manera iterativa mediante etiquetas de clase permutadas
de manera aleatoria, considerando una ventana de valores
de hiperparámetros, para varias versiones con un
remuestreo del conjunto de datos [14].
3. PROPUESTA METODOLÓGICA
En la Fig. 11 se muestra un esquema de la
metodología propuesta para el análisis predictivo de la
estabilidad de voltaje. Previamente, se selecciona como
red de prueba al sistema de 39 barras (New England).
Considerando un corredor de transmisión por cada una de
las áreas, en referencia a la Fig. 8 [15] .
Figura 8: Identificación de áreas. Sistema de 39 Barras-New
England [15]
3.1. Simulación de Montecarlo
Se efectúan simulaciones iterativas, en las cuales,
para cada una de las iteraciones, se varían las condiciones
operativas, para el caso práctico se efectuó una variación
aleatoria de todas las cargas conectadas a cada una de las
barras del sistema. La variabilidad de las cargas se las
obtuvo siguiendo una curva de distribución normal
aleatoria, tanto para el caso de la Potencia Activa, como
del valor del factor de potencia, a partir del cual se calcula
la Potencia Reactiva.
v
41
Edición No. 18, Issue I, Julio 2021
En las Figuras 9 y 10 se presentan las curvas de
distribución normal de la Potencia Activa de la Carga 4 y
del factor de potencia, respectivamente.
Figura 9: Curva de Distribución Normal de Potencia Activa de
Carga 4
Figura 10: Curva de Distribución Normal del Factor de Potencia
Para el caso de la potencia activa, el valor medio se lo
toma del valor inicial presente en cada una de las cargas,
considerando al valor de la desviación estándar en un
10% a 20% de la carga, para que exista una mayor
incidencia dentro de la red, que inclusive lleve a
condiciones operativas críticas. Para el caso del factor de
potencia, se sigue un valor medio de 0.92 y una
desviación estándar de 0.02. Teniéndose los valores de
Potencia activa y factor de potencia se estima el valor de
la potencia reactiva para cada una de las cargas.
3.2. Simulación de estado estacionario
Para cada una de las iteraciones dentro de la
simulación de Montecarlo, se procede a efectuar el
cálculo de flujos de potencia. De esta manera se obtienen
los valores de Voltaje y Corriente para cada una de las
barras y líneas de transmisión. Considerando que el
objetivo del presente trabajo es el cálculo del equivalente
Thévenin para los corredores de transmisión
seleccionados y el posterior cálculo de los parámetros de
la curva P-V, se efectúan dichas operaciones dentro de
cada una de las iteraciones, adicionalmente se obtiene los
valores de los márgenes de estabilidad.
3.3. Minería de Datos
Posterior a la generación y extracción de datos, es
necesario hacer un tratamiento de estos, de manera que
se pueda realizar su procesamiento y análisis.
Para este fin, inicialmente se conoce el estado de los
datos, es decir que no existan ciertas inconsistencias.
Además, a través del análisis estadístico se puede
determinar cuan coherentes han sido los datos generados,
es decir, si están dentro de los límites tanto físicos como
operacionales del sistema.
En la Fig. 12, se muestra un desglose de los datos
importados dentro de Python para su tratamiento.
Figura 11: Esquema de la Metodología Propuesta
42
Chiza et al. / Predicción del Margen de Estabilidad de Corredores de Transmisión aplicando Machine Learning
Figura 12: Contenido y Características del Dataset
Una vez efectuado el tratamiento de datos, se procede
a realizar el Análisis de Componentes Principales. Para
lo cual se debe diferenciar las variables de entrada (X) y
de salida (Y) que tendrán los modelos de aprendizaje y
predicción. De esta manera se tiene lo siguiente:
Variables de Entrada:
Voltajes y Corrientes de las barras y líneas de
transmisión del sistema.
Potencias y Voltajes en los puntos de operación
obtenidos en la curva P-V para cada uno de los
corredores seleccionados.
Variables de Salida:
Potencias y Voltajes en el punto de colapso
obtenidas en la curva P-V para cada uno de los
corredores seleccionados.
Margen de estabilidad calculado para cada uno
de los corredores seleccionados.
Para la obtención de las componentes principales se
emplea las variables de entrada X, siguiendo el siguiente
procedimiento:
Se efectúa un escalamiento estándar de los datos
y un entrenamiento de los mismos.
“X=StandarScaler().fit_transform(X)”
Se obtiene la Variabilidad explicada:
“pca.explained_ratio
A partir de la Variabilidad explicada se procede
a realizar el diagrama de codo, el cual relaciona
a la variabilidad explicada acumulada con el
número de componentes principales.
Es recomendable, en base al diagrama de codo,
determinar el número de componentes
principales en función a los que permitan
obtener por lo menos un 90% de la información
del sistema.
Determinando el mero de componentes
principales se procede a la obtención de las
puntuaciones o “scores”, los mismos que se
convertirán en la variable de entrada X a los
modelos de entrenamiento.
3.4. Machine Learning
Obtenidas las variables de entrada y salida, se procede
primeramente a efectuar el entrenamiento de los
regresores. Para esto, se genera un subconjunto de datos
de entrenamiento que se utiliza para la estimación de los
parámetros del modelo, y por otra parte se genera un
subconjunto de datos de test que se emplean para la
comprobación del comportamiento de los modelos de
aprendizaje. De manera que los valores que se generan
posterior al entrenamiento son:
Subconjunto de entrenamiento: Xtrain e Ytrain.
Subconjunto test: Xtest e Ytest.
3.4.1. Red Neuronal MLP
Para implementar el modelo de aprendizaje basado en
redes neuronales MLP se deben de establecer los
siguientes parámetros [9]:
Tamaño de las capas ocultas: este parámetro
representa el número de neuronas en la i-ésima capa
oculta.
Función de activación: especifica la función de
activación de la capa oculta. Se tienen las siguientes
funciones de activación:
Identidad: ideales para implementar cuellos de
botella de tipo lineal. Activación de tipo no operativa.
Retorna f(x)=x.
Logística: función sigmoidea logística, retorna
󰇛
󰇜


.
Tanh: función tangente hiperbólica. Retorna
f(x)=tanh(x).
Relu: se trata de una función de unidad lineal
rectificada. Retorna f(x)=max(0, x).
Solver: para establecer los métodos de optimización.
Lbgs: optimizador de la familia de métodos cuasi-
Newtonianos.
Sgd: optimizador de gradiente descendiente
estocástica.
Adam: optimizador estocástico basado en gradientes.
Alfa: parámetro de penalización (término de
regularización).
3.4.2. Máquina de Soporte Vectorial (SVM) [16]
Los parámetros necesarios para implementar un
regresor basado en máquinas de soporte vectorial son:
43
Edición No. 18, Issue I, Julio 2021
Kernel: similar al solver empleado en redes
neuronales, se determina el algoritmo a través del cual
se computará la matriz de kernel. Entre los principales
están: lineal, polinomial, rbf (gaussiana), sigmoide.
C (Regularización): se trata del parámetro de
penalización, el cual representa una clasificación
errónea o un término de error. Este término le dice a
la optimización de SVM cuánto error es soportable.
Gamma: define hasta qué punto influye en el cálculo
de la línea de separación plausible.
High Gamma: solo puntos cercanos son
considerados.
Low Gamma: puntos lejanos también son
considerados.
3.4.3. Ajuste de Hiperparámetros usando
GridSearchCV [17]
GridSearch se usa enfocado al ajuste de
hiperparámetros los cuales construye y evalúa de manera
metódica a un modelo para cada combinación de
parámetros de algoritmos especificados. Permite
combinar un estimador con preámbulo de búsqueda de
cuadrícula para el ajuste de hiperparámetros. Por lo tanto,
permite establecer los mejores parámetros a ser usados en
los modelos de aprendizaje.
4. RESULTADOS
Se efectúa la generación de datos en PowerFactory a
partir de la Simulación de Montecarlo y la Simulación de
estado estacionario a partir de flujos de potencia. Este
conjunto de datos se lo exporta a un archivo *.csv y
posteriormente importado en el entorno de Jupyter-
Python, de esta manera se tiene generado un DataFrame
con 10000 filas y 88 columnas. como se muestra en la
Fig. 13.
Seguidamente, se efectúa un análisis de estadística
descriptiva (media, mediana desviación estándar, etc.),
de la misma manera se tiene generado un DataFrame
como el mostrado en la Fig. 14. A partir de los principales
estadísticos de cada una de las variables del dataset, se
tiene el siguiente análisis:
Relacionando los valores obtenidos entre las medias
y medianas de las variables, en general, se tiene que
son valores muy cercanos, lo cual se puede interpretar
de la no existencia de valores extremos.
En cuanto al valor de la desviación estándar (std), se
tiene que los valores son muy bajos, por lo tanto, se
produce un indicador que de que no hay una
dispersión significativa de los datos.
En cuanto a los coeficientes de variación (cvar)
existen casos en los cuales hay un mayor coeficiente
de variación, tal es el caso de la Pcarga, Iline 25-26 e
Iline 26-28, por lo tanto, sugiere que existe una mayor
dispersión estas variables.
El coeficiente de Kurtosis de las variables es bajo, lo
cual indica que existe una menor concentración de los
datos en relación a su media, es decir la curva de
distribución normal tiende a ser aplanada.
Para el caso de los coeficentes de skewness, se
observa que el comportamiento de las curvas será
variado, ya que existen valores positivos y negativos,
no existen por lo general valores que tiendan de
manera significativa a cero. Por lo tanto, los valores
que tengan un coeficiente positivo tendrán su cola en
el derecho, en cuanto a los coeficientes negativos
tendrán sus colas al lado izquierdo. Además, en los
casos en los cuales los valores tiendan a cero, su curva
será casi simétrica.
Figura 14: Cálculo de Principales Estadísticos
Figura 13: Dataset generado en PowerFactory e Importado en el entorno de Python
44
Chiza et al. / Predicción del Margen de Estabilidad de Corredores de Transmisión aplicando Machine Learning
La Fig. 15 presenta el gráfico de distribución de los
resultados, considerando el voltaje en el punto de colapso
para el corredor 1 para tener una idea clara de su
comportamiento, además de verificar las aseveraciones
mostradas en el análisis estadístico. Por lo tanto, se puede
verificar la asimetría de las curvas, la tendencia de las
colas y la acumulación de datos entorno a la media.
Figura 15: Curva de Distribución Normal. Voltaje de carga
máxima (p.u.)
Para efectuar el Análisis de Componentes Principales
se parte del gráfico de diagrama de codo para determinar
el número de componentes principales necesarios para
tener la información suficiente del sistema. De manera
que, en relación con el gráfico de la Fig. 16, se tiene:
Figura 16: Diagrama de codo. Variabilidad explicada vs Número
de Componentes principales
De acuerdo con el gráfico obtenido, se puede observar
que con aproximadamente 14 componentes principales se
puede obtener un 90% de la información, lo cual es
aceptable para los fines que se buscan. De esta manera,
se toman los catorce componentes principales,
considerando sus "Scores" para generar la matriz X para
el entrenamiento posterior.
4.1. Aplicación de Modelos Basados en Redes
Neuronales
Una vez obtenidos los valores tanto de entrada como
de salida, se procede a la implementación de los modelos
de aprendizaje. Considerando como casos de ejemplo, los
Márgenes de Estabilidad cada uno de los corredores. A
continuación, se presentan histogramas que muestran la
distribución de los resultados obtenidos de la predicción
para cada modelo. Considerando como ejemplo a la Fig.
17, relacionada con la curva de distribución dem Margen
de Estabilidad del corredor 1 dado en el dataset original.
Figura 17: Margen de Estabilidad obtenido del Dataset.
Condición de entrada al modelo
Se puede observar que a partir de los modelos de
regresión empleados permite una predicción aproximada
del margen de estabilidad, considerando como referencia
los valores iniciales dados por el dataset. Se aprecia que
el modelo que mejor ajuste presenta es el que emplea
GridSearchCV, por lo tanto, se puede verificar que ha
realizado una optimización adecuada de los modelos.
Realizando una comparación de los valores de
Margen de Estabilidad, caso base de la Fig. 18 y las
predicciones de las Figuras 19, 20 y 21, se observa que,
frente a las condiciones operativas dadas, el corredor 1
presenta un mayor Margen de estabilidad. Además,
debido a la cercanía de las líneas a la apertura de la línea
16-19, tienden a tener un menor Margen de Estabilidad,
muy inferior al anterior.
Figura 18. Predicción del Margen de Estabilidad basado en el
modelo de Redes Neuronales. Corredor 1
La condición que presenta el Corredor 1 de tener un
mayor margen de estabilidad sugiere que presenta un
mayor margen de estabilidad de voltaje, es decir tiende a
tener menores problemas de voltaje en cuanto al
incremento de parámetros tales como de las cargas, o
perturbaciones de sistemas tales como de las variaciones
de voltajes producidas por la apertura de líneas.
45
Edición No. 18, Issue I, Julio 2021
Figura 19: Predicción del Margen de Estabilidad basado en el
modelo de Redes Neuronales aplicando GridSearchCV
Corredor 1
Figura 20: Predicción Margen de Estabilidad basado en el modelo
de Redes Neuronales. Corredor 2.
Figura 21: Predicción del Margen de Estabilidad basado en el
modelo de Redes Neuronales aplicando GridSearchCV.
Corredor 3
4.2. Aplicación de Modelos Basados en Máquinas de
Soporte Vectorial empleando GridSearchCV
De la misma manera que en la aplicación de los
modelos basados en Redes Neuronales, se emplean las
variables de entrada y salida para el entrenamiento de los
modelos. Como casos de ejemplos se muestran Márgenes
de Estabilidad de cada uno de los corredores. Para la
evaluación del desempeño de la optimización de estos
modelos, se emplea los índices MSE.
4.3. Índices de Desempeño
En la Tabla 1 se detalla y se realiza una comparativa
entre los índices MSE obtenidos en cada uno de los
modelos aplicados a la predicción del Margen de
Estabilidad de los corredores de transmisión.
Tabla 1: Índices MSE de los modelos empleados
Margen de Estabilidad
Índice
Corredor 1
Corredor 2
Corredor 3
MSE_ANN
0.0097
0.00443
0.00402
MSE_ANN_GSV
0.0035
6.5334 e-05
0.00013
MSE_SVM_GSV
0.0038
0.00119
0.00119
Se ha considerado como indicador del desempeño de
los modelos de regresión al MSE (Mean-squared-error),
considerando que cuanto menor sea el valor del MSE,
mayor será el ajuste del regresor, se tiene que:
Empleando GridSearchCV se tiene una mejor
optimización de los parámetros de los modelos de
regresión, por lo tanto, un mejor ajuste. Lo cual se
puede observar, al comparar los modelos de Redes
Neuronales con y sin su aplicación.
Realizando una comparación entre ANN y SVM, se
tiene que el regresosr que mejores resultados se tiene
es ANN con GridSearchCv, de manera que existe una
mejor optimización por parte del modelo en relación
al ajuste de datos obtenidos.
5. CONCLUSIONES Y RECOMENDACIONES
La generación del conjunto de datos a partir de
simulaciones de Montecarlo permite establecer diversas
condiciones operativas del sistema, a través de N
simulaciones del sistema, realizando la variación de
parámetros tales como de los valores de las cargas del
sistema.
Es necesario dentro del análisis de datos, efectuar un
análisis estadístico lo cual permita conocer el
comportamiento de los datos que se han obtenido de
manera preliminar.
Debido a la gran cantidad de variables que se puede
obtener en el sistema, una de las herramientas que se
puede usar es lo que se denomina como Feature
Extraction, que a partir del Análisis PCA permite
efectuar una reducción de la dimensionalidad basado en
las principales características de los conjuntos de datos.
Se pudo observar dentro de la aplicación de los
modelos de predicción, que el ajuste se puede optimizar
a través de la herramienta de GridSearchCV, mediante el
cual en base a los indicadores MSE se pudo verificar que
notablemente se puede mejorar el desempeño de los
modelos de regresión.
46
Chiza et al. / Predicción del Margen de Estabilidad de Corredores de Transmisión aplicando Machine Learning
En relación a las condiciones operativas dadas en el
sistema, se pudo observar que el corredor 1 presenta un
mayor margen de estabilidad, por ende, menores
problemas de estabilidad, a diferencia de lo que puede
ocurrir en los corredores 2 y 3, que como se observó
presentan valores muy inferiores.
REFERENCIAS BIBLIOGRÁFICAS
[1] J. Cepeda, P. Verdugo y G. Arguello, «Monitoreo de
la Estabilidad de Voltaje de Corredores de
Transmisión en Tiempo Real a partir de Mediciones
Sincrofasoriales,» Revista EPN, vol. 33, nº 3, 2014.
[2] M. Larsson, C. Rehtanz y J. Bertsch, «Monitoring
and operation of transmission corridors,» IEEE
Power Tech Conference Proceedings, vol. 3, 2003.
[3] J. Riofrío, M. Chamba y J. Cepeda, «Evaluación
Probabilística y Gestión del Riesgo dela
Cargabilidad de la Redpor la Puesta en Servicio del
Metro de Quito considerando el Movimiento
Estocástico de los Trenes Eléctricos,» Revista
Técnica "energía", pp. 1-11, 2019.
[4] S. Khalid, T. Khalil y S. Nasreen, «A Survey of
Feature Selection and Feature Extraction Techniques
in Machine Learning, » Science and Information
Conference, 2014.
[5] A. Olalekan y S. Jain, «Feature Extraction: A Survey
of the Types, Techniques, Applications, »
International Conference on Signal Processing and
Communication (ICSC), 2019.
[6] P. Prathusha y S. Jyothi, «Feature Extraction
Methods: A Review, » International Journal of
Innovative Research in Science, Engineering and
Technology, vol. 6, nº 12, 2017.
[7] C. Syms, «Principal Components Analysis, » de
Encyclopedia of Ecology, 2019, pp. 566-573.
[8] S. Brown, «Machine learning, explained, » 21 April
2021. [En línea].
[9] «Neural Network models (supervised), » scikit learn,
2020. [En línea]. Available: https://scikit-
learn.org/stable/modules/neural_networks_supervis
ed.html.
[10] ICHI.PRO, «Funciones de activación en DNN,»
2021. [En línea]. Available:
https://ichi.pro/es/funciones-de-activacion-en-dnn-
36776149422948.
[11] D. A. Pisner y D. M. Schnyer, «Support vector
machine,» de Machine Learning, 2020, pp. 101-121.
[12] R. Bhaumik, L. M. Jenkins, J. R. Gowins, R. H.
Jacobs, A. Barba y D. K. Bhaumik, «Multivariate
pattern analysis strategies in detection of remitted
major depressive disorder using resting state
functional connectivity,» NeuroImage: Clinical, vol.
16, pp. 390-398, 2017.
[13] A. Ben-Hur y J. Weston, « A user’s guide to support
vector machines,» Methods in Molecular Biology,
vol. 609, pp. 223-239, 2010.
[14] R. Batuwita y V. Palade, «Class imbalance learning
methods for support vector,» Imbalanced Learning:
Foundations, Algorithms, Applications, pp. 83-100,
2013.
[15] J. Cepeda y D. Colome, «Vulnerability Assesment
of Electric Power Systems Through Identification
and Ranking of Vulnerable Areas,» International
Journal of Emerging Electric Power Systems, vol.
13, nº 1, 2006.
[16] «Support Vector Machines,» scikit learn, 2020. [En
línea]. Available: https://scikit-
learn.org/stable/modules/svm.html#svm-regression.
[17] «SVM Hyperparameter Tuning using
GridSearchCV,» Velocity Business, 2020. [En
línea]. Available:
https://www.vebuso.com/2020/03/svm-
hyperparameter-tuning-using-gridsearchcv/.
Luis Laurentino Chiza Segovia. -
Nació en Atuntaqui, Ecuador en
diciembre de 1993. Recibió su
título de Ingeniero en Electrónica y
Control en la Escuela Politécnica
Nacional; cursa sus estudios de
Máster en Electricidad mención en
Redes Eléctricas Inteligentes de la
Escuela Politécnica Nacional. Actualmente trabaja en la
Subgerencia Nacional de Investigación y Desarrollo en
convenio entre CELEC EP-Coca Codo Sinclair y
CENACE. Sus campos de investigación son: sistemas de
control, Smart Grids, redes industriales en SEP, control
de máquinas eléctricas.
Jaime Cristóbal Cepeda
Campaña. - Nació en Latacunga,
Ecuador en 1981. Recibió el título
de Ingeniero Eléctrico en la
Escuela Politécnica Nacional EPN
en 2005, y el de Doctor en
Ingeniería Eléctrica en la
Universidad Nacional de San Juan
UNSJ en 2013. Colaboró como investigador en el
Instituto de energía Eléctrica, UNSJ, Argentina y en el
Instituto de Sistemas Eléctricos de Potencia, Universidad
Duisburg-Essen, Alemania entre 2009 y 2013.
Actualmente se desempeña como Gerente Nacional de
Desarrollo Técnico del CENACE y como Profesor a
Tiempo Parcial en la EPN. Sus áreas de interés incluyen
la evaluación de vulnerabilidad en tiempo real y el
desarrollo de Smart Grids.
47