Servicios
Servicios
Buscar
Idiomas
P. Completa
Configuración de los parámetros de la búsqueda armónica mediante lógica difusa
Alejandro Centeno; Alejandro Bolívar; Demetrio Rey;
Alejandro Centeno; Alejandro Bolívar; Demetrio Rey; Francisco Arteaga; César Séijas; Ángel D Almarza M
Configuración de los parámetros de la búsqueda armónica mediante lógica difusa
Configuration of Harmony Search Parameters based on Fuzzy Logic
Revista INGENIERÍA UC, vol. 26, núm. 1, pp. 61-71, 2019
Universidad de Carabobo
resúmenes
secciones
referencias
imágenes

Resumen: La calidad del desempeño de cualquier algoritmo meta–heurístico exhibe una estrecha relación con respecto a los valores asignados a sus parámetros asociados. Esto se conoce como el problema de la configuración. En el presente artículo, se expone la implementación de una propuesta basada en lógica difusa para la configuración de los parámetros numéricos del algoritmo de búsqueda armónica. Como aplicación práctica, la propuesta es utilizada para el entrenamiento supervisado de una red neuronal multicapa a fin de resolver un problema de clasificación binaria.

Palabras clave:algoritmo de búsqueda armónicaalgoritmo de búsqueda armónica, lógica difusa lógica difusa, optimización optimización.

Abstract: The performance quality of any metaheuristic algorithm exhibits a close relationship with respect to the values assigned to its parameters. This is known as the configuration problem. In this work, a proposal for the configuration of the Harmony Search Algorithm parameters based on Fuzzy Logic is exposed. As a practical application, the proposal is used for the supervised training of a multilayer neural network in order to solve a binary classification problem.

Keywords: harmony search algorithm, fuzzy logic, optimization.

Carátula del artículo

Artículos científicos

Configuración de los parámetros de la búsqueda armónica mediante lógica difusa

Configuration of Harmony Search Parameters based on Fuzzy Logic

Alejandro Centeno
Universidad de Carabobo, Venezuela
Alejandro Bolívar
Universidad de Carabobo, Venezuela
Demetrio Rey
Universidad de Carabobo, Venezuela
Francisco Arteaga
Universidad de Carabobo, Venezuela
César Séijas
Universidad de Carabobo, Venezuela
Ángel D Almarza M
Universidad de Carabobo, Venezuela
Revista INGENIERÍA UC, vol. 26, núm. 1, pp. 61-71, 2019
Universidad de Carabobo

Recepción: 02 Noviembre 2018

Aprobación: 08 Febrero 2019

1. Introducción

En el campo de la optimización matemática, las meta – heurísticas han demostrado reiteradamente sus bondades y capacidades como métodos numéricos aplicados en la resolución de una amplia colección de modelos [1]. No obstante su éxito, es un hecho bien conocido que la calidad del desempeño de estos algoritmos guarda estrecha relación con respecto a los valores asignados a sus parámetros asociados. Esto se conoce como el problema de la configuración [2], el cual puede ser abordado mediante la implementación de mecanismos fundamentados en un conjunto de reglas que gobiernen tal asignación de forma dinámica, durante la ejecución de una meta – heurística, con el propósito de maximizar el desempeño de la misma. Este esquema de solución se denomina control de parámetros [3]. Un ejemplo de tal esquema consiste en la aplicación de un Sistema de Inferencia Difuso (SID), donde las herramientas brindadas por la lógica difusa son utilizadas para establecer una correspondencia entre el estado del proceso de optimización (variables de entrada) y los valores asignados a los parámetros (variables de salida) de la meta – heurística que lo ejecuta [4]. Este concepto fue implementado recientemente en [5] sobre el Algoritmo de Búsqueda Armónica (ABA) [6] mediante un SID basado en reglas de Mamdani (SIDM) [7]. Trabajos similares han sido reportados en [8, 9, 10, 11]. No obstante, sin desconocer sus valiosos aportes, todas estas investigaciones guardan en común el hecho de haber establecido un control sobre un subconjunto de los parámetros del ABA. En el presente artículo se exponen los resultados derivados de la implementación de un SIDM para la configuración dinámica de todo el ensamble de parámetros numéricos del ABA. Se formularon dos (02) versiones, denotadas en lo sucesivo como ABAD01 y ABAD02, diferenciadas solo por la variable de entrada utilizada. En ambas versiones, las variables de interés fueron granuladas mediante funciones de pertenencia de formato trapezoidal. Para propósitos de comparación, ABAD01, ABA y [5], fueron aplicadas sobre una colección de problemas de optimización no lineal. Por su parte, ABAD02 se implementó para el entrenamiento supervisado de una Red Neuronal Multicapa (RNM) a fin de resolver un problema de clasificación binaria. Los resultados obtenidos de este experimento fueron comparados con los derivados a partir de la aplicación del ABA, el Algoritmo de Retro – propagación del Error con Momento (ARPEM) [12] y [5] sobre el mismo problema.

2. Parámetros numéricos del algoritmo de búsqueda armónica (ABA)

La estructura implementada del ABA tiene asociada los siguientes parámetros numéricos [6]:

2.1. Tasa de selección en la memoria de armonías

Denotada HMCR (Harmony Memory Chose Rate) por sus siglas en inglés, representa la probabilidad asociada al evento de seleccionar una entrada en la memoria de armonías. Para la configuración dinámica, la estrategia asumida consistió en asignar valores bajos a HMCR durante las primeras etapas del proceso de optimización ejecutado por el ABA, transitando luego hacia valores altos durante las etapas finales [5, 11, 13, 14]. Entre los valores típicamente recomendados para este parámetro, se tiene: HMCR ∈ [0,95;0,99] [13] y HMCR ≥ 0,90 [15].

2.2. Tasa de ajuste de tono

Denotada PAR (Pitch Adjusting Rate) por sus siglas en inglés, representa la probabilidad asociada al evento de aplicar una variación sobre la entrada previamente seleccionada en la memoria de armonías. En cuanto a la configuración dinámica, se adoptó la estrategia de asignar valores altos a PAR durante las primeras etapas del proceso de optimización, para luego transitar hacia valores bajos durante las etapas finales [16, 17, 18, 19]. Entre los valores típicamente recomendados para este parámetro, se tiene: PAR ∈ [0,1; 0,9] [16] y PAR ≤ 0,5 [15].

2.3. Ancho de banda

Denotado BW (Band Width) por sus siglas en inglés, representa la magnitud de la variación aplicada sobre una entrada previamente seleccionada en la memoria de armonías. En cuanto a su configuración dinámica, la estrategia adoptada es idéntica a la descrita para PAR [9, 13, 14, 15, 16, 20, 21]. Los valores típicos recomendados para BW están comprendidos entre el 0,1 y 1,0 por ciento del rango de valores permitidos para las variables asociadas al problema de optimización tratado [16].

2.4. Tamaño de la memoria de armonías

Denotado HMS (Harmony Memory Size) por sus siglas en inglés, representa el número de soluciones almacenadas en la memoria de armonías. Para su configuración dinámica se adoptó la misma estrategia de PAR [22, 23]. Entre los valores típicamente recomendados para este parámetro, se tiene: HMS ∈ [1;10] [16] y HMS ∈ [4; 10] [24].

3. Propuesta para la configuración de parámetros

Se implementó un SIDM, cuyos elementos principales se detallan a continuación:

3.1. Variables de entrada

Denotada λ, para ABAD01 viene dada por el cociente entre el número de iteraciones k y el número de iteraciones máximas kmáx, de acuerdo a la ecuación (1):

λ ( k ) = k k m a x (1)

Para ABAD02, λ se computa mediante el cociente entre el mejor desempeño (f(k)mejor) exhibido por las soluciones almacenadas en la memoria de armonías para la k – ésima iteración, y el mejor desempeño inicial (f(0)mejor) , de acuerdo a la ecuación (2):

λ ( k ) = 1 f m e j o r ( k ) f m e j o r ( 0 ) (2)

3.2. Variables de salida

Parámetros del ABA, con redondeo de HMS al entero más cercano.

3.3. Fusificación

Parámetros del ABA, con redondeo de HMS al entero más cercano. Todas las variables se granularon mediante tres (03) conjuntos difusos, con etiquetas “Bajo”, “Medio” y “Alto”, caracterizados por las funciones de pertenencia de la Figura 1. Los valores asignados a los puntos de interés esquematizados se listan en la Tabla 1.


Figura 1
Formato de las funciones de pertenencia implementadas.

Tabla 1
Valores asignados a los puntos de interés de acuerdo con el formato de las funciones de pertenencia implementadas

3.4. Base de conocimiento

Se aplicaron las reglas mostradas en la Tabla 2.

Tabla 2
Reglas Si – Entonces aplicadas a las variables de entrada (λ).

3.5. Desfusificación

Idéntico al método utilizado en [5].

4. Implementación de la propuesta
4.1. Estructura algorítmica

La integración se realizó de acuerdo al modelo de capas descrito en [3], alojando al SIDM en la capa de diseño.

4.2. Algoritmos implementados

Para la resolución de los problemas de optimización no lineal se implementaron los algoritmos ABAD01, ABA [6] y FHS ( Fuzzy Harmony Search por sus siglas en inglés) [5]. Los valores asignados a los parámetros de estos algoritmos fueron consultados en [5, 17, 18] y se muestran en la Tabla 3.

Tabla 3
Valores asignados a los parámetros de los algoritmos aplicados sobre los problemas de optimización.

Para el problema de clasificación binaria, se implementaron ABAD02, ABA y FHS. Los valores asignados a los parámetros de estos algoritmos fueron consultados en [25] y se muestran en la Tabla 4.

Tabla 4
Valores asignados a los parámetros de los algoritmos aplicados sobre el problema de clasificación.

El universo del discurso de HMCR para FHS se estableció en [0,90 0,99]. Adicionalmente, se implementó el ARPEM [12] con tasa de aprendizaje igual a 0,008 y momento de 0,7. Estos valores se ajustaron empíricamente tratando de maximizar la velocidad de convergencia y eliminar oscilaciones en la curva de entrenamiento.

4.3. Problemas tratados

Se resolvieron problemas de optimización no lineal del tipo min f x sujeto a x ∈ S ⊂ Rn, donde f x es la función objetivo, S representa el espacio de búsqueda y n el número de variables intervinientes. Los problemas tratados fueron consultados en [26], http://infinity77.net/global_optimization/index.html y http://www.sfu.ca/~surjano/optimization.html, siendo seleccionadas catorce instancias en atención a la modalidad y carácter separable de f x [26], tal y como se resume en las Tablas 5, 6, 7 y 8 mostradas a continuación.

Para el problema de clasificación se utilizó la base de datos Pima Diabetes (http://archive.ics. uci.edu/ml), eliminándose las entradas con datos faltantes [27] y aplicando normalización estadística [28]. La fase de entrenamiento por lotes se realizó en base al 60 por ciento de los datos con validación sobre el resto [27], cuantificándose el error y la tasa de acierto o clasificaciones correctas obtenidas según las expresiones planteadas en [25]. La RNM implementada se configuró de forma idéntica a [29].

Tabla 5
Instancias de problemas de optimización de tipo multimodal y separable.

Tabla 6
Instancias de problemas de optimización de tipo multimodal y no separable.

Tabla 7
Instancias de problemas de optimización de tipo unimodal y no separable.

Tabla 8
Instancias de problemas de optimización de tipo unimodal y separable.

4.4. Esquema de representación

Para todos los problemas tratados, los datos se estructuraron mediante arreglos unidimensionales con esquema de codificación uno a uno de tipo punto flotante de doble precisión. Respecto al problema de clasificación, en la Figura 2 se muestra un ejemplo de la correspondencia entre pesos sinápticos y su representación para una red hipotética de dos (02) capas. Esta estructura se utilizó únicamente para los algoritmos meta – heurísticos.


Figura 2
Representación de pesos sinápticos de una red hipotética de dos (02) capas.

5. Resultados y análisis

En las Figuras 3, 4, 5 y 6, se presentan diagramas de caja y bigotes elaborados a partir del valor de f x proporcionado por cada algoritmo al término de su ejecución.


Figura 3
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización multimodal y separable


Figura 4
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización multimodal y no separable.


Figura 5
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización unimodal y no separable

A partir de los datos mostrados en las Figuras 3, 4, 5 y 6, se computaron los siguientes índices [30]: mejor valor, peor valor, mediana, promedio y desviación típica. Los resultados obtenidos se listan en las Tablas 9, 10, 11 y 12 mostradas a continuación.

Se aplicó una prueba de Wilcoxon en base al índice promedio de las Tablas 9 a 12, tomando al ABAD01 como algoritmo de control [31]. Los valores se normalizaron entre 0 y 1 según el método Mín– Máx [28]. El nivel de significancia se fijó en 0,05. Los resultados se resumen en la Tabla 13.


Figura 6
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización unimodal y separable.

Tabla 9
Índices estadísticos computados para problemas de optimización de tipo multimodal y no separable.

Tabla 10
Índices estadísticos computados para problemas de optimización de tipo multimodal y separable.

Tabla 11
Índices estadísticos computados para problemas de optimización de tipo unimodal y no separable.

Tabla 12
Índices estadísticos computados para problemas de optimización de tipo unimodal y separable.

Tabla 13
Resultados de prueba de Wilcoxon sobre los promedios de los índices estadísticos computados para problemas de optimización.

Los resultados de la prueba permiten afirmar, con un nivel de significancia del 0,05, que el ABAD01 representa una mejora significativa, respecto a ABA y FHS, como método de solución para los problemas de optimización tratados y bajo las condiciones experimentales antes referidas.

En la Figura 7, se presentan diagramas de caja y bigotes elaborados a partir del valor de la tasa de acierto, proporcionado por ABA, FHS y ABAD02 al término de sus ejecuciones, sobre los datos para entrenamiento (a) y validación (b) asociados al problema de clasificación tratado.

A partir de los datos mostrados en la Figura 7, se computaron los índices estadísticos: mejor valor, peor valor, mediana, promedio y desviación típica. Los resultados obtenidos se presentan en la Tabla 14.


Figura 7
Tasa de acierto para ABA, FHS y ABAD02 en: a) Entrenamiento. b) Validación.

Tabla 14
Índices computados para la tasa de acierto de los algoritmos ABA, FHS y ABAD02 tanto en entrenamiento como en validación.

Se aplicó una prueba de Wilcoxon en base a los datos asociados a la tasa de acierto en fase de validación (Figura 7b), tomando al ABAD02 como algoritmo de control. El nivel de significancia de la prueba se fijó en 0,05. Los resultados se resumen en la Tabla 15.

Tabla 15
Resultados de prueba de Wilcoxon sobre la tasa de acierto en fase de validación.

Los resultados de la prueba permiten establecer, con un nivel de significancia del 0,05, que el ABAD02 representa una mejora significativa, en relación a ABA y FHS, como método de solución para el problema de clasificación tratado y bajo las condiciones experimentales planteadas.

Respecto a la comparación de la propuesta y el ARPEM, en la Figura 8 se muestra diagramas de caja y bigotes elaborados a partir del valor de la tasa de acierto, proporcionado por estos algoritmos al término de sus ejecuciones, sobre los datos de entrenamiento (a) y validación (b).

A partir de los datos esquematizados en la Figura 8, se computaron los índices: mejor valor, peor valor, mediana, promedio y desviación típica. Los resultados obtenidos se presentan en la Tabla 16 mostrada a continuación.


Figura 8
Tasa de acierto para ABAD02 y ARPEM en: a) Entrenamiento. b) Validación.

Tabla 16
Índices computados para la tasa de acierto de los algoritmos ABAD02 y ARPEM en fase de entrenamiento y validación.

Se aplicó una prueba de Wilcoxon sobre los datos asociados a la tasa de acierto en fase de validación. El nivel de significancia se fijó en 0,05. Los resultados se resumen en la Tabla 17.

Tabla 17
Resultados de la prueba de Wilcoxon sobre la tasa de acierto en fase de validación para ABAD02 y ARPEM.

Luego, aunque durante la fase de entrenamiento el ARPEM es claramente superior al ABAD02, los resultados de la prueba señalan, con una significancia de 0,05, que desde un punto de vista estadístico no existe diferencia significativa en cuanto a la capacidad de generalización exhibida por la RNM tras ser entrenada mediante ambos algoritmos. Por supuesto, estas afirmaciones son válidas únicamente en el contexto de las condiciones experimentales establecidas.

6. Conclusiones

A partir de los resultados obtenidos en el presente estudio, se evidenció que la implementación de un SIDM para la configuración dinámica de todo el ensamble de parámetros numéricos asociados al ABA se tradujo en una significativa mejora de este algoritmo, en relación a su versión de parámetros fijos, como método numérico aplicado en la resolución de problemas de optimización. Más aún, al ser comparada con FHS, la cual está basada en principios idénticos, la propuesta aquí planteada también representó una mejora sustancial. En lo que respecta a la experiencia sobre el entrenamiento supervisado de una RNM, no se halló diferencia estadísticamente significativa en cuanto a la capacidad de generalización obtenida mediante la aplicación del ARPEM y el esquema propuesto. Finalmente, se insiste en señalar que las conclusiones derivadas son válidas únicamente en el contexto experimental establecido, siendo necesarias ulteriores investigaciones en el futuro.

Material suplementario
7. Referencias
[1] A. Gogna and A. Tayal. Metaheuristics: review and application. Journal of Experimental & Theoretical Artificial Intelligence, 25(4):503–526, 2013.
[2] T. Stützle, M. López-Ibáñez. Automated design of metaheuristic algorithms (technical report institut de recherches interdisciplinaires et de developpements en intelligence artificielle (iridia) number tr/iridia/2018-008). Technical report, Université Libre de Bruxelles, Bruxelles, Belgium: Technical Report Series, 2018.
[3] G. Karafotias, M. Hoogendoorn, A. Eiben. Parameter Control in Evolutionary Algorithms: Trends and Challenges. IEEE Transactions on Evolutionary Computation, 19(2):167–187, 2015.
[4] O. Castillo, F. Valdez, and P. Melin. A survey on nature – inspired optimization algorithms with fuzzy logic for dynamic parameter adaptation. Expert Systems with Applications, 41(14):6459 – 6466, 2014.
[5] O. Castillo, C. Peraza, and F. Valdez. An Improved Harmony Search Algorithm Using Fuzzy Logic for the Optimization of Mathematical Functions. In J. Kacprzyk P. Melin, O. Castillo, editor, Design of Intelligent Systems Based on Fuzzy Logic, Neural Networks and Nature – Inspired Optimization, volume 601, page 605 – 615. Springer – Verlag, Berlín, Germany, 2015.
[6] K. Lee and Z. Geem. A new meta – heuristic algorithm for continuous engineering optimization: harmony search theory and practice. Computer Methods in Applied Mechanics and Engineering, 194(36):3902 – 3933, 2005.
[7] E. Mamdani and S. Assilian. An experiment in linguistic synthesis with a fuzzy logic controller. International Journal of Man – Machine Studies, 7(1):1 – 13, 1975.
[8] K. Ameli, A. Alfi, and M. Aghaebrahimi. A fuzzy discrete harmony search algorithm applied to annual cost reduction in radial distribution systems. Journal of Engineering Optimization, 48(9):1529 – 1549, 2015.
[9] K. Pandiarajan and C. Babulal. Fuzzy harmony search algorithm based optimal power flow for power system security enhancement. International Journal of Electrical Power & Energy Systems, 78(1):72 – 79, 2016.
[10] C. Peraza, F. Valdez, and O. Castillo. An Adaptive Fuzzy Control Based on Harmony Search and Its Application to Optimization. In P. Melin, O. Castillo, J. Kacprzyk, editor, Nature – Inspired Design of Hybrid Intelligent Systems, volume 667, page 269 – 283. Springer – Verlag, Berlín, Germany, 2017.
[11] C. Peraza, F. Valdez, J. Castro, and O. Castillo. Fuzzy Dynamic Parameter Adaptation in the Harmony Search Algorithm for the Optimization of the Ball and Beam Controller. Advances in Operations Research, 2018(7):1–16, 2018.
[12] D. Rumelhart, G. Hinton, and R. Williams. Learning representations by back – propagating errors. Nature, 323(9):533– 536, 1986.
[13] M. Ahangaran and P. Ramezani. Harmony Search Algorithm: Strengths and Weaknesses. Journal of Computer Engineering & Information Technology, 2(1):1–7, 2013.
[14] R. Diao and Q. Shen. Deterministic Parameter Control in Harmony Search. In S. Lucas, editor, 2010 UK Workshop on Computational Intelligence (UKCI), pages 1–7. University of Essex, Colchester, United Kingdom, 2010.
[15] M. Omran and M. Mahdavi. Global – best harmony search. Applied mathematics and computation, 198(2):643 – 656, 2008.
[16] H. Adeli and N. Siddique. Harmony Search Algorithm and its Variants. International Journal of Pattern Recognition and Artificial Intelligence, 29(8):1 – 22, 2015.
[17] C. Wang and Y. Huang. Self – adaptive harmony search algorithm for optimization. Expert Systems with Applications, 37(4):2826 – 2837, 2010.
[18] P. Yadav, R. Kumar, S. Panda, and S. Chang. An intelligent tuned harmony search algorithm for optimisation. Information Sciences, 196:47 – 72, 2012.
[19] J. Chen, Q. Pan, and J. Li. Harmony search algorithm with dynamic control parameters. Applied Mathematics and Computation, 219(2):592 – 604, 2012.
[20] J. Kalivarapu, S. Jain, and S. Bag. An improved harmony search algorithm with dynamically varying bandwidth. Engineering Optimization, 48(7):1091 – 1108, 2016.
[21] M. Mahdavi, M. Fesanghary, and E. Damangir. An improved harmony search algorithm for solving optimization problems. Applied Mathematics and Computation, 188(2):1567 – 1579, 2007.
[22] F. Fernandez, M. Tomassini, and L. Vanneschi. Saving computational effort in genetic programming by means of plagues. In Proceedings of the 2003 Congress on Evolutionary Computation (CEC’03), page 2042 – 2049, Canberra, Australia, 2003.
[23] F. de Vega, E. Cantú–Paz, J. López, and T. Manzano. Saving resources with plagues in genetic algorithms. In X. Yao et al., editor, Parallel Problem Solving from Nature — PPSN VIII, Vol. 3242: Lecture Notes in Computer Science, page 272 – 281. Springer – Verlag, Berlín, Germany, 2004.
[24] M. Fesanghary, M. Mahdavi, M. Minary-Jolandan, and Y. Alizadeh. Hybridizing harmony search algorithm with sequential quadratic programming for engineering optimization problems. Computer methods in applied mechanics and engineering, 197(40):3080 – 3091, 2008.
[25] S. Kulluk, L. Ozbakir, and A. Baykasoglu Training neural networks with harmony search algorithms for classification problems. Engineering Applications of Artificial Intelligence, 25(1):11–19, 2012.
[26] M. Jamil and X. Yang. A literature survey of benchmark functions for global optimization problems. Int. Journal of Mathematical Modelling and Numerical Optimization, 4(2):150 – 194, 2013.
[27] A. Karegowda, A. Manjunath, and M. Jayaram. Application of Genetic Algorithm Optimized Neural Network Connection Weights for Medical Diagnosis of Pima Indians Diabetes. International Journal on Soft Computing (IJSC), 2(2):15–23, 2011.
[28] T. Jayalakshmi and A. Santhakumaran. Statistical Normalization and Back Propagation for Classification. International Journal of Computer Theory and Engineering, 3(1):1793 – 8201, 2011.
[29] H. Faris, I. Aljarah, and S. Mirjalili. Improved monarch butterfly optimization for unconstrained global search and neural network training. Applied Intelligence, 48(2):445 – 464, 2018.
[30] X. Li, K. Tang, M. Omidvar, Z. Yang, and K. Qin. Benchmark Functions for the CEC’2013 Special Session and Competition on Large – Scale Global Optimization. Gene, 7(33):8–30, 2013.
[31] J. Derrac, S. García, D. Molina, and F. Herrera. A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms. Swarm and Evolutionary Computation, 1(1):3–18, 2011.
Notas
Notas de autor

adalmarza@gmail.com


Figura 1
Formato de las funciones de pertenencia implementadas.
Tabla 1
Valores asignados a los puntos de interés de acuerdo con el formato de las funciones de pertenencia implementadas

Tabla 2
Reglas Si – Entonces aplicadas a las variables de entrada (λ).

Tabla 3
Valores asignados a los parámetros de los algoritmos aplicados sobre los problemas de optimización.

Tabla 4
Valores asignados a los parámetros de los algoritmos aplicados sobre el problema de clasificación.

Tabla 5
Instancias de problemas de optimización de tipo multimodal y separable.

Tabla 6
Instancias de problemas de optimización de tipo multimodal y no separable.

Tabla 7
Instancias de problemas de optimización de tipo unimodal y no separable.

Tabla 8
Instancias de problemas de optimización de tipo unimodal y separable.


Figura 2
Representación de pesos sinápticos de una red hipotética de dos (02) capas.

Figura 3
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización multimodal y separable

Figura 4
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización multimodal y no separable.

Figura 5
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización unimodal y no separable

Figura 6
Diagramas de caja y bigotes para los resultados obtenidos sobre las instancias de problemas de optimización unimodal y separable.
Tabla 9
Índices estadísticos computados para problemas de optimización de tipo multimodal y no separable.

Tabla 10
Índices estadísticos computados para problemas de optimización de tipo multimodal y separable.

Tabla 11
Índices estadísticos computados para problemas de optimización de tipo unimodal y no separable.

Tabla 12
Índices estadísticos computados para problemas de optimización de tipo unimodal y separable.

Tabla 13
Resultados de prueba de Wilcoxon sobre los promedios de los índices estadísticos computados para problemas de optimización.


Figura 7
Tasa de acierto para ABA, FHS y ABAD02 en: a) Entrenamiento. b) Validación.
Tabla 14
Índices computados para la tasa de acierto de los algoritmos ABA, FHS y ABAD02 tanto en entrenamiento como en validación.

Tabla 15
Resultados de prueba de Wilcoxon sobre la tasa de acierto en fase de validación.


Figura 8
Tasa de acierto para ABAD02 y ARPEM en: a) Entrenamiento. b) Validación.
Tabla 16
Índices computados para la tasa de acierto de los algoritmos ABAD02 y ARPEM en fase de entrenamiento y validación.

Tabla 17
Resultados de la prueba de Wilcoxon sobre la tasa de acierto en fase de validación para ABAD02 y ARPEM.

Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS4R por Redalyc