Resumen: Objetivo: El objetivo de este trabajo es estudiar las aplicaciones de las diferentes tecnicas de inteligencia artificial y aprendizaje autonomo en la asignacion dinamica de espectro para redes inalambricas cognitivas, es especial las distribuidas. Metodo: El desarrollo del presente trabajo se realizó a traves del estudio y analisis de algunas de las publicaciones mas relevantes en la literatura actual por medio de la busqueda en revistas internacionales indexadas en ISI y Scopus. Resultados: Se determinaron las tecnicas de inteligencia artificial y aprendizaje autonomo mas relevantes y con mayor aplicacion en la asignacion de espectro para redes inalambricas cognitivas. Conclusiones: La implementación de una técnica o del conjunto de las mismas depende de las necesidades en procesamiento de la señal, compensaciones en los tiempos de respuesta, disponibilidad de las muestras, capacidad de almacenamiento, capacidad de aprendizaje, robustez, entre otras.
Palabras clave:aprendizaje autonomoaprendizaje autonomo, asignacion dinamica de espectro asignacion dinamica de espectro, inteligencia artificial inteligencia artificial, radio cognitivas radio cognitivas, redes inalambricas redes inalambricas.
Abstract: Objective: The objective of this work is to study the applications of the different techniques of artificial intelligence and autonomous learning dynamic allocation of spectrum for cognitive wireless networks, is especially distributed. Method: The development of this work was done through the study and analysis of some of the most relevant publications in the current literature through the search in international journals indexed in ISI and Scopus. Results: the techniques of artificial intelligence and autonomous learning more relevant and more application in the allocation of spectrum for cognitive wireless networks were determined. Conclusions: The implementation of a technique or set of them depends on the needs in signal processing, compensation in response times, sample availability, storage capacity, learning ability, robustness, among others.
Keywords: machine learning, dynamic spectrum access, artificial intelligent, cognitive radio, wireless networks.
Revisión
Tecnicas inteligentes en la asignacion de espectro dinamica para redes inalambricas cognitivas
Smart techniques in the dynamic spectrum alocation for cognitive wireless networks
Recepción: 28 Febrero 2015
Aprobación: 15 Mayo 2016
El rápido crecimiento de los nuevos servicios móviles, la prevista escasez del espectro radio eléctrico y la amplia subutilización del mismo, han motivado el uso del modelo de acceso dinámico al espectro (DSA) (Haykin, 2005) y su principio se basa en un conjunto de técnicas soportadas en las teorías de la información y las telecomunicaciones. Así pues, el concepto DSA comprende los campos de acción tales como: los principios de optimización, la inteligencia artificial, el aprendizaje automático, entre otras (Xenakis, Passas, & Merakos, 2014).
En radio cognitiva (CR), DSA incrementa la eficiencia espectral del sistema, permitiendo que los usuarios no licenciados o usuarios cognitivos (CU), puedan utilizar las bandas del espectro espacio-temporalmente infrautilizadas bajo el precedente de ser transparente a los usuarios licenciados o usuarios primarios (PU) (Xenakis et al., 2014). La disponibilidad de un canal de transmisión está definida como la probabilidad de que un canal licenciado se encuentre disponible y pueda ser utilizado por un CU. Esta disponibilidad es un parámetro clave para el efectivo diseño de estrategias de selección de canales de comunicación. (Abdelaziz & ElNainay, 2014; Caleffi, Akyildiz, & Paura, 2012), (Cacciapuoti, Caleffi, Paura, & Rahman, 2015).
Los principales avances en la optimización y en el aprovechamiento del espectro electromagnético para telecomunicaciones, han tenido consigo el planteamiento del paradigma de la CR, como herramienta principal, cuyo objetivo primordial se enmarca en garantizar que la trasmisión y la recepción de los datos, este regido bajo criterios de eficiencia y calidad; partiendo del precedente del estudio del comportamiento de los usuarios y de los estados de la red para la adaptación y repartición idónea o provechosa del espectro radio eléctrico (Abbas, Nasser, & El Ahmad, 2015). En concordancia, las tecnologías de CR son consideradas como el candidato perfecto para detallar y analizar el paradigma de la comunicación (Mitola III & Maguire Jr, 1999).
Un reto particular para dar cumplimiento a lo mencionado con anterioridad, será emplear las técnicas adecuadas para garantizar la exactitud y la eficiencia en las comunicaciones. Así pues, las ciencias de la información serán la herramienta para el tratamiento y administración de datos partiendo del estudio sistemático de los procesos, mediante algoritmos que dan un panorama de la implementación y la aplicación a las posibles soluciones a las premisas que abordan la CR (Abbas et al., 2015).
La mayor parte de los avances en investigación en CR, han llevado a la sinergia de metodologías y técnicas en las teorías de la información hacia el aprovechamiento del espectro electromagnético. Dentro de las metodologías se encuentran inmersas las ciencias de la computación. Específicamente, la inteligencia artificial o artificial intelligence y el aprendizaje automático o machine learning. En consecuencia, estas áreas de la ciencia, han permitido que los campos de acción de la tecnología se extiendan a sub áreas del conocimiento como lo son: la lógica difusa, los algoritmos genéticos, las redes neuronales, los modelos de Markov, las máquinas de soporte vectorial, etc. Si bien, la mayor parte de técnicas empleadas de las existentes en la actualidad, han tenido como principal desafío garantizar la optimización del espacio tiempo del espectro de frecuencias, más aun cuando día a día la demanda y los cambios en los hábitos de consumo, propenden la optimización de las técnicas de adaptabilidad (Abbas et al., 2015).
En (Hashem, Barakat, & AttaAlla, 2014) la eficiente distribución de canales para CRN ha de tener, estudios y análisis de cuáles son las técnicas favorables para optimizar la asignación del espectro. Por tal razón, el presente documento detalla una solución a través de los pesos ponderados de cada canal en función de la actividad de los usuarios del sistema. Para ello, se ha considerado una red ad-hoc para dar una solución específica basada en las entradas de estudio. Es así que la red propuesta posee componentes características que están basadas en el conjunto de nodos de PU y la configuración de nodos de CU. Así pues, los principales supuestos parten de la necesidad de establecer la Multihop Wireless Networks como metodología eficaz que permite brindar mayor cobertura debido a los multi-hop y así mismo mejorar el rendimiento en los saltos de canales en la cobertura presente en los enlaces de comunicación.
Con base en lo anterior, la investigación detalla la creación de una CRN con la habilidad de clasificar canales en función de sus pesos. Así mismo, la clasificación está en función de la no ocupación de usuarios PU y el número de vecinos CU, empleando los rendimientos de cada canal para finalmente lograr mayor conectividad mediante la selección de bandas del espectro y garantizar disminución en la tasa de error de datos trasmitidos. Por último, cabe resaltar que el modelo propuesto ha tenido buenos resultados en comparación a los métodos tradicionales basados en selección aleatoria (Random Channel selections) y difusión selectiva (Selective Broadcas).
En (Del Ser, Matinmikko, Gil-López, & Mustonen, 2012) se revisa el problema de asignación de canal de espectro donde cada nodo que componen la red se le asigna un canal de frecuencia teniendo en cuenta la optimización de la métrica de rendimiento de la red y el nivel de interferencia entre nodos cercanos. Aunque los algoritmos genéticos han sido usados para solucionar este problema, sin embargo esta investigación se enfoca en usar para la solución de este problema un algoritmo de búsqueda de armonías Heurística (HS) presentando resultados tanto en técnicas de asignación del espectro distribuida como asignación centralizada. Entre estos avances, se presenta un nuevo procedimiento de asignación distribuida de adaptación, lo que disminuye drásticamente la velocidad de transmisión requerida para el intercambio de control de tráfico entre los nodos con una penalización de rendimiento todavía insignificante. Extensas resultados de la simulación ejecutados a través de redes de tamaño creciente muestran que la técnica propuesta logra asignaciones de canales espectrales casi óptimas con baja complejidad computacional. Por otro lado, los resultados obtenidos al evaluar el algoritmo HS superan ampliamente los algoritmos de asignación genéticamente inspirados. Finalmente, se muestra el enfoque de la asignación distribuida de adaptación propuesto para lograr un ahorro de ancho de banda de tráfico de control de más de 90%.
En (Hasegawa, Hirai, Nagano, Harada, & Aihara, 2014) se centra en algoritmos de optimización para mejorar el proceso decisorio en el uso de recursos de radio en redes cognitivas inalámbricas heterogéneas. En las redes con manejo centralizado, se propone un nuevo algoritmo de optimización cuya solución se garantiza que sea exactamente óptima. Para evitar un aumento exponencial de la complejidad computacional en redes inalámbricas en gran escala, por tanto se modela el problema de optimización como un problema de costo mínimo de flujo y se encuentra una la solución del problema en tiempo polinómico. Para las redes de gestión descentralizada, se propone un algoritmo distribuido utilizando la dinámica de minimización de la energía distribuida de la red neuronal Hopfield.
En (Ma, 2007) se estudia la técnica de acceso espectral distribuida para canales de interferencia de múltiples bandas sobre redes de radio cognitiva (CRN). Se propone una novedosa técnica de asignación de portadora compartida (SCA) y técnica de asignación exclusiva (ECA) con división de frecuencia ortogonal de acceso múltiple (OFDMA) comparando su rendimiento bajo distintos parámetros del sistema. Basado en SCA se propone un método basado en la relación señal a ruido (SINR), umbral de Carga basado en waterfilling (IWF), que mejora la tasa de suma que el método original de IWF. Para ECA se propone un algoritmo de división OFDMA para lograr tanto la equidad proporcional y rendimiento cercano a lo óptimo. Variando diferentes parámetros como la máscara espectral, SNR, y el nivel de interferencia se muestran con los resultados de la simulación, que muestran que ECA es preferible frente a SCA para los casos de poca interferencia y para niveles de SNRs medio y altos.
En (Liu, Feng, & Zhang, 2012) se propone un nuevo enfoque de la asignación de espectro para CRN distribuidos, tomando en consideración que los sistemas de CR son capaces de detectar las condiciones ambientales reinantes y automáticamente la adaptación de los parámetros de funcionamiento con el fin de mejorar el sistema y el rendimiento de la red. Teniendo en cuenta las capacidades de CR el enfoque de esta investigación se enfoca en optimizar cada dispositivo inalámbrico individual y sus enlaces de comunicación de un solo salto utilizando la información del ambiente de los dispositivos cercanos dentro de la red inalámbrica. Suponiendo nodos inalámbricos estacionarios, todos los enlaces de comunicación inalámbricos emplean multiplexación por división de frecuencia ortogonal no contigua (NC-OFDM) con el fin de permitir el acceso de espectro dinámico (DSA). El enfoque propuesto intenta reducir al mínimo la tasa de error de bit, minimizar la interferencia fuera de banda (OOB), y maximizar el rendimiento general utilizando una función de adecuación multi-objetivo. Para esto se emplean algoritmos genéticos los cuales se emplean para desarrollar la optimización necesaria.
En (Naeem, Anpalagan, Jaseemuddin, & Lee, 2014) se presenta un estudio de asignación de recursos en CRN cooperativas. Se discute asimismo los objetivos y protocolos utilizados en la literatura para la asignación de recursos en CRN cooperativa. Se destaca el uso de control de potencia, tipos de cooperación, las configuraciones de red y tipos de decisión utilizados en CRN cooperativa. Los sistemas de comunicación cooperativa, pueden aumentar la velocidad de datos de los sistemas de comunicación inalámbrica con los mismos valores de potencia y ancho de banda en sistemas de comunicaciones inalámbricas. Si la CR toma en cuenta el concepto de comunicación cooperativa esto podría significar un rendimiento mayor en la red inalámbrica.
En (Saranya, Santhkumar, & Ruby, 2014) se analiza el rendimiento de los algoritmos de selección de canal, SURF y de Difusión Selectiva (SB) para seleccionar canales distribuidos en CRN. La CR es capaz de identificar las bandas con licencia están siendo infrautilizadas en el espectro y permite la reutilización a los CU, cada vez que el canal este desocupado. El método de selección de canal distribuido se utiliza para la transferencia de datos en múltiples saltos. De ahí que la relación promedio de entrega se mejora y las interferencias perjudiciales causadas por los nodos de radio primarios se reducen de manera considerable. A través de simulaciones en NS-2 se analizan los resultados y se confirma que SURF prueba ser un método eficaz para la selección de canal.
En (Rehmani, Viana, Khalife, & Fdida, 2013) se propone una estrategia de selección de canal inteligente y distribuido para la difusión de datos eficiente en múltiples saltos de red de CR. La estrategia, SURF, clasifica los canales disponibles y los utiliza de manera eficiente para aumentar la fiabilidad de difusión de datos en las CRN multi-hop. La clasificación se realiza sobre la base de no ocupación por parte del usuario principal y el número de vecinos de CR utilizando los canales. A través de extensas simulaciones en NS-2, se estudia el comportamiento de SURF en comparación con cuatro enfoques relacionados. Los resultados de la simulación confirman que SURF es eficaz en la selección de los mejores canales para una comunicación eficiente y máxima accesibilidad de difusión en las CRN multi-hop.
Los autores, (Bayat, Louie, Li, & Vucetic, 2011) proponen un algoritmo de acceso al espectro distribuido, enfocado a la retransmisión de redes en radio cognitivo, con múltiples PU y múltiples CU. El eje central del algoritmo propuesto, se enfoca en que los PU intercambien con los CU la cantidad de tiempo permitido de acceso en el espectro, de manera que ambos usuarios se encuentren compensados. Dentro del análisis numérico se observa que el algoritmo puede lograr un gran desempeño, comparable al alcanzado por un algoritmo de centralización óptima, y superando al algoritmo de emparejamiento aleatorio. También demuestra la capacidad de lograr, un alto número de intercambios con bajos gastos generales y menor complejidad. Gracias a la reemisión cooperativa, se obtiene una mayor velocidad de la que se lograría sin repetición cooperativa, es decir, en transmisión directa.
Los autores (Liang, Lai, & Halloran, 2009), incorporan la idea de realizar una implementación distribuida, que se ocupe de la mejor asignación de CU, para la detección de los PU, de manera que la probabilidad de error de detección se reduzca al mínimo. Proponen un algoritmo de eliminación, para encontrar de manera eficiente la mejor asignación; mediante la elaboración de conexión entre el problema actual, y el problema de inferencia en el contexto de modelos probabilísticos.
En el documento (Debroy, De, & Chatterjee, 2014) se realiza el diseño de un protocolo, de contienda, el cual es distribuido para control de acceso al medio (MAC), atendiendo el acceso al canal de los CU. El protocolo MAC propuesto, permite un acceso libre de colisiones, para los canales de datos disponibles; y, su utilización por los CU. Se resalta la parte de detección del espectro, la cual es aplicada por los nodos, como sensores exclusivos. También se implementa, la provisión de la reserva de canales libres, por los CU durante períodos prolongados; para aumentar su uso sin causar interferencias perjudiciales en los PU. Los autores (Debroy et al., 2014), muestran cómo el acceso ampliado a los recursos, se puede ajustar para proporcionar una calidad, diferencial del servicio a los CU. Finalmente se evalúa el desempeño del protocolo mediante una simulación. En condiciones óptimas, el sistema propuesto permite a los CU en la red, utilizar todos los canales disponibles, superando los esquemas existentes MAC en las redes distribuidas.
Una CR se define como un sistema de comunicación inalámbrica inteligente, que es consciente de su entorno y utiliza la comprensión para aprender del entorno y adaptarse a las variaciones estadísticas en los estímulos de entrada (Haykin, 2005), (Bkassiny, Li, & Jayaweera, 2013).
En (Michalski, 1995), hay tres condiciones principales para la inteligencia: (1) Percepción, que es la capacidad de percibir el entorno y los estados internos para adquirir información; (2) Aprendizaje, es la capacidad de transformar la información en conocimiento adquirido mediante el uso de metodologías de clasificación y generalización de hipótesis; (3) Razonamiento, donde el conocimiento se utiliza para lograr ciertos objetivos (Bkassiny et al., 2013).
Como resultado, el aprendizaje está en el núcleo de cualquier dispositivo inteligente, incluyendo, en particular, los CR. Es la herramienta fundamental que permite a un CR para adquirir conocimiento a partir de los datos observado.
Ahora bien, la percepción se puede lograr a través de las mediciones de detección del espectro. Esto permite que el CR para identificar las actividades en curso de radiofrecuencia (RF) en su ambiente circundante. Después de la adquisición de las observaciones de detección, el CR intenta aprender de ellos con el fin de clasificar y organizar las observaciones en categorías adecuadas (conocimiento). Por último, la capacidad de razonamiento permite al CR utilizar los conocimientos adquiridos a través del aprendizaje para lograr sus objetivos. Este proceso se llama ciclo-cognición (Mitola III & Maguire Jr, 1999), (Bkassiny et al., 2013).
La definición más ampliamente aceptada de CR, es una radio que puede detectar y adaptarse a su medio ambiente (Clancy, Hecker, Stuntebeck, & Shea, 2007; Haykin, 2005; S. Jayaweera & Christodoulou, 2011; Mitola, 2000). El término cognitivo implica la conciencia, percepción, razonamiento y el juicio. Como ya señalamos anteriormente, con el fin de CR para derivar el razonamiento y el juicio de la percepción, que debe poseer la capacidad de aprendizaje (Michalski, 1995). El aprendizaje implica que las acciones actuales deben basarse en observaciones pasadas y actuales del medio ambiente (Burbank, Hammons Jr, & Jones, 2008). De este modo, la historia juega un papel importante en el proceso de aprendizaje de los CR. (Bkassiny et al., 2013)
Varios problemas de aprendizaje son específicos de las aplicaciones de CR debido a sus entornos de RF operativo. En primer lugar, debido a las observaciones ruidosas y los errores de detección, CR sólo puede obtener observaciones parciales de sus variables de estado. El problema de aprendizaje es por lo tanto equivalente a un proceso de aprendizaje en un entorno parcialmente observable y debe ser tratada en consecuencia.
En segundo lugar, los CR en CRN tratan de aprender y optimizar sus comportamientos simultáneamente. Por lo tanto, el problema es, naturalmente, un proceso de aprendizaje multi-agente. Por otra parte, la política de aprendizaje deseado puede basarse ya sea en esquemas cooperativos o no cooperativos y cada CR podría tener ya sea el conocimiento total o parcial de las acciones de los otros usuarios cognitivos en la red. En el caso de observabilidad parcial, un CR podría aplicar algoritmos de aprendizaje especiales para estimar las acciones de los demás nodos de la red antes de seleccionar sus acciones apropiadas, como en, por ejemplo (Bkassiny et al., 2013), (Claus & Boutilier, 1998).
Por último, se desean métodos de aprendizaje autónomo con el fin de permitir a los agentes de la CR aprender por sí solos en un entorno de RF desconocido. En contraste con los usuarios inalámbricos con licencia, se espera que una CR pueda operar en cualquier banda de espectro disponible, en cualquier momento y en cualquier lugar (S. Jayaweera & Christodoulou, 2011). Por lo tanto, un CR no puede tener ningún conocimiento previo del entorno de RF de funcionamiento tales como los niveles de ruido o interferencia, distribución de ruido o tráficos de usuario. En su lugar, debe poseer algoritmos de aprendizaje autónomo que puedan revelar la naturaleza subyacente del medio ambiente y de sus componentes. Esto hace del aprendizaje no supervisado el candidato perfecto para este tipo de problemas de aprendizaje en aplicaciones de CR. (Bkassiny et al., 2013)
En resumen, las tres características principales que deben tenerse en cuenta en el diseño de algoritmos de aprendizaje eficaces para CR son:
- Aprender en entornos parcialmente observables.
- Aprendizaje multi-agente en CRNs distribuidos.
- El aprendizaje autónomo en entornos de RF desconocidos.
La teoría de juegos es utilizada como una herramienta en la toma de decisiones en donde varios jugadores se enfrentan a una serie de situaciones en donde deben tomar medidas que en la mayoría de los casos puede afectar los intereses de los otros. En otras palabras, cada jugador decide sobre sus acciones en función del historial de acciones de los otros jugadores en rondas anteriores del juego. Así pues, la explicación anterior aplica en la CR, en donde cada RC es un jugador y cada acción se encuentra establecida por los parámetros de radio frecuencia del sistema; tales como: la potencia de trasmisión, la selección de canales, entre otras (Bellhouse, 2007).
Existen varios tipos de juegos se han adaptado a diferentes situaciones en CRNs [98]. Juegos supermodulares se han utilizado para el control de potencia distribuida en (Li, Chen, Li, & Ma, 2007; Zhang & Zhao, 2010), y para la adaptación de velocidad en (Pillutla & Krishnamurthy, 2008).
El modelo de juego de Stackelberg se puede utilizar como un modelo para implementar el comportamiento del RC en el arrendamiento de espectro cooperativo en el que los PU actúan como los juegos líderes y CU como los seguidores (Simeone et al., 2008).
En los juegos de subastas los jugadores son los compradores que debe seleccionar la estrategia de oferta adecuada con el fin de maximizar su utilidad percibida (es decir, el valor de los artículos adquiridos menos el pago al vendedor). El concepto de juegos de subastas ha aplicado con éxito al arrendamiento espectro dinámico de cooperación (DSL) en (S. K. Jayaweera, Bkassiny, & Avery, 2011; S. K. Jayaweera & Bkassiny, 2011), así como a la asignación de espectro de problemas en (L. Chen, Iellamo, Coupechoux, & Godlewski, 2010). Los fundamentos de los juegos de subastas y los desafíos abiertos de la aplicación de juegos de subastas en el campo de la gestión del espectro se discuten en (Iosifidis & Koutsopoulos, 2011).
Juegos estocásticos (o juegos de Markov) se pueden utilizar para modelar el comportamiento codicioso de una CR en un CRN, donde cada CR trata de aprender de su mejor respuesta y así mejorar sus estrategias en el tiempo (Fu & Van der Schaar, 2008).
En particular, el aprendizaje sin pérdida (Learning no-regret) permite a los jugadores que inician y no están informados adquirir el conocimiento sobre su estado en el entorno del juego repetido (Latifa, Gao, & Liu, 2012).
El concepto de pérdida se relaciona con el beneficio de un jugador que siente después de tomar una acción en particular. La acción que tenga la menor pérdida se actualiza con los pesos más altos y por lo tanto se seleccionan con mayor frecuencia (Latifa et al., 2012).
El aprendizaje sin pérdida se aplicó en (Latifa et al., 2012) para permitir a un CR actualizar tanto su potencia de transmisión como las frecuencias de forma simultánea. En (Q. Zhu, Han, & Başar, 2010), se utiliza para detectar los nodos maliciosos en la detección del espectro, mientras que en el aprendizaje (Z. Han, Pandana, & Liu, 2007) sin pérdida se utilizó para lograr un equilibrio correlacionado en el acceso oportuno al espectro de los CR.
Recientemente, (Xu, Wang, Wu, Anpalagan, & Yao, 2012) propuso una solución de aprendizaje estocástico de teoría de juegos para el acceso al espectro cuando no se conocen los datos a priori o las estadísticas de disponibilidad de canal o el número de CU. El modelo de (Xu et al., 2012) proporciona una solución alternativa a los esquemas de acceso al espectro propuestos en [9].
La primera red neuronal artificial fue presentada por el Neurophysiologist W. McCulloch y el Matemático W. Pits in 1943 para el estudio del cerebro humano. La idea de la red neuronal artifical (ANN) fue aplicada a modelos computacionales. En otras palabras, se tenía un conjunto de funciones no lineales con parámetros ajustables para dar respuesta a una salida deseada (He et al., 2010). De manera que, las redes neuronales podrían interactuar entre la experiencia y el aprendizaje debido al entrenamiento.
Aunque existe una numerable combinación de redes neuronales, en las RC se han implementado cuatro clases con resultados favorables. La primera Multi-layer linear perceptron networks (MLPNs), la segunda Nonlinear Perceptron Networks (NPN), la tercera radial basis function networks (RBFN) y la cuarta como una aplicación de ANN en las CR.
La mayor parte de las diferentes combinaciones de las redes neuronales artificiales, han sido adoptadas en la detección del espectro para CRs (Fehske, Gaeddert, & Reed, 2005) (X.-L. Zhu, Liu, Weng, & Yuan, 2008) como clasificador de señales utilizando la extracción de futuras señales de ciclo estacionario. Por tal razón, el uso de las ANN y la combinación de señales ciclo estacionarias, garantiza una clasificación estable, eficiente y fiable, reduciendo tiempos de procesamiento mediante la realización de una cantidad representativa de cálculos. No obstante, en (X.-L. Zhu et al., 2008) se emplea un algoritmo de detección de espectro basado en Wireless Mesh Networks. Este último algoritmo muestra un mejor rendimiento en la precisión y velocidad en comparación a los algoritmos por teoría Bayesiana.
Así mismo, en (Baldo & Zorzi, 2008) se han empleado ANN para caracterizar la comunicación en tiempo real de las RC, con el propósito de medir los tiempos de ejecución que ofrece cierta capacidad de aprendizaje que puede ser explotado por los motores cognitivos. No obstante, en (Ustundag & Orcay, 2008) (Benidris, Benmammar, & Bendimerad, 2012) se han empleado ANN para la clasificación de patrones de trasmisión.
Este tipo de algoritmos en comúnmente empleado para resolver problemas computacionales en donde las entradas principales son definidas por el usuario sobre procedimientos genéricos basados en optimizaciones combinatorias. Por tal razón, son aplicados a complejos problemas computacionales a través de espacios de soluciones (Glover, 1986). Varios algoritmos metaheurísticos son descritos a continuación.
Su principal campo de acción se encuentra inmerso en la optimización y búsqueda de soluciones, inspirado en la evolución genética y la selección natural de las especies por naturaleza (Goldberg & Holland, 1988).
Los algoritmos evolutivos hacen parte de las ciencias de la computación y su principal enfoque está determinado en la inteligencia artificial; siguiendo la terminología de la teoría de la evolución. Así pues, es común encontrar definiciones de los cromosomas y funciones de aptitud como descriptores de un algoritmo genético. En donde los cromosomas, son representaciones abstractas de las soluciones candidatas y la función de aptitud está estrechamente relacionada con el objetivo del algoritmo para los procesos de optimización.
Una función ideal de aptitud debe presentarse para un procesamiento rápido, debido a que es importante anticiparse a las que serían varias evaluaciones para producir una sola generación y de este modo producir un resultado útil. En concordancia, un algoritmo genético mantiene una población de soluciones candidatas para un problema dado (He et al., 2010), en donde se evalúa la condición física de la población para obtener aquellos individuos que pueden formar una nueva generación o si bien puedan experimentar mutación para seguir aumentando los niveles de aptitud.
Este método está basado en la capacidad probabilística para aproximar un óptimo global de una función dada (Kirkpatrick & Vecchi, 1983). Este método metaheurístico ha sido ampliamente empleado para aproximar una optimización global de un gran espacio de búsqueda. Dicho de otro modo, este enfoque, está motivado en el proceso de fundición de la metalurgia, en donde la elevación de la temperatura de una muestra puede reducir o eliminar defectos y lograr la perfecta cristalización del material (He et al., 2010).
En cada caso, este algoritmo considera algunos vecinos de los estados actuales y En cada paso, el algoritmo SA considera algunos vecinos de los estados actuales y probabilísticamente decide o bien mover el sistema en el estado o permanecer en los estados. Las probabilidades se eligen de modo que el sistema en última instancia, tiende a moverse a estados de menor energía. Normalmente, este paso se repite hasta que el sistema alcanza un estado que es lo suficientemente bueno para la aplicación o hasta que un presupuesto de cálculo en cuestión se ha agotado. El tamaño del espacio de búsqueda local es generalmente una función del nivel actual de energía o, a veces, el tiempo desde el inicio. De esta manera, el algoritmo recorre inicialmente en una amplia área del espacio de búsqueda que contiene buenas soluciones, haciendo caso omiso de pequeñas características de la función de energía, y cuando se mueve hacia las regiones de menor energía, el espacio de búsqueda se hace más estrecho y más estrecho (He et al., 2010).
Este método se basa en la optimización matemática de técnicas de búsqueda local, mediante el empleo de una estructura de memoria (Niyato & Hossain, 2009). Su principal modo de operación se basa en la búsqueda local o por vecindades en listas de almacenamiento. Así pues, los datos guardados son utilizados de diferentes maneras para guiar los procesos de búsqueda. Por ejemplo, cuando tenemos el proceso de búsqueda en una región con más soluciones aceptables en donde se selecciona un conjunto de las mismas que se acercan a la necesidad actual.
Esta técnica, está inspirada en el comportamiento de las hormigas en la búsqueda de caminos más cortos desde sus colonias a la fuente de alimentos más próxima (Dorigo & Blum, 2005). Los algoritmos desarrollados por las ciencias de la computación, detallan la manera probabilista de solucionar problemas a rutas críticas presentes en el flujo continuo que empieza desde el planteamiento de un problema, hasta la obtención de una solución.
La implementación de este tipo de algoritmos ha estimulado la idea original de resolver problemas numéricos con base en los preceptos de la naturaleza animal. En donde los algoritmos han de seguir los mismos patrones de alcance, adaptabilidad a los cambios y desafíos del entorno. Por consiguiente, los algoritmos por colonias de hormigas combinan la información de historial de eventos para luego crear una estructura de posibles soluciones y así concatenarlas a partir de sucesos anteriores.
Dentro de las principales aplicaciones de los algoritmos Metaheurísticos encontramos, el uso de técnicas para el aprendizaje con la ayuda de ejemplos de entrenamiento, más aún cuando la relación entre los parámetros y las medidas de rendimiento deseado, no se entienden bien (He et al., 2010).
La optimización en la implementación de este tipo de técnicas es comúnmente empleado dada su alta capacidad para resolver problemas cuya complejidad multidimensional puede ser abordada de forma autónoma. Por esta razón, los algoritmos genéticos han sido ampliamente adoptados para resolver optimización multi-objetivo y problemas de configuración dinámica en CRN, en respuesta al cambiante entorno inalámbrico de las redes de comunicación (Rondeau, Le, Rieser, & Bostian, 2004) (Newman et al., 2007) (Yong, Hong, & Qing, 2009).
Las investigaciones desarrolladas en (Rondeau, Le, et al., 2004) han evidenciado la aplicación de algoritmos genéticos como medio de adaptación de parámetros en la radio definida por software, para el entorno de radio comúnmente cambiante. Así mismo, en (Newman et al., 2007) se plantea diseñar un motor cognitivo basado en algoritmos genéticos para controlar parámetros de radio, de una portadora y muti-portadora.
En (Hauris, 2007) los algoritmos genéticos han sido empleados para para adaptar los parámetros de RC en los vehículos autónomos. Estos vehículos autónomos forman una red inalámbrica dinámica geográficamente variable para la comunicación y el intercambio de información entre los vehículos y la estación base (BS) (He et al., 2010). En otro escenario, en (J. M. Kim et al., 2008) se plantea el modelo de implementación de un software operado por banco de pruebas de RC con la capacidad de detección del espectro y la adaptabilidad en los motores cognitivos basados en algoritmos genéticos para la optimización de los parámetros de acceso dinámico del espectro.
Hidden Markov Model (HMM)
El modelo oculto de Markov (hidden Markov model - HMM) es un modelo estadístico para describir y analizar el comportamiento dinámico de un fenómeno aleatorio complejo (Rabiner, 1989) que puede ser modelado como un proceso de Markov con estados observables y no observables. El HMM genera secuencias de símbolos de observación al hacer transiciones de estado a estado. Sin embargo, los estados están ocultos, y sólo la salida es observable. En general, un proceso en el mundo real puede ser expresado como un proceso aleatorio que produce una secuencia de símbolos de observación o parámetros ocultos que generan los observables. Los símbolos o patrones pueden ser discretos o continuos dependiendo de los procesos específicos.
Un HHM por completo se puede especificar en una forma compacta de la forma , donde es un estado de transición de la matriz de probabilidad con dimensiones , es la matriz probabilística de observación de símbolos y la probabilidad de vector de estado inicial tiene la dimensión , es el número de estados y es el número de símbolos de observación distintos por estado.
Numerosas aplicaciones de algoritmos por HHM en CR, han sido empleadas para construir sistemas específicos en la explicación de la ocurrencia de los símbolos o patrones observados. Este modelo se puede utilizar para identificar las secuencias de observaciones con el mismo patrón mediante la elección del modelo más probable para producir las secuencias observadas. Por lo tanto, un HMM se puede utilizar como un proceso de observación de motor cognitivo para reconocer o clasificar los estímulos recibidos y poder alcanzar la conciencia. Además, ya que puede reproducir las secuencias de entrenamiento, que puede ser utilizado para la predicción. Además, el aprendizaje se puede lograr mediante la creación de nuevos modelos (He et al., 2010).
Diferentes propuestas han estado inmersas en el aprovechamiento del espectro radio eléctrico tal como de menciona en (K. Kim et al., 2007), en dónde. La principal propuesta se basaba en el uso del HMM para procesar la señal ciclo estacionaria de detección de la señal primaria en RC. El método de detección del espectro se basa en que el HMM puede detectar y clasificar las señales de bajo ruido con sólo información limitada sobre el ancho de banda de la señal. No obstante, En (Ghosh, Cordeiro, Agrawal, & Rao, 2009) se valida la existencia de un modelo de la cadena de Markov para la utilización del canal inalámbrico con datos en tiempo real medidos en la banda de paginación para finalmente, formular el problema de detección de espectro usando un HMM.
En las ciencias de la computación, es una técnica empleada para manipular el conocimiento e interpretar la información de la mejor forma. Un ejemplo cercano en la implementación de RBS (Ali, 2012), se puede apreciar en los sistemas expertos que utilizan reglas para hacer deducciones o elecciones. Su principal modo de articular la optimización de resultados se basa en las afirmaciones expuestas en (He et al., 2010). La primera indica, la lista de reglas permanentes, mientras que la segunda indica, el motor de inferencia (Inference Engine - IE) Esto hace deducir información o tomarla basada en las entradas y en las reglas.
El razonamiento basado en reglas de motores cognitivos (RBR-CE) ha sido diseñado para la optimización de RC (Reed, 2006) (Y. Zhao et al., 2007) (Clancy et al., 2007). En consecuencia, numerosas investigaciones han mostrado y evaluado este tipo de técnicas para el estándar IEEE 802.22, cuya utilización ha estado enfocada en la empleabilidad de espacios blancos en el espectro de frecuencia de los canales de TV más específicamente para aplicaciones inalámbricas de red de área rural (WRAN). Es así que, la implementación de estas técnicas, puede conseguir un rendimiento similar a los motores cognitivos sobre la base de los algoritmos genéticos con una complejidad computacional menor.
Ontología es una definición formal de las ciencias de la computación en donde se catalogan variables necesitadas para establecer relaciones entre las mimas (Guarino, 1998). Como una representación formal, la ontología se convierte en la maquina comprensible, capaz de ser aceptada o compartida en un conjunto de datos útil. De esta manera, la ontología se utiliza para razonar acerca de los atributos del dominio o de interés. Los autores en (Guarino, 1998) definen las cuatro principales componentes de la ontología. En primer lugar, realicen una categoría de clase cuyos conjuntos de objetos están en el dominio de modelado. En segundo lugar, se presentan los casos en donde los individuos que pertenecen a las clases están siendo estudiados a través del modelado del dominio. En tercer lugar, la asignación de atributos al detallar las propiedades de los objetos y por último, en el cuarto lugar, las relaciones o enlaces entre varias entidades.
Las principales ontologías han sido aplicadas para facilitar el procesamiento de máquina. En consecuencia, los números lenguajes de ontologías de han desarrollado con base en la Web debido al alto impacto en la Word Wide Web (He et al., 2010).
El razonamiento basado en casos, es una técnica de la inteligencia artificial, encargada de solucionar nuevos problemas basados en las soluciones del historial de eventos experimentados por el sistema [69]. En una CBS, una solución al nuevo problema se crea mediante la selección de los casos que son más relevantes para el problema, la reducción a los casos seleccionados a un solo caso, y la adaptación de este caso para amoldearse a la situación actual.
Los algoritmos CBS son un tipo de programa experto que intenta imitar el comportamiento del ser humano en alguna temática con las mismas características decisorias para resolver problemas dentro de los dominios parcialmente entendidos. Así mismo, este sistema cuenta con la capacidad de proporcionar una explicación única ante los sucesos o decisiones que necesite tomar
Una de las cuestiones clave de la CBS es que el rendimiento se basa en los casos anteriores. Si los casos anteriores se han resuelto de forma incorrecta, es posible que los errores se propaguen a nuevos casos con falencias (He et al., 2010). Además, para un dominio complejo en el que el sistema requiere una base de datos numerosa para representar sus características, rellenar y buscar una base de datos de casos específicos, puede llevar mucho tiempo y a veces puede llegar a tornarse algo compleja. En este caso, la integración con otras técnicas tales como las RBS puede ser necesarias para mejorar el rendimiento y reducir los tiempos de transferencia.
La numerosa combinación de estados de tráfico en las redes de comunicación puede ser estudiada para obtener patrones de actividad, modelos de ocupación, asignación de canales, etc. Lo anterior, con base en el historial de eventos de la red. Es así como investigaciones recientes, han evaluado diversos escenarios de radio y comparado con los algoritmos de opmización Multi-Objective, incluyendo la búsqueda de escala (hill-climbing search – HCS) en algoritmos genéticos.
En (Le, Rondeau, & Bostian, 2007), se propone implementar una arquitectura de motor cognitivo junto con las CBR. Así mismo, se discuten las funcionalidades de los bloques de construcción en el ciclo de la cognición y de la búsqueda de sucesos pasados, incluyendo la conciencia medioambiental, el aprendizaje basado en casos, optimización multi-objetivo, y la interfaz de hardware portátil. También se sugiere la implementación de los bloques de construcción.
La lógica difusa resulta ser una posición relativa desde el observador principal. Sin embargo, las conclusiones de la técnica están respaldas por métricas iniciales que describen el conjunto de valores admisibles de una muestra. De tal manera, la lógica difusa aunque con una tasa de estudio aleatoria permite obtener valores diferentes a los supuestos de verdadero o falso (Gavrilovska, Atanasovski, Macaluso, & DaSilva, 2013).
La lógica difusa proporciona al sistema, razonamiento aproximado mediante conjuntos de reglas, teniendo la capacidad de obtener condiciones de incertidumbre mediante la predicción de consecuencias, además de la capacidad de adaptarse a nuevas situaciones(Dadios, 2012).
Diferentes investigaciones (Abbas et al., 2015), (Matinmikko, Del Ser, Rauma, & Mustonen, 2013) han aplicado la teoría de lógica difusa en la CR para resolver los problemas en función de la asignación del ancho de banda, estudiando de antemano la interferencia y la administración de la energía, los anteriores como métodos de evaluación en la correcta asignación del espectro. No obstante, diferentes resultados de estudios han detallado tópicos como la inferencia difusa centralizada, que asigna los anchos de banda correspondientes a la intensidad de tráfico y la prioridad del servicio. Así pues, esta última detalla como los CU tienen que presentar solicitudes de ancho de banda al administrador primario de la red (Abbas et al., 2015). Del mismo modo el administrador analiza el tráfico desde la cola y verifica los retardos producidos por la demora en la trasmisión de paquetes. En otras palabras se determina la latencia para el acceso a CU.
Este método permite a los agentes software aprender de sus estados pasados con el fin de mejorar las acciones y movimientos futuros. La clave de su éxito se basa bajo la técnica de ensayo y error, maximizando la recompensa. Por lo cual, esta técnica consiste en la evaluación de los estados del medio ambiente de estudio, las normas para la trasmisión entre estados, las acciones bajo los supuestos, la recompensa inmediata de las reglas de transición y por último pero no menos importante, las reglas de transición de los agentes de software en un entorno dado (Busoniu, Babuska, & De Schutter, 2008) (van Otterlo, 2012).
El aprendizaje por refuerzo ha sido incorporado en la CR específicamente en las telecomunicaciones móviles para la reducción de los retrasos de trasmisión y para el mejoramiento de la calidad del servicio de los CU. Por tal razón, la investigación desarrollada por los autores (Abbas et al., 2015) muestra la capacidad de implementar un sistema de errores y recompensas en función de cada decisión. Así pues, con la implementación de esta técnica, se tendría un óptimo desempeño en la toma decisiones en la administración del espectro electromagnético. No obstante, la misma investigación detallo el procesos de modelar problemáticas de CR mediante algoritmos de Markov, en donde las variables principales de estudio serían el costo y el tiempo de las trasmisiones de datos.
Las máquinas de soporte vectorial (SVM) son el conjunto de algoritmos que tienen la capacidad de aprender bajo la supervisión de un agente de software. Su principal modo de operación está en función de la regresión y la clasificación en el aprendizaje. Esta técnica es utilizada para llegar a márgenes de clasificación en un conjunto de datos (J. Han, Kamber, & Pei, 2011). Por lo tanto, el principal objetivo de las SVM consiste en establecer un modelo de predicción en donde una entrada incierta puede ser identificada en una categoría u otra.
Una de las principales aplicaciones de esta técnica en CR, es atribuida a los autores referenciados (J. Han et al., 2011), en donde las principales investigaciones objeto de estudio han sido encaminadas a generar algoritmos de clasificación de redes secundarias usadas en detección espectral y toma de decisiones. La clasificación es basada en secuencia de pulsos, extensión de repetición y el procesamiento en la circulación de datos.
Otra interesante investigación desarrollada por los autores en (Min Lin, Jian Ouyang, 2013) muestra la adaptabilidad de las SVM para la solución de las CRs en las áreas beam-forming; en donde parámetros importantes como la retrasmisión son estimulados para minimizar la potencia total de la estación base, garantizando en el mismo sentido, una adecuada calidad en el servicio de los PU y CU. No obstante, en las CRN se han empleado numerosos algoritmos SVM para resolver los problemas de optimización de filtrado espacial, por lo que esta última ha sido comúnmente implementada para el procesamiento de señales mediante redes de sensores en los procesos de trasmisión y recepción de datos.
Las técnicas de inteligencia artificial son el núcleo de la mayor parte de los procesos de la CR. Por tal razón, en los siguientes apartados se presenta un resumen de las técnicas más favorables y cuyo análisis se centra en el aprovechamiento óptimo del espectro para comunicaciones. La tabla 1 describe las ventajas y desafíos de cada técnica.
Las redes neuronales artificiales son simulaciones matemáticas basadas en redes neuronales biológicas, que se utilizan principalmente para la coincidencia de patrones no lineales y modelos estadísticos (He et al., 2010). Son capaces de describir las relaciones complejas entre los conjuntos de datos multidimensionales y tiene la capacidad de ser aprender bajo la ponderación de unos pesos de entrada.
Los algoritmos meta-heurísticos de búsqueda no son muy eficientes cuando las reglas deben ser aprendidas de un conjunto de parámetros del sistema. Además, la eficacia de los algoritmos en sí puede ser mejorada mediante la fusión con otros algoritmos en conjunción con el aprendizaje. Por tal razón, mecanismos tales como el aprendizaje basado en el conocimiento previo (Mitchell, 1997) son ampliamente implementados como complemento y base de la estructura algorítmica.
El mayor desafío para los algoritmos meta-heurísticos radica en la búsqueda de una hipótesis de espacio. Por definición, estas técnicas sólo tratan de encontrar las mejores hipótesis desde el espacio de búsqueda y no pueden crear nuevas hipótesis más allá del espacio en donde son comprendidas.
Un enfoque basado en HMM analíticamente puede modelar un proceso estocástico complicado utilizando la secuencia de observación. Tanto la clasificación y la predicción sepuede lograr utilizando un HMM. Sin embargo, el desarrollo de un HMM requiere una buena secuencia de entrenamiento, y el proceso de formación puede ser complejo computacionalmente (He et al., 2010). Sin embargo, lo anterior no ha representado un impedimento para generar la articulación con otras técnicas de inteligencia artificial que a su vez han permitido el establecimiento de nuevos modelos como se presenta en (Rondeau, Rieser, Gallagher, & Bostian, 2004).

En este trabajo se han revisado varias técnicas de inteligencia artificial que se han supuesto para proporcionar la capacidad de cognición de los motores cognitivos. Así mismo, la revisión bibliográfica detalla que muchas de las implementaciones permanecen rudimentarias tal vez debido a la naturaleza interdisciplinaria de los diferentes campos de actuación que describen la CR. Se muestran las técnicas de inteligencia artificial que han sido experimentadas para dar solución al aprovechamiento del espectro electromagnético en las áreas de desarrollo de la CR. Las diferentes técnicas han sido empleadas para dar solución a diferentes tópicos tales como: viabilidad en la disposición del espectro, consumo de energía, caracterización de canales, políticas locales, requisitos de usuario, disponibilidad en agujeros del espectro, entre otras.
Las técnicas de inteligencia artificial son esencialmente las herramientas principales para la CR. Las ventajas y desventajas en la adopción de una técnica u otra están en función de las necesidades específicas del objetivo o propósito al que se desea llegar.
La implementación de una técnica o del conjunto de las mismas depende de las necesidades en procesamiento de la señal, compensaciones en los tiempos de respuesta, disponibilidad de las muestras, capacidad de almacenamiento, capacidad de aprendizaje, robustez, entre otras.
Finalmente, el acceso dinámico al espectro ha recibido mayor importancia en la CR y se podría esperar que a futuro estas no dependan de la inteligenciar artificial. Por lo que la mayor ganancia desde las redes de comunicación tendrá la capacidad de soportar una infraestructura re-organizada que pueda continuamente gestionar los elementos de la red, garantizando a su vez mejora en la calidad del servicio de los agentes del sistema. Sin embargo, de la aplicaciones de técnicas de inteligencia artificial deberá ser perfeccionada y ampliado en un proceso meta-cognitivo.
Este trabajo es resultado de un proyecto de investigacion financiado por la Universidad ECCI a traves de la convocatoria interna No. 1 de 2014-2015.
