Resumen:
Contexto: La
asignación de espectro en las redes de radio cognitiva es un aspecto clave para
reducir la latencia, incrementar la tasa de datos, aumentar el ancho de banda,
mejorar la capacidad y cobertura, y optimizar el uso del espectro, garantizando
la calidad de servicio necesaria para aplicaciones de tiempo- real y
mejor-esfuerzo.
Objetivo: Este artículo presenta una revisión sobre los
algoritmos de asignación de espectro en redes de radio cognitiva, describiendo
los algoritmos de asignación de espectro más relevantes y su clasificación de
acuerdo con la literatura actual.
Método: El desarrollo de esta revisión se
realizó a partir del análisis de publicaciones recientes de corriente principal
con sus respectivas citas, tratando de proveer un marco referencial de la
literatura actual sobre los algoritmos de asignación de espectro en redes de
radio cognitiva.
Resultados: Los principales resultados determinan la
importancia de una asignación de espectro inteligente, teniendo en cuenta la
carga de tráfico, el comportamiento del usuario, los niveles de interferencia,
la caracterización del espectro, el tipo de aplicación y la necesidad de
múltiples canales de frecuencia.
Conclusión: Como conclusión es importante
diseñar algoritmos adaptativos que permitan hacer un uso eficiente de las
porciones disponibles del espectro licenciado.
Palabras clave:algoritmoalgoritmo, asignación de espectro asignación de espectro, radio cognitiva radio cognitiva, redes inalámbricas redes inalámbricas, toma de decisiones toma de decisiones.
Abstract:
Context: Spectrum allocation in cognitive radio networks is a key aspect to reduce latency, increase data rate, increase bandwidth, improve capacity and coverage, and optimize the use of the spectrum, guaranteeing the quality of service required applications and best-effort and real-time.
Objective: This paper aims to present a review of the algorithms for spectrum allocation in cognitive radio networks, describing the relevant algorithms for spectrum allocation and its classification according to the current literature.
Method: The development of this review was conducted based on the analysis of recent publications of mainstream with their respective appointments, trying to provide a complete reference framework of the current literature on the algorithms for spectrum allocation in cognitive radio networks.
Results: The main results determine the importance of smart spectrum allocation, taking into account the traffic load, user behavior, interference levels, spectral characterization, the type of application and the need for multiple frequency channels.
Conclusion: In conclusion it is important to design adaptive algorithms to make efficient use of the available portions of the licensed spectrum.
Keywords: algorithm, spectrum allocation, cognitive radio, wireless networks, decision-making.
Algoritmos para asignación de espectro en redes de radio cognitiva
Algorithms for spectrum allocation in cognitive radio networks
Recepción: 07 Octubre 2015
Aprobación: 15 Febrero 2016
La gran diversidad de redes inalámbricas y la alta demanda de aplicaciones para estas, especialmente en el campo de las comunicaciones móviles, junto a las políticas de asignación fija del espectro radioeléctrico han reducido significativamente la cantidad de bandas de frecuencia disponibles para su licenciamiento (Hemández, Pedraza, Páez, & Rodriguez-Colina, 2015). Sin embargo, algunos estudios (Cabric, Mishra, & Brodersen, 2004; Valenta et al., 2010; Working, 2015) han demostrado que la mayoría de las bandas licenciadas del espectro radioeléctrico son subutilizadas en el dominio del tiempo y del espacio, lo que resulta en oportunidades espectrales (SO), las cuales son canales de frecuencia disponibles ya que no están siendo utilizados por los usuarios licenciados en el dominio tiempo-frecuencia. El uso del espectro se hace principalmente alrededor de ciertas bandas, mientras que una cantidad considerable del espectro está subutilizado. La Comisión Federal de Comunicaciones (FCC), de Estados Unidos, ha informado variaciones temporales y geográficas en el uso del espectro en un rango de 15 a 85 % (Working, 2015).
Con el objetivo de lograr un uso más eficiente del espectro, la tecnología de radio cognitiva (CR) propone realizar una asignación dinámica del espectro (DSA). Esto consiste en que usuarios no licenciados, también denominados usuarios secundarios (SU) o usuarios de radio cognitiva, recurran a las SO en bandas de frecuencia licenciadas, la cuales son asignadas a usuarios licenciados, también denominados usuarios primarios (PU), sin interrumpir ningún proceso de estos últimos en dichas bandas. Para lograr lo anterior, la CR interactúa de forma dinámica con el entorno y realiza la modificación de los parámetros de funcionamiento necesarios, con el objetivo de aprovechar oportunamente el espectro no utilizado sin interferir con los PU (Haykin, 2005; Mitola y Maguire, 1999).
La SO (también denominados espacios en blanco o huecos espectrales) que el SU seleccionará para realizar su transmisión de información, es importante para garantizar la calidad de servicio en las redes de radio cognitiva (CRN). Cuando no se selecciona adecuadamente dicha SO, es posible que la transmisión de datos del SU deba pausarse, debido a que se hace necesario realizar un cambio de frecuencia por diversas razones; por ejemplo, que el canal está próximo a ser ocupado por un PU o que el canal tiene una baja calidad, entre otras. Esto provoca un aumento significativo del retardo que al final incide de forma directa en el nivel de desempeño y calidad de servicio de la comunicación del SU (Ian F. Akyildiz, Lee, & Chowdhury, 2009). De acuerdo con lo anterior, seleccionar un canal con las características requeridas sobre el cual un SU pueda continuar su sesión de transmisión de datos es un asunto apremiante en las CRN (Christian, Moh, Chung, & Lee, 2012). Una pobre selección de canal puede causar múltiples handoff espectrales, degradando el desempeño de todo el conjunto (Christian et al., 2012; Hernandez, Salgado, López, & Rodriguez-Colina, 2015; Hernandez- Guillen, Rodriguez-Colina, Marcelín-Jiménez, & Chalke, 2012).
Este trabajo presenta una revisión sobre los algoritmos de asignación de espectro (SA) en CRN, y describe los algoritmos de SA (selección de frecuencia disponible u oportunidad espectral) más relevantes y su clasificación de acuerdo con la literatura actual. Los principales resultados de esta revisión determinan la importancia de una SA inteligente, teniendo en cuenta la carga de tráfico, el comportamiento del usuario, los niveles de interferencia, la caracterización del espectro, el tipo de aplicación y la necesidad de múltiples canales de frecuencia.
El resto del artículo está estructurado como sigue. En la sección “Radio cognitiva” se realiza una descripción del concepto de CR. En la “Algoritmos de asignación de espectro” se describen los algoritmos de SA para CRN más relevantes y su clasificación. En “Análisis comparativo” se realiza una comparación de los algoritmos de SA descritos en la sección anterior. En la sección “Desafíos de investigación” se mencionan algunos de los retos de investigación en el área de la SA. Por último, se presentan las conclusiones.
De acuerdo con la Administración Nacional de la Información y las Comunicaciones (NTIA), de Estados Unido, la RC es una radio o sistema que detecta su entorno electromagnético de operación y puede ajustar de forma dinámica y autónoma sus parámetros de operación de radio para modificar la operación del sistema, maximizar el rendimiento, reducir la interferencia y facilitar la interoperabilidad (Commission, 2003).
La RC tiene la capacidad de proveer ancho de banda a usuarios móviles, a través de arquitecturas inalámbricas heterogéneas, aumentando significativamente la eficiencia espectral, debido a que permite que el SU comparta el espectro de manera oportunista con el PU (Cabric et al., 2004), a partir de las SO, como se muestra en la figura 1.

La tecnología de RC en el contexto de DSA permitirá a los usuarios, 1) determinar qué porción del espectro está disponible y detectar la presencia de PU cuando un usuario opera en una banda con licencia (detección del espectro); 2) seleccionar el mejor canal disponible (decisión de espectro); 3) coordinar el acceso a este canal con otros usuarios (compartir el espectro), y 4) desocupar el canal cuando se detecta un PU (movilidad de espectro). Estas cuatro funciones conforman el ciclo cognitivo (figura 2) se describen a continuación (Ian F. Akyildiz, Lee, Vuran, & Mohanty, 2006; Ian F. Akyildiz et al., 2009; Dejonghe, Van Wesemael, Pavloski, & Chomu, 2011; Gavrilovska, Atanasovski, Macaluso, & Dasilva, 2013).

En las bandas licenciadas los SU, solo pueden ser asignados a SO, donde no interfieran con los PU. Por tanto, es necesario que los SU estén monitorizando las bandas de espectro disponibles, capturando su información y después detectando dichas SO (Akyildiz, Lee y Chowdhury, 2009). Actualmente existen varias técnicas para la detección de espectro, las cuales se clasifican como se muestra en la figura 3, siendo la detección de energía la más básica de ellas.

Después de que las SO han sido identificadas, los SU deben seleccionar la más adecuada y lo más rápido posible para un esquema reactivo, mientras que para un esquema proactivo se puede tener en cuenta los requerimientos de calidad de servicio (QoS), políticas internas y posiblemente externas, debido a que puede esperar un tiempo mayor. Para tomar la anterior decisión se han desarrollado algoritmos que tienen en cuenta las características del canal de radio y el comportamiento estadístico de los PU, entre otros factores (Akyildiz, Lee y Chowdhury, 2009).
Debido a que múltiples SU pueden intentar acceder al espectro, la función de compartición de espectro proporciona la capacidad de compartir este recurso e información con múltiples SU, coordinando sus transmisiones para evitar colisiones e interferencias (Akyildiz, Lee, Vuran y Mohanty, 2006, 2008; Akyildiz, Lee y Chowdhury, 2009; Börgers y Dustmann, 2003; Christian, Moh, Chung y Lee, 2012; Federal Communications Commission, 2003; Dejonghe, Van Wesemael, Pavloski y Chomu, 2011; Etkin, Parekh y Tse, 2007; Hernández, Giral y Santa, 2015; Hernández-Guillén, Rodríguez- Colina, marcelín-Jiménez y Chalke, 2012).
Los SU son considerados visitantes en el espectro. Si los PU necesitan una parte específica del espectro o las condiciones del canal se deterioran, los SU deben dejar el canal de frecuencia que están utilizando y continuar su comunicación en otra SO (Akyildiz. Lee y Chowdhury, 2009). Esta función debe garantizar que se genere la movilidad lo más rápido posible.
Una vez que todas las bandas de espectro disponibles se caracterizan, se debe seleccionar la banda del espectro que más se acerca a los requerimientos para la transmisión, teniendo en cuenta los requisitos de QoS y las características del espectro. Por tanto, la función de gestión del espectro debe conocer los requisitos de QoS del usuario. A partir de las necesidades de los usuarios se puede determinar la velocidad de datos, la tasa de error aceptable, el retardo permitido, el modo de transmisión y el AB para la transmisión. Entonces, puede ser elegido el conjunto de bandas del espectro apropiado, de acuerdo con las reglas de decisión y los algoritmos que evalúan las posibles soluciones. En Zheng y Cao (2005), se presentan cinco reglas de decisión del espectro que se centran en la equidad y el costo de la comunicación. Sin embargo, este método asume que todos los canales tienen una capacidad de rendimiento similar (Akyildiz, Lee, Vuran y Mohanty, 2006). Lo ideal es ajustarse a los requerimientos que imponen las distintas aplicaciones. En Kanodia, Sabharwal y Knightly (2004) se propone un protocolo de saltos de canal de frecuencia oportunista para la búsqueda de un canal de mejor calidad, esta decisión del canal se basa en la SNR. Con el fin de tener en cuenta la actividad del PU, se toma en cuenta para la decisión del espectro el número de transferencias del espectro y lo que ocurre en una determinada banda del espectro (Krishnamurthy, Thoppian, Venkatesan y Prakash, 2005). La decisión de espectro constituye un tema importante que sigue abierto a la investigación.
Los tópicos más relevantes dentro de la SA para CRN son: 1) los criterios de decisión que se deben tener en cuenta para seleccionar una SO; 2) los enfoque que se deben tener en cuenta de acuerdo con las características de la red; 3) los algoritmos que seleccionan la SO con base en los criterios de decisión designados y el tipo de enfoque; 4) las métricas de evaluación que estiman el nivel de desempeño de los algoritmos desarrollados; y 5) los desafíos de investigación que actualmente presenta el tema de la SA en CRN (figura 4).
En este trabajo se propone una clasificación de los algoritmos para la selección de las SO, la cual agrupa los algoritmos de SA en seis clases: 1) toma de decisiones multicriterio (MCDM), 2) algoritmos inteligentes, 3) técnicas de aprendizaje, 4) funciones de decisión, 5) contexto y 6) estadísticos (figura 5).

El problema de SA tiene múltiples variables a analizar para seleccionar una sola SO, por tanto, los algoritmos basados en toma de decisiones multicriterio (MCDM) son ampliamente usados en este tipo de problemas, donde la relación entre los criterios de decisión son medidos a través de pesos que son ajustados según los requerimientos del diseñador. Al cabo de cierto número de iteraciones, el algoritmo determinará la mejor solución (Hernández, Giral y Páez, 2015a).
Este algoritmo desarrolla una matriz de decisión conformada por atributos y alternativas, para cada intersección de la matriz el algoritmo asigna un peso de acuerdo con los criterios del diseñador. Esto permite establecer una calificación para las SO evaluadas, y obtener así un ranking de todas las alternativas. La SO con mayor puntaje será la seleccionada (Hernández, Giral y Páez, 2015a; Ramírez y Ramos, 2010).
La alternativa Ai está definida por la ecuación 1 (Ramírez y Ramos, 2013).

Donde ri,j pertenece a la matriz y la suma de los pesos es 1.
Los pasos para desarrollar este algoritmo son: 1) identificar los objetivos y alternativas; 2) evaluar las alternativas; 3) determinar los pesos de cada combinación; 4) adicionar los valores agregados según las preferencias, y 5) analizar la sensibilidad (Hernández, Giral y Páez, 2015a; Hübner, 2007; Ramírez y Ramos, 2010, 2013).
Hernández, Giral y Santa (2015) utilizan SAW para seleccionar la mejor SO en una banda de frecuencia GSM, de esta manera evalúan la cantidad de handoff realizados y comparando los resultados con otros dos algoritmos de SA.
MEW es otro algoritmo MCDM, muy similar a SAW. La principal diferencia es que en MEW en lugar de suma hay multiplicación. Fue propuesto para SA por Stevens y Wong (2006). En MEW la calificación de las SO es determinada por el producto de los pesos de los criterios de decisión. El puntaje Si de la SO i es determinada por la ecuación 2 (Hernández, Giral y Páez, 2015a; Hernández, Giral y Santa, 2015; Hübner, 2007; Ramírez y Ramos, 2010, 2013; Stevens, Martinez y Pineda, 2012; Stevens y Wong, 2006).

Donde Xij denota el criterioN j de la SO i, Wj denota el peso del criterio j, y
.
Es necesario tener en cuenta que en (2) Wj es una potencia positiva para una métrica de beneficio y negativa para una métrica de costo.
Hernández, Giral y Páez (2015b) utilizan MEW para seleccionar la mejor SO en una banda de frecuencia de comunicaciones móviles; evalúan el nivel de throughput y ancho de banda, y comparan los resultados con otros dos algoritmos de SA.
Electre es un MCDM que realiza comparaciones entre parejas de alternativas, para lo cual utiliza cada uno de los atributos por separado para establecer relaciones entre las alternativas (Valenta et al., 2010). Se propuso inicialmente para la SA en (Christian, Moh, Chung y Lee, 2012). En general, Electre utiliza un vector de criterios de referencia para ajustar los valores iniciales de los atributos de las alternativas (oportunidades espectrales) antes de compararlas. El valor de cada uno de los criterios en la matriz de decisión se compara con el correspondiente valor de criterio de referencia X ref j . La diferencia entre los dos valores se calcula de acuerdo con la ecuación 3 (Stevens, Martínez y Pineda, 2012).

Con el objetivo de comparar las alternativas espectrales, se introducen los conceptos de concordancia y discordancia, que son medidas de satisfacción e insatisfacción del algoritmo cuando una alternativa es comparada con otra. La alternativa con el valor más alto de concordancia neta y el valor más bajo de discordancia neta será la preferida (Stevens, Martínez y Pineda, 2012).
El objetivo de este algoritmo es establecer las redes candidatas y seleccionar las que tengan más alta puntuación de acuerdo con unos parámetros definidos. Para lograr esto se establecen relaciones de Grey entre elementos de dos series: la primera contiene las mejores cualidades, mientras que la otra contiene entidades comparativas. Acá es parte importante el coeficiente de Grey, que se usa para describir las relaciones entre las series, calculado a partir del nivel de similitud y variabilidad (Hernández, Giral y Páez, 2015b; Hernández, Giral y Santa, 2015; Hernández, Páez y Giral, 2015; Hübner, 2007; Ramírez y Ramos, 2010, 2013; Stevens, Martínez y Pineda, 2012; Stevens y Wong, 2006).
En GRA primero se genera el vector de referencia Xo, de la matriz X, a través de la escogencia de los valores mínimos para los costos y los valores máximos para los criterios de beneficios. Después, la secuencia de datos debe ser normalizada para X de acuerdo con tres situaciones: más grande el mejor, más pequeño el mejor o nominal el mejor. Luego, se calcula el coeficiente relacional de Grey como lo describe la ecuación 4 (Hernández et al., 2015).

Hernández et al. (2015) utilizan GRA para seleccionar la mejor SO en el enlace ascendente de la banda de frecuencia GSM, evalúan el nivel de bloqueos de handoff y comparan los resultados con otros dos algoritmos de SA.
El desarrollo de este algoritmo se basa en la determinación de dos componentes: la solución ideal del sistema, y la solución que no puede ser aceptada en ninguna situación. Para lograrlo, es necesario comparar los resultados para determinar qué solución es la más cercana posible a la ideal, y cual la más lejana (la cual no será aceptada). Dicha métrica se obtiene a partir de la distancia euclidiana (Hernández, Giral y Páez, 2015a; Ramírez y Ramos, 2010).
El procedimiento del algoritmo Topsis se describe en Hernández, Giral y Páez (2015a); Ramírez y Ramos (2010, 2013). Inicialmente se construye la matriz de decisión X y se normaliza usando el método de raíz cuadrada, luego se determina la solución ideal y la peor solución. Después, para cada alternativa se calcula la distancia euclidiana D, y por último, las alternativas son organizadas en orden descendente de acuerdo con el índice de preferencia dado por la ecuación 5.

Hernández, Vasquez y Páez (2015) utilizan Topsis para seleccionar la mejor SO, evalúan el nivel de interferencia por canal adyacente y el número promedio de handoff realizados; los resultados son comparados con otro algoritmo y sus respectivas versiones, al combinarlos con tres algoritmos de predicción basados en series de tiempo.
“El método Vikor asume que cada alternativa es evaluada de acuerdo con cada función de criterio, y la clasificación puede ser desarrollada a través de la comparación de las medidas que estén más cercanas a la alternativa ideal” (Hernández et al., 2015; Cesar Hernández, Vasquez, et al., 2015; Tanino, Tanaka y Inuiguchi, 2003). Vikor fue desarrollado para lograr la optimización de sistemas complejos con múltiples criterios, por tanto, es hábil para determinar el compromiso en una lista de ranking, aun en presencia de criterios en conflicto, lo que lo hace un algoritmo adecuado para la toma de decisiones en la SA (Gallardo, Pineda y Stevens, 2009).
El algoritmo Vikor sigue los pasos descritos por Hernández, Giral y Páez (2015b); Hernández et al. (2015); Ramírez y Ramos (2010), y Stevens, Martínez y Pineda (2012). Para cada criterio de decisión se determina el mejor y peor valor teniendo en cuenta si son beneficios o costos. Luego se calculan los valores de i Q para i= 1, 2, 3, …, M, dado por la ecuación 6.

Dados los valores de Q para todos los i pertenecientes a M, se clasifican de mayor a menor las SO candidatas. Finalmente, la SO seleccionada está dada por el Q óptimo.
Hernández et al. (2015) utilizan Vikor para seleccionar la mejor SO en el enlace ascendente de la banda de frecuencia GSM, evalúan el nivel de bloqueos de handoff y comparan los resultados con otros dos algoritmos de SA.
AHP se basa en comparaciones sobre la importancia entre los criterios de decisión escogidos para la selección de una alternativa, siendo esta más una medida relativa que un valor absoluto (Saaty, 1990).
En la metodología de diseño del algoritmo AHP, el primer paso es definir el problema, descomponiéndolo a su vez en objetivo, criterios y alternativas. El segundo paso es la construcción de la jerarquía de acuerdo con la definición del problema.
Una vez construida la jerarquía se procedió a realizar las matrices de juicios, las cuales corresponden a evaluaciones comparativas que definen el nivel de importancia relativa entre cada combinación posible de parejas de criterios. Con las matrices de juicios definidas se procede, por último, a calcular los pesos normalizados para cada criterio, como lo describe la ecuación 7 (Hernández, Giral y Páez, 2015a).

Donde,
r es el vector de valores propios,
r1 ,r2 ,..., rn es el valor de los pesos de cadasubcriterio,
Vi es la media geométrica de la fila i, y
Vj es la media geométrica de la columna j.
Hernández, Giral y Páez (2015a) utilizan AHP para seleccionar la mejor SO en la banda de frecuencia GSM, calculan el desempeño del algoritmo con base en cinco métricas de evaluación y comparan los resultados con otros cinco algoritmos de SA.
La lógica difusa es una herramienta particularmente apropiada para tomar decisiones en situaciones donde las entradas disponibles son en general inciertas e imprecisas o cualitativamente interpretadas. La lógica difusa también puede transformar información cualitativa y heterogénea en valores de membrecía homogéneos, los cuales pueden ser procesados a través de un conjunto de reglas de inferencia difusa apropiadas (Akyildiz, Lee, Vuran y Mohanty, 2006, 2008; Akyildiz, Lee y Chowdhury, 2009; Federal Communications Commission, 2003; Dejonghe, Van Wesemael, Pavloski y Chomu, 2011; Etkin, Parekh y Tse, 2007; Gallardo, Pineda y Stevens, 2009; Giupponi y Pérez, 2008; Hernández et al., 2015; Hernández, Giral y Páez, 2015a, 2015b; Hernández, Giral y Santa, 2015; Hernández, Vasquez y Páez, 2015; Hübner, 2007; Kanodia, Sabharwal y Knightly, 2004; Krishnamurthy, Thoppian, Venkatesan y Prakash, 2005; Ramírez y Ramos, 2010, 2013; Saaty, 1990; Stevens, Martínez y Pineda, 2012; Stevens y Wong, 2006; Tanino, Tanaka y Inuiguchi, 2003; Tragos, Zeadally, Fragkiadakis y Siris, 2013; Zheng y Cao, 2005). Estas ventajas de la lógica difusa se combinan con el algoritmo AHP, obteniendo el método FAHP (Cortés, Serna y Jaimes, 2012; Patil y Kant, 2014).
Aunque el método FAHP tenga en esencia la misma metodología del algoritmo AHP, la lógica difusa ayuda a tratar la subjetividad y la incertidumbre en las evaluaciones de criterios, ya que con la lógica difusa, mediante un proceso matemático, permite utilizar un rango en la respuesta en lugar de un número puntual (Akyildiz, Lee, Vuran y Mohanty, 2006, 2008; Akyildiz, Lee y Chowdhury, 2009; Federal Communications Commission, 2003; Dejonghe, Van Wesemael, Pavloski y Chomu, 2011; Etkin, Parekh y Tse, 2007; Gallardo, Pineda y Stevens, 2009; Giupponi y Pérez, 2008; Hernández et al., 2015; Hernández, Giral y Páez, 2015a, 2015b; Hernández, Giral y Santa, 2015; Hernández, Vasquez y Páez, 2015; Hübner, 2007; Kanodia, Sabharwal y Knightly, 2004; Krishnamurthy, Thoppian, Venkatesan y Prakash, 2005; Ramírez y Ramos, 2010, 2013; Saaty, 1990; Stevens, Martínez y Pineda, 2012; Stevens y Wong, 2006; Tanino, Tanaka y Inuiguchi, 2003; Tragos, Zeadally, Fragkiadakis y Siris, 2013; Zheng y Cao, 2005). En el algoritmo FAHP, después de la normalización, el vector de pesos está dado por la ecuación (8).

Recientemente el algoritmo FAHP ha sido utilizado ampliamente para resolver problemas de decisión multicriterio en varias aéreas. Hernandez, Pedraza, Páez y Rodríguez (2015) utilizan FAHP para realizar SA en CRN.
La inteligencia artificial tiene como objetivo hacer que las maquinas realicen tareas de una manera similar a un experto. La máquina inteligente percibirá la toma de decisiones y de esta manera maximizará su propia utilidad (Woods, 1986). De tal manera, esta tendrá que prever los principales desafíos como la deducción, el razonamiento, la representación de las problemáticas para finalmente dar solución a los problemas como fuente de entradas principales de estudio (Abbas, Nasser y Ahmad, 2015).
En relación a la CR, los principales retos para las subáreas de la inteligencia artificial son: la detección de la frecuencia disponible de radio, la calidad del canal de comunicación, el reconocimiento, la predicción y anticipación en la toma de decisiones y, por último, pero no menos importante, la decisión sobre la asignación de recursos para el ajuste de errores de transmisión y recepción de datos (Abbas, Nasser y Ahmad, 2015).
La lógica difusa resulta ser una posición relativa desde el observador principal, sin embargo, las conclusiones de la técnica están respaldas por métricas iniciales que describen el conjunto de valores admisibles de una muestra. De tal manera, la lógica difusa aunque con una tasa de estudio aleatoria permite obtener valores diferentes a los supuestos de verdadero o falso (Gavrilovska, Atanasovski, Macaluso y Dasilva, 2013).
La lógica difusa proporciona al sistema, razonamiento aproximado mediante conjuntos de reglas, teniendo la capacidad de obtener condiciones de incertidumbre mediante la predicción de consecuencias, además de la capacidad de adaptarse a nuevas situaciones (Abbas, Nasser y Ahmad, 2015; Dadios, 2012; Gavrilovska, Atanasovski, Macaluso y Dasilva, 2013).
Diferentes investigaciones (Abbas, Nasser y Ahmad, 2015; Hernandez, Pedraza, Páez y Rodríguez, 2015; Matinmikko, Del Ser, Rauma y Mustonen, 2013) han aplicado la teoría de lógica difusa en la CR para resolver los problemas en función de la asignación del ancho de banda, estudiando de antemano la interferencia y la administración de la energía, los anteriores como métodos de evaluación en la correcta SA. No obstante, diferentes resultados de estudios han detallado tópicos como la inferencia difusa centralizada, que asigna los anchos de banda correspondientes a la intensidad de tráfico y la prioridad del servicio. Así pues, esta última detalla cómo los SU tienen que presentar solicitudes de ancho de banda al administrador primario de la red (Abbas, Nasser y Ahmad, 2015). Del mismo modo el administrador analiza el tráfico desde la cola y verifica los retardos producidos por la demora en la transmisión de paquetes. En otras palabras se determina la latencia para el acceso a SU (Abbas, Nasser y Ahmad, 2015).
Su principal campo de acción se encuentra inmerso en la optimización y búsqueda de soluciones, inspirado en la evolución genética y la selección natural de las especies por naturaleza (Goldberg y Holland, 1988). Los algoritmos evolutivos forman parte de las ciencias de la computación y su principal enfoque está determinado en la inteligencia artificial; siguiendo la terminología de la teoría de la evolución. Así pues, es común encontrar definiciones de los cromosomas y funciones de aptitud como descriptores de un algoritmo genético, en donde los cromosomas, son representaciones abstractas de las soluciones candidatas y la función de aptitud está estrechamente relacionada con el objetivo del algoritmo para los procesos de optimización (He et al., 2010).
La ventaja de utilizar algoritmos genéticos para solucionar el problema de optimización de la SA en CR es que pueden manejar restricciones y objetivos de forma arbitraria, por ejemplo, las soluciones ineficientes son simplemente descartadas por el algoritmo. Del Ser, Matinmikko, Gil y Mustonen, 2010) se utiliza la técnica búsqueda de armonía para encontrar la asignación de canal óptima. El algoritmo genético construye un vector de asignación de canales (llamados armonías); inicialmente se realizan combinaciones y mutaciones de forma inteligente y, luego, en la evaluación se almacenan las mejores armonías (Tragos, Zeadally, Fragkiadakis y Siris, 2013).
Los sistemas multiagente (MAS) se consideran una entidad inteligente y consciente del entorno que es capaz de actuar hábilmente y genera comunicación de forma independiente. MAS está relacionado con el ambiente, los objetivos, otros agentes y las diferentes relaciones entre esas entidades, por lo que los MAS son rápidos, confiables y flexibles (Abbas, Nasser y Ahmad, 2015; Ferber, 1999; Wooldridge, 2009).
Trigui, Esseghir y Merghem (2012) se introdujo un concepto novedoso para direccionar el “espectro de transición” en CR, permitiendo a los terminales cambiar a un banda espectral que ofrezca mejores condiciones mediante una negociación usando MAS. Mir, Esseghir y Gaiti (2011) usaron MAS para compartir dinámicamente el espectro en CR. De acuerdo con las necesidades de SU, los agentes SU cooperan y comunican con los agentes PU para compartir el espectro.
La colonia artificial de abejas (ABC) está compuesta por tres grupos: abejas empleadas, abejas exploradoras y abejas observadoras. El objetivo es determinar las ubicaciones de las mejores fuentes de alimento, para ello las abejas empleadas buscarán las fuentes de alimento y si la cantidad de néctar de la nueva fuente es mayor que una anterior, esta memorizará las nuevas posiciones, olvidándose de la anterior. Las abejas empleadas son iguales al número de fuentes de alimento, las abejas observadoras comparten la información de las fuentes de alimento y las abejas exploradoras buscan nuevas fuentes de alimentos, abandonando la propia (Tragos, Zeadally, Fragkiadakis y Siris, 2013).
Cheng y Jiang (2011) el problema de SA se resuelve utilizando el algoritmo ABC, la ubicación de una abeja o espectador representa una posible asignación de canal y la cantidad de néctar es la utilidad que se maximiza.
El aprendizaje autónomo tiene como objetivo principal el autoaprendizaje computacional, en el que las técnicas de análisis pueden ser programadas de forma autónoma a través de la inducción del conocimiento, y donde la información objeto de estudio está disponible a partir de grandes conjuntos de datos, dispuestos a ser analizados para la consecución objetiva de resultados (Abbas, Nasser y Ahmad, 2015).
El aprendizaje no supervisado puede ser adecuado para las CR que operen en entornos desconocidos de radiofrecuencia (Jayaweera y Christodoulou, 2011). Para este caso, los algoritmos de aprendizaje sin supervisión autónoma permiten la exploración de las características del entorno y toman acciones por sí mismos sin tener ningún conocimiento previo (Jayaweera y Christodoulou, 2011). Sin embargo, si la CR tiene información previa sobre el medio ambiente, puede aprovechar este conocimiento mediante el uso de técnicas de aprendizaje supervisado (Bkassiny, Li y Jayaweera, 2013).
Aprendizaje por refuerzo: Es una técnica que permite a un agente modificar su comportamiento mediante la interacción con su entorno (Sutton y Barto, 1998). Esta herramienta puede ser utilizada por los agentes para aprender de forma autónoma y sin supervisión. En este caso, la única fuente de conocimiento es la retroalimentación que un agente recibe de su entorno después de ejecutar una acción. Dos características principales caracterizan el aprendizaje por refuerzo: 1) ensayo y error y 2) recompensa retardada. Por ensayo y error se supone que un agente no tiene ningún conocimiento previo sobre el medio ambiente, y ejecuta acciones ciegamente con el fin de explorar el entorno. La recompensa retardada es la señal de realimentación que un agente recibe del entorno después de la ejecución de cada acción (Bkassiny, Li y Jayaweera, 2013).
El aprendizaje por refuerzo ha sido incorporado en la CR específicamente en las telecomunicaciones móviles. Abbas, Nasser y Ahmad (2015) muestran la capacidad de implementar un sistema de errores y recompensas en función de cada decisión, optimizando el desempeño en la toma decisiones para la administración del espectro electromagnético.
Teoría de juegos: Es una herramienta matemática que pretende modelar el comportamiento de entidades racionales en un entorno conflictivo (Fudenberg y Tirole, 1991). En las comunicaciones inalámbricas, la teoría de juegos se ha aplicado a las redes de comunicación de datos, para modelar y analizar encaminamiento y la asignación de recursos en entornos competitivos (Bkassiny, Li y Jayaweera, 2013).
La teoría de juegos es utilizada como una herramienta en la que varios jugadores se enfrentan a una serie de situaciones en donde deben tomar medidas que, en la mayoría de los casos, pueden afectar los intereses de los otros (Abbas, Nasser y Ahmad, 2015). Una ventaja clave de la aplicación de soluciones de teoría de juegos a los protocolos CR es en la reducción de la complejidad de los algoritmos de adaptación en grandes CRN (Bkassiny, Li y Jayaweera, 2013). En la literatura actual existen varios trabajos sobre la aplicación de la teoría de juegos en la CR (Ji y Liu, 2007; Nisan, Roughgarden, Tardos y Vazirani, 2007; Zhao, Mao, Neel y Reed, 2009).
El aprendizaje supervisado se usa cuando los datos de entrenamiento están etiquetados, es decir, se conoce información a priori acerca del ambiente. Algoritmos de entrenamiento, como arboles de decisión, redes neuronales, máquinas de soporte vectorial y razonamiento basado en casos funcionan bien para este tema. Difieren ellos mismos en sus fortalezas y limitaciones, desafíos y aplicaciones referentes a la CR (Abbas, Nasser y Ahmad, 2015).
Redes neuronales: Las redes neuronales se asemejan al cerebro en dos aspectos (Haykin, 1998): 1) el conocimiento es adquirido por la red de su entorno a través de un proceso de aprendizaje, y 2) las fuerzas de conexión interneuronas, conocidas como pesos sinápticos, se utilizan para almacenar el conocimiento adquirido. Algunas de las capacidades y ventajas de las redes neuronales incluyen el modelado de comportamientos no lineales y la capacidad de adaptación ante cambios pequeños, y su principal desventaja es la necesidad de realizar un entrenamiento bajo diferentes condiciones del entorno (Bkassiny, Li y Jayaweera, 2013).
Taj y Akil (2011) presentan una metodología para predecir el comportamiento del espectro. La actividad del PU es modelada a través de una serie de tiempo caótica multivariable, la cual se convierte en una entrada a la red neuronal, y esta última predice la evolución de la serie de tiempo para decidir si el SU puede ocupar una SO determinada (Bkassiny, Li y Jayaweera, 2013).
Máquina de soporte vectorial (MSV): Las máquinas de soporte vectorial son el conjunto de algoritmos que tienen la capacidad de aprender bajo la supervisión de un agente de software. Su principal modo de operación está en función de la regresión y la clasificación en el aprendizaje. Esta técnica es utilizada para llegar a márgenes de clasificación en un conjunto de datos, por tanto, el principal objetivo de las MSV consiste en establecer un modelo de predicción en donde una entrada incierta puede ser identificada en una categoría u otra (Abbas, Nasser y Ahmad, 2015; Bkassiny, Li y Jayaweera, 2013; Dadios, 2012; Del Ser, Matinmikko, Gil y Mustonen, 2010; Ferber, 1999; Fudenberg y Tirole, 1991; Goldberg y Holland, 1988; Han, Kamber y Pei, 2011; He et al., 2010; Ji y Liu, 2007; Matinmikko, Del Ser, Rauma y Mustonen, 2013; Mir, Esseghir y Gaiti, 2011; Nisan, Roughgarden, Tardos y Vazirani, 2007; Sutton y Barto, 1998; Taj y Akil, 2011; Trigui, Esseghir y Merghem, 2012; Wooldridge, 2009; Zhao, Mao, Neel y Reed, 2009).
En la literatura actual existen varios trabajos (Petrova, Mahonen y Osuna, 2010; Xu y Lu, 2006) sobre la aplicación de las máquinas de soporte vectorial en la CR.
En las redes heterogéneas con facilidades de acceso ubicuo, los procesos de decisión y selección se hacen más complejos debido a que las diferentes tecnologías de acceso, por lo general, ofrecen diferentes características. De acuerdo con lo anterior, la SA llega a ser un problema con múltiples criterios y parámetros que incluyen complejos trade-offs entre criterios contradictorios. En estos casos resulta útil la aplicación de funciones de beneficio o costo (Ahmed, Boulahia y Gaiti, 2014).
La función de utilidad tiene por objetivo maximizar la satisfacción del usuario de acuerdo con ciertos parámetros y restricciones. En la SA y de gestión de decisiones, la utilidad mide el nivel de satisfacción del usuario correspondiente a un conjunto de características de una red inalámbrica, incluyendo los parámetros de recursos asignados (Ahmed, Boulahia y Gaiti, 2014). Ormond, Murphy y Muntean (2006) examinan el nivel de satisfacción del usuario mediante el empleo de una función de utilidad para aplicaciones de mejor esfuerzo.
La función de costo a diferencia de la función de utilidad busca minimizar el costo de ciertos parámetros teniendo en cuenta las restricciones del caso. En una SO el costo total se calcula mediante la suma del costo de los parámetros de interés como, calidad de servicio, ancho de banda, retardo y probabilidad de disponibilidad, entre otras (Ahmed, Boulahia y Gaiti, 2014). Wei, Li, Song y Song (2008) presentan una aplicación de la función de costo.
Existe otro tipo de técnicas que también se han utilizado para la SA en CRN, las cuales están basadas en conceptos de estadística y probabilidad, como las redes bayesianas, las cadenas de Markov y los arboles de decisión.
Las redes bayesianas son modelos probabilísticos gráficos que dependen de la interacción de diferentes nodos para así generar aprendizaje en cada nodo involucrado en el proceso; mediante el enfoque bayesiano, que es una técnica de aprendizaje probabilístico, se proveen inferencias exactas y se estiman modelos de probabilidad completa donde el conocimiento a priori o los resultados sean usados para construir un modelo actualizado (Bolstad, 2007; Yonghui, 2010).
Jiang, Chen y Liu (2014) usan un enfoque cooperativo para estimar el estado del canal usando aprendizaje bayesiano para resolver problema de detección multicanal.
Los modelos de Markov (Markov chain analysis, MCA) son usados para modelar procesos aleatorios que cambian de un estado a otro en el tiempo. Son procesos aleatorios donde el estado futuro depende del estado presente y dichos estados son visibles al observador, en contraste con los modelos ocultos de Markov (hidden Markov models, HMM), dichos estados no son visibles (Fraser, 2008). Estas cadenas generan secuencias de observaciones entre transiciones de estado, ya sea en el tiempo o en el espacio, con probabilidades fijas. El estado actual depende de los eventos previos, y sus estructuras determinan el éxito del proceso. Puede asignársele un solo paso o ser extendida a las probabilidades asociadas con cada una de las transiciones dependientes en múltiples eventos que lo preceden (Abbas, Nasser y Ahmad, 2015).
Yifei et al. (2013) usaron toma de decisiones de Markov para el DSA en CRN. Usaron HMM (cadenas ocultas de Markov) en un canal inalámbrico y predijeron el estado del canal. Las decisiones estuvieron basadas en sensibilidad espectral, selección de canal, modulación y esquemas de codificación, potencia transmitida. Pham et al. (2014) utilizaron el handoff de espectro, el cual ocurre cuando un SU requiere cambiarse a un nuevo canal disponible debido a las transmisiones continuas de los datos cuando el PU necesita de ese canal, por lo que el SU requiere estudiar el comportamiento del PU y predecir sus futuros comportamientos para asegurar la transmisión.
Los árboles de decisión son un modelo que predice el valor de una clase objetivo, basada en diversidad de variables de entrada. En un árbol de decisión cada nodo tiene un atributo, cada rama representa el resultado de una prueba y cada hoja representa la etiqueta de una clase. Cada hoja contiene información de la etiqueta de clase (Abbas, Nasser y Ahmad, 2015; Ahmed, Boulahia y Gaiti, 2014; Bkassiny, Li y Jayaweera, 2013; Bolstad, 2007; Cheng y Jiang, 2011; Del Ser et al., 2010; Ferber, 1999; Fraser, 2008; Fudenberg & Tirole, 1991; Gavrilovska et al., 2013; Goldberg y Holland, 1988; Han, Kamber y Pei, 2011; Haykin, 1998; He et al., 2010; Ji y Liu, 2007; Jiang, Chen y Liu, 2014; Matinmikko, Del Ser, Rauma y Mustonen, 2013; Mir, Esseghir y Gaiti, 2011; Nisan, Roughgarden, Tardos y Vazirani, 2007; Ormond. Murphy y Muntean, 2006;Petrova, Mahonen y Osuna, 2010; Pham et al., 2014; Safavian y Landgrebe, 1991; Sutton y Barto, 1998; Taj y Akil, 2011; Trigui, Esseghir y Merghem, 2012; Wooldridge, 2009; Xu y Lu, 2006; Yifei et al., 2013; Yonghui, 2010; Zhao, Mao, Neel y Reed, 2009).
La tabla 1 resume el análisis comparativo de las diferentes técnicas para la SA en CRN, en términos de fortalezas y limitaciones.

Existen varias cuestiones de investigación abiertas que necesitan ser estudiadas para el desarrollo de la función de decisión del espectro, algunas de ellas se mencionan a continuación (Akyildiz, Lee, Vuran y Mohanty, 2006).
La relación señal a ruido (SNR) no es suficiente para caracterizar las bandas espectrales en las CRN. Además de la SNR, muchos parámetros de caracterización del espectro afectan la calidad. Por tanto, la manera de combinar estos parámetros de caracterización del espectro para el modelo de decisión del espectro sigue siendo un cuestionamiento abierto.
Para plantear soluciones eficientes en la SA, es necesario desarrollar algoritmos que logren adaptarse a diversas condiciones y escenarios, con el objetivo de satisfacer los requisitos de un entorno altamente dinámico. Todos los algoritmos hasta ahora se centran en un escenario y red estáticos, y tratan de encontrar una solución óptima de acuerdo con algunos criterios (Tragos, Zeadally, Fragkiadakis y Siris, 2013).
En las CRN se pueden utilizar simultáneamente múltiples bandas del espectro para la transmisión. Por otra parte, las CRN no requieren que las múltiples bandas seleccionadas sean contiguas. De este modo, un SU puede enviar paquetes a través de bandas del espectro no contiguas. Esta transmisión sobre múltiples bandas muestra menos degradación de calidad durante el handoff espectral en comparación con la transmisión convencional sobre una sola banda del espectro (Akyildiz y Li, 2006). Por ejemplo, si un PU aparece en una banda del espectro en particular, el SU tiene que desalojar solo esa banda, y en el resto de las bandas de espectro mantendrá la comunicación, por lo cual la degradación de la QoS puede ser mitigada. Adicionalmente, la transmisión en múltiples bandas del espectro permite menor consumo de energía en cada banda del espectro. Como resultado, se consigue menos interferencias con los PU, en comparación con la transmisión en una única banda del espectro (Akyildiz y Li, 2006). Por estas razones, el esquema de gestión del espectro debe tener la capacidad de toma de decisión para múltiples bandas. Por ejemplo, la forma de determinar el número de bandas del espectro y cómo seleccionar el conjunto de bandas apropiadas siguen siendo temas de investigación abiertos en CRN.
El enfoque cooperativo tiene más ventajas que el enfoque no cooperativo. En la detección de espectro cooperativo, el SU vecino comparte su información de detección con el objetivo de aprovechar la diversidad espacial. Un desafío en la selección de espectro cooperativa es cómo combinar la información de los usuarios cooperativos mientras se realiza la transmisión (Masonta, Mzyece y Ntlatlapa, 2013).
En una determinada CRN puede haber requerimientos de calidad de servicio heterogéneos y el espectro disponible puede presentar fluctuaciones y cualidades variables. En las redes de tráfico heterogéneas, un desafío consiste en seleccionar las bandas de frecuencia apropiadas para satisfacer los requerimientos de QoS de cada SU (Masonta, Mzyece y Ntlatlapa, 2013).
El presente trabajo es una revisión bibliográfica reciente sobre algoritmos de asignación de espectro en redes de radio cognitiva. Estos algoritmos son las herramientas que permiten dar solución al problema del uso eficiente del espectro radioeléctrico, además de aportar en diferentes tópicos, como caracterización de canales, políticas locales, requisitos de usuario, entre otras. Las ventajas y desventajas en la adopción de un algoritmo u otro para la asignación de espectro están en función de las necesidades específicas del propósito que se desea lograr y su implementación depende de las necesidades de procesamiento de la señal, tiempos de respuesta, disponibilidad de los datos, capacidad de almacenamiento, capacidad de aprendizaje, robustez, entre otras.
Este trabajo fue realizado con la financiación del Centro de Investigaciones y Desarrollo Científico de la Universidad Distrital Francisco José de Caldas. Los autores también agradecen la colaboración de la Universidad Nacional de Colombia.




