Artículo de investigación
Sobre la señal-decisión y su modelación
On signal-decision and its modeling
Sobre la señal-decisión y su modelación
Suma de Negocios, vol. 9, núm. 19, pp. 1-7, 2018
Fundación Universitaria Konrad Lorenz
Recepción: 14 Noviembre 2017
Aprobación: 30 Enero 2018
Resumen: Se propone un modelo para varios enfoques alternativos de la predicción de las probabilidades involucradas a partir de procesar las señales obtenidas enviadas por los jugadores, que pueden ser empresas compitiendo en el mercado. Ellos fijan un nivel mínimo de la utilidad esperada y se interesan en la probabilidad de que se satisfaga esta expectativa. Estos enfoques son analizados usando experimentos de Monte Carlo, desarrollado en el marco de la Teoría de Juegos y diferentes modelos estadísticos para hacer predicciones sobre la probabilidad de éxito o de obtener una cierta utilidad. Se establece el comportamiento de las distintas estrategias propuestas considerando que los errores siguen una distribución normal, doble exponencial y Cauchy. Se hace una comparación de los resultados dados por los algoritmos programados el R y SAS, encontrando que son mejores los de R en términos de (, sin embargo GLIMIX PRC MIXED de SAS tiene valores menores de V2 en todos los casos.
Palabras clave: Investigación desarrollo, cota de la utilidad, probabilidad de éxito, predicción de la probabilidad, GLIM.
Abstract: We propose a model for several alternative approaches to the prediction of the probabilities involved by processing the obtained signals sent by the players, which may be companies competing in the market. They set a minimum level of expected utility and are interested in the probability that this expectation will be satisfied. These approaches are analyzed using Monte Carlo experiments, developed in the framework of Game Theory and different statistical models to make predictions about the probability of success or to obtain a certain utility. The behavior of the different proposed strategies is established, considering that the errors follow a Normal, double Exponential and Cauchy distribution. A comparison is made of the results given by the algorithms programmed R and SAS, finding that R are better in terms of δ, however GLIMIX PRC MIXED of SAS has lower values of V2 in all cases.
Keywords: Research development, dimension of the utility, likelihood of success, prediction of the probability, GLIM.
Introducción
Algunos problemas que surgen en la toma de decisiones en corporaciones y en la competencia por el mercado son especialmente importantes y requieren de una base teórica tanto para trabajar en la práctica como para comprender los mecanismos que los rigen. Esto requerirá no solo de un marco de la Teoría de Juegos sino también de modelos estadísticos para hacer predicciones sobre la probabilidad de éxito o de obtener una cierta utilidad al tomar una decisión (Atkinson et al., 2014, Lynn et al., 2015, Lynn & Barrett, 2014). Esto es importante cuando se analiza el mercado de las nuevas tecnologías en el que varias empresas planean si es conveniente cooperar para desarrollarla. Las firmas compiten en el mercado, pero evalúan si cooperar en el desarrollo de la nueva tecnología es una política adecuada (Panajotovic & Draca, 2015, Steinert-Threlkeld, 2016). Cada firma envía señales sobre sus potencialidades para llevar a cabo tareas de investigación-desarrollo (ID, en español, y R&D en inglés). Este es un tema muy actual, véase, por ejemplo, Veugelers (1998), Yi (1998), Ray y Vohra (1999), y Shane et al. (2016). Cada firma estará interesada en modelar este juego estableciendo cuál es el valor de la probabilidad de obtener una ganancia que satisfaga sus expectativas. Analizando las señales enviadas por las otras firmas sobre su capacidad tecnológica y su éxito, en empeños previos de investigación-desarrollo y/o su desempeño en el mercado, analiza el valor de la probabilidad antes de decidir cooperar o no hacerlo.
En este trabajo se brinda un modelo para varios enfoques alternativos de la predicción de las probabilidades involucradas a partir de procesar las señales obtenidas. Se desarrollan experimentos de Monte Carlo que permiten establecer el comportamiento de las distintas estrategias propuestas. Estos experimentos se basan en considerar que los errores involucrados siguen una distribución normal (Gaussiana), doble exponencial (Laplace), Lévy o Cauchy.
Coaligarse o no coaligarse y el emprendimiento
Establecer una colaboración para el desarrollo de nuevos equipos o tecnologías es muy común. Esto aparece referido como tareas de R&D o de joint venture en la literatura anglosajona. Consideremos una población de firmas que participan del mercado de un bien. Cada una tiene un fondo para investigación acotado y da señales al mercado tales como fidelidad a la marca, nicho de mercado, calidad percibida por los clientes, nivel de sus dispositivos de investigación y desarrollo (ID), etc. Este es un tema que es tratado en diversos trabajos como los de Veugelers (1998), Yi (1998), Ray y Vohra (1999), Shane et al. (2016), Anderson (2015). Los productos de cada firma están diferenciados ligeramente. Las firmas por su parte compiten en el mercado pero evalúan cooperar para el desarrollo de nuevas tecnologías. Por ejemplo, Aloysius (2002) señala los casos de IBM y Lucent Technologies, quienes comparten el mercado de circuitos integrados para aplicaciones específicas a través de unidades vendedoras. Similarmente, ocurre con Intel y Advanced Micro Devices en el mercado de microprocesadores, Hyundai, Motorola y Phillips, en tecnología para telefonía celular, o usuarios finales de tecnologías de punta en sus productos acabados como Compaq y Hewlett-Packard.
En estos casos, las firmas envían como señales sobre sus potencialidades para desarrollar parte de una nueva tecnología a otras firmas. Las firmas evalúan estas señales para establecer si la probabilidad de que sea exitoso el coligarse con ella es alta o no y si esto es suficientemente beneficioso, entonces, ¿representará una ventaja para las empresas, en términos de la utilidad, coaligarse?
Este problema lo podemos modelar usando la propuesta de Aloysius (2002). Desde el punto de vista de la Teoría de Juegos podemos considerar la existencia de una población de firmas . Todo subconjunto S de esta población es una coalición. En términos de la Teoría de Juegos debemos considerar que cada firma tiene un presupuesto acotado Ψi y se busca obtener un beneficio
por tomar como decisión que la señal da signos de que lo mejor es aceptar la incorporación a la coalición. Si a la firma i le cuesta Ci el entrar en la coalición, lo que depende de la tecnología y la potencialidad investigativa que aporta, entonces la coalición
asumirá la tecnología más barata aportada por los miembros de ella. Por tanto el costo del desarrollo de la nueva tecnología es:
. Si cada firma obtiene una fracción de beneficio
lo que busca al coaligarse puede ser caracterizado por resolver el problema de optimización:
Donde solo si la firma “i” decide entrar en la coalición. Los otros miembros de la coalición envían señales a esta firma y valoran si querrá incorporarse. Para ello necesitan establecer si
1 es suficientemente grande.
Algo similar harán los promotores de una cooperación para desarrollar una nueva tecnología. Analizando las señales enviadas por las firmas sobre su capacidad tecnológica y su éxito, en empeños previos de investigación-desarrollo y/o su desempeño en el mercado, se considera si la firma decidirá integrarse o no a la cooperación. Por su parte, una firma puede analizar la actitud de las demás para enviar señales sobre cuál considera que debe ser su fracción .
La modelación
Un enfoque se basa en el análisis de la utilidad. Consideremos que el agente receptor (AR) recibe señales del mercado y desea estudiar el comportamiento de una función de utilidad
Donde los son parámetros desconocidos, las
's son variables de control y
es un error aleatorio de esperanza cero y varianza constante. Un ejemplo de tal función de utilidad está dado por la riqueza del agente a partir de la estructura de su portafolio de acciones. En este caso
es el número de acciones del bien
representa los pasivos del agente receptor (AR) en cuentas bancarias y el resto de los parámetros el valor de un bono del bien correspondiente. En el caso de la cooperación en ID la firma tiene un nicho en el mercado en los productos t = 1,.., p y un pasivo B0. Considera que el bien t le aporta una ganancia
. Relacionemos la señal que obtiene con la variable
Z=1, si la señal sugiere a i que ejecute cambios en su vector de bienes.
Z=0, si la señal sugiere a i que no ejecute ninguna acción.
Cuando Z=0 el AR no considerará cambiar y su riqueza no se ve afectada. Si Z=1 él puede cambiar y tomar un como el vector con los nuevos valores de la variable de decisión, la estructura de las acciones del portafolio. Al cambiar se incrementa el bien t en
. Es decir, con la decisión de cambiar su utilidad sería:
El cambio en la utilidad es
Donde . Por su parte
representa el cambio en la utilidad del agente debido a cambiar Yit por Xitt haciendo caso a la señal.
Vamos a considerar solo el caso en que los parámetros no varían con la decisión tomada para t = 1,.., p. Entonces la esperanza del cambio es igual a
Note que en el caso de un solo bien el agente va a ser indiferente ante la señal si se fija como solución
En la práctica, el AR considera la existencia de diversos escenarios posibles. Cada uno debe generar una señal que al ser identificada le llevaría a fijar un valor de Z.
Consideremos que el AR analiza el mercado y observa una señal Sh Entonces toma una decisión asociada a un vector del conjunto . Su interés es establecer si cierto xi, que cree está asociado a la señal
es adecuado por considerar que el valor de la variable aleatoria es Z=1. Si
es alta, entonces, al observar la señal decidirá cambiar su portafolio con estructura
por el dado por x. Esto se asocia a la valoración de si
toma valores positivos suficientemente altos.
Aceptemos que el número de realizaciones observadas en el mercado lleva a que:
ni= número de observaciones en que es suficientemente grande para aceptar que
.
Una mentalidad estocástica lleva a que el AR desee establecer cuál es la función de distribución del incremento de la utilidad, es decir,
Analizando una muestra de tamaño , evaluará las variables Bernoulli
Yi(h)=1, si se genera una señal que determina que se debe cambiar a
Yi(h)=0, si se genera una señal que determina que no se debe cambiar
Es decir que Yi(h)=1 si y solo sí . Aunque estas variables de Bernoulli no sean independientes, dado el tamaño de la muestra,
, se distribuye como una Binomial,
.
El problema debe ser resuelto a través de la estimación de ((x). Podemos usar el estimador naive:
Dadas las hipótesis sobre los ni’s: , y considerando que el orden de convergencia soporta la aceptación de que
.
Si el experimento es diseñado se observan ni resultados del efecto de enviar la señal xi. Esto, por ejemplo, será de interés para una agencia considerada como el gestor de formar una coalición. Se envían señales y se observa el comportamiento de los receptores. A partir de su estudio ellos deciden qué política llevar para comunicarse exitosamente a través de un sistema de señales.
Como cada señal corresponde a un solo vector y las n respuestas son representables por la matriz donde hay ni, réplicas del vector
.
Por otra parte la Ley de los Grandes Números garantiza que
Donde ∞ representa un vector cuyas k componentes son iguales a .
Otra situación es aquella en la que se obtienen n señales y se identifica que ni de ellas corresponden a xi. Consideremos que estas fueron generadas por una de H clases posibles y que hay m posibles señales. El gestor analiza la firma aspirante y considera si puede ser del tipo Cj, j=1,..., H, tal como ocurriría con un corredor de bolsa, que debe evaluar situaciones del mercado cambista, con la finalidad de tomar la mejor decisión.
Ahora ni continúa siendo una variable aleatoria y el interés está en la variable Zij = j si x corresponde a la señal i y pertenece a Cj (Zij = 0 en otro caso).
El AR se interesa en conocer:
Ahora
Tomando en otro caso).
Al igual que en el modelo anterior el interés está en estimar
Una contrapartida del estimador de Π(x) propuesto anteriormente es
Consideremos que es válido el conjunto de hipótesis
H1
Un par de relaciones de interés teórico necesarias son que H2:
H2.1. Existe solo un se cumple que
H2.2 Existe solo un se cumple que
Cuando se cumplen H1 y H2.1 tenemos el modelo logit y si fuera H1, H2.2 el multinomial y la convergencia de los estimadores dados en (3.1) es garantizada.
Otra forma más clásica es usar los modelos logit y log-lineal para hacer la estimación de los parámetros usando el método de máxima verosimilitud para obtener las probabilidades. Este enfoque establece que los agentes involucrados van a utilizar distintos modelos para establecer cómo evaluar la probabilidad de que su utilidad sea incrementada al coaligarse. Utilizando los criterios predominantes en el mercado el AR determina k escenarios. Evaluando ni experiencias similares le interesa conocer
P’i = proporción de firmas que entrarían en el escenario i.
Usando como función de enlace la canónica
donde,
η = vector de predictores lineales.
X = matriz de dimensión kxp.
β = vector paramétrico de dimensión p.
El método de máxima verosimilitud (MV) es el más usado para hacer los ajustes, véase Fahrmeier-Tutz (1994). Pueden ser usados como algoritmos el Genmod del sistema SAS 8.10 y el GLM aplicado sobre R. Véanse experiencias recientes sobre su uso en Gentleman (1996) y Barreto y Kypreos (2004). Un análisis del método general puede ser obtenido en Agresti (1990) y en McCullagh-Nelder (1989). Véanse particularidades sobre los algoritmos usados en el paquete SAS en Little y Yau (1996) y Wolfinger (1999).
La desviación:
donde, . Esta es calculada para establecer la bondad del ajuste y, dado que la devianza binomial residual se distribuye (2 (k-p), se probará si el modelo es adecuado usando la prueba chi-cuadrado. Se estima la dispersión utilizando:
El cual estima la escala (. Este es el estimador de momentos del estadístico generalizado de Pearson, ( es el vector de variables dependientes ajustado y (* el estimador de (, véase McCullough-Searle (2001). Este estimador permite establecer la existencia o no de superdispersión. Esto es válido cuando es significativamente grande.
El AR espera que si la probabilidad de éxito es suficientemente grande es conveniente unirse en la joint venture. Si el aspirante conoce el modelo usado estará en condiciones de estimar esta probabilidad.
Comparación de los diferentes estimadores mediante un experimento de Monte Carlo
Compararemos los resultados asociados al uso de los estimadores calculados con los algoritmos dados en SAS y R, dado que tienen integradas las funciones para las estimaciones, respecto a la estimación realizada usando los estimadores Naive (3.1) y (3.2).
Consideremos que el orden de convergencia soporta la aceptación de que . Véase Hadjicostas (2003) para una discusión de problemas de este tipo. Para ello consideraremos una firma con p = 10 y k = 5 escenarios. En cada uno se generaran 1.000 vectores x que producen una ganancia dentro de un rango Δ(u)∈Gi. Tenemos en cuenta señales generadas aleatoriamente que dan información sobre realizaciones de los diferentes escenarios. Se generaron 500 vectores y con ellos se evaluó el modelo para estimar la probabilidad de obtener un valor aceptable de la ganancia. Se consideraron dos métodos de muestreo: se hace un muestreo tomando en cuenta la estratificación por tipo de escenario y, en el segundo, no se tiene en cuenta la estratificación.
Para cada uno de los métodos se indica el porcentaje de veces en que se aceptó el modelo usando D(P’, P*), la estimación de la dispersión y el promedio de la norma. El promedio de la norma se define como ||probabilidad estimada-probabilidad real|| y se denota por δ. Los resultados se brindan en la tabla 1.
Como se ve en la tabla 1, Genmod computa estimadores que son los de menor dispersión y la propuesta Naive (3.1) es la menos confiable en estos términos. En general, al considerarse la devianza, el comportamiento de los estimadores es aceptable. El modelo es aceptado con una frecuencia muy cercana a la fijada por la teoría excepto para (3.1). Para (* también GLM-R1.6.1 es el mejor en términos de la aceptación del modelo como correcto. Las otras alternativas no difieren considerablemente. Sin embargo (3.1) tiene los mejores valores de (. Esto conlleva a que la elección de uno de los estimadores como el mejor globalmente no sea posible sino sobre la base de criterios del decisor.
En el caso en que el número de fracasos sea superior a lo esperado de una distribución binomial un enfoque es considerar que la distribución de los éxitos está contaminada con una distribución degenerada que tiene probabilidad uno de no observar un éxito. Diversos autores han acometido el estudio de esos modelos como es el caso del trabajo de Breswlow y Clayton (1993) y Deng y Paul (2002). En este caso, un modelo adecuado es suponer que el juego en que estamos involucrados ha sido afectado por un cierto shock que genera un número alto de no-éxitos inesperadamente. Tomemos un vector de efectos aleatorios εi para modelar este fenómeno. Sea , con probabilidad
con probabilidad 1-Qit) una variable aleatoria. Ahora
, siendo λi el vector de las λit y Qi como el de las probabilidades de mezcla Bit las que son funciones de las covariables.
El conteo de los éxitos es: Y*ij = Σt [Z*ijt|εi], siendo Prob[Y*ij = y*ij |εi] = {Qij +(1- Qij )(1-πij)nij}I[y*ij=0]×{(1-Qij)Cy*ijnijπijy*ij(1-πij)nij-yij}1-I[y*ij=0]
El logaritmo de la verosimilitud es L[(γT ,βT ,θT); y*] = Σki=1 log{∫ℜk Πj Prob[Y*ij = y*ij|εi]}dF(εi).
θ mide la sobredispersión en la prueba desarrollada por Berenhaut (2002), dando origen al modelo Logit[πi ] = Biβ+Wi εi, πi es el vector de los πij’s, β el vector de parámetros de la regresión,
B = ( B1T ,..., BkT)T y W = ( W1T,..., WkT)T matrices de diseño. Para las probabilidades de mezcla el modelo es Logit(Qi ) = Giγ, donde γ es el vector de parámetros de la regresión y G = ( G1T,..., GkT)T
y W = ( W1T ,..., WkT ) matrices de diseño. El cómputo de los estimadores se llevará a cabo usando el software SAS’ PROC NLMIXED.
La existencia de shocks va a modelarse introduciéndolas por variables aleatorias, uniforme en (0, 1), Qij. Aplicamos los métodos de cómputo de estimadores utilizados en el experimento reportado en la tabla 1. Comparamos sus resultados con los obtenidos con este último cuando el modelo efectivo es el asociado al shock. Es decir, la firma desconoce el cambio en el mercado y utiliza los datos observados utilizando un estimador que realmente no es máximo verosímil.
La tabla 2 brinda los resultados obtenidos al analizar las muestras generadas. Las distribuciones incluidas en el estudio tenían el mismo parámetro de escala. Las observaciones en la base de datos fueron transformadas al generar el correspondiente εi usando la distribución prefijada. Las distribuciones utilizadas en la experimentación fueron: la uniforme en , la normal, la Cauchy y la doble exponencial (Laplace) con esperanza 0 y escala it y la exponencial con media
.
Los resultados en la tabla 2 establecen la superioridad en términos de exactitud del uso de los estimadores Naive siendo el (3.2) ligeramente superior que el (3.1) en la mayoría de las experiencias. Genmod-SAS tiene un buen comportamiento para las llamadas “distribuciones alfa-estables”: Cauchy y normal. Estos resultados califican los estimadores Naive como una opción aparentemente robusta.
Otro enfoque de este problema sería considerar que, en vez de un shock hay un componente aleatorio que afecta la evaluación que se hace de las señales enviadas por las firmas que pueden integrarse a la coalición. Tengamos en cuenta que debe considerarse en el modelo de la respuesta la existencia de este factor utilizando el vector aleatorio ui y establecer que su efecto es medido por el factor . Note que este se distribuye condicionalmente de acuerdo con una binomial con esperanza
. Denotaremos Y* = [ Y1, ...,Y*k]T y por r al vector cuya componente i-ésima es ri = Y*i /mi. Tomando
, la matriz de efectos fijos como Xkxp y la matriz de efectos aleatorios Dkxq el modelo a usar es
Para resolver el problema de la estimación véase McCullough-Searle (2001), el uso de la quasi-log verosimilitud penalizada conjunta
Se considera en su construcción que u sigue una distribución normal q-variada N(0,G).
El problema de optimización asociado es complicado pues, la variable dependiente ajustada, debe ser aproximada por:
Lo que garantiza que: .
Usando el macro GLIMMIX y el procedimiento PRC MIXED del SAS 8.10 los estimadores son evaluables. Otra alternativa es ajustarlos usando el comando glmmPQL, que es básicamente un procedimiento de mínimos cuadrados reponderados iterativamente, del ambiente R 1.6.1 basado en el método de Newton-Raphson para ajustar el modelo generalizado, mientras que usa el EM para resolver el problema de optimización planteado en la estimación de los componentes de la dispersión asociados a los efectos de u. Una discusión sobre cómo trabajan los algoritmos de maximización conjunta que aparecen en ambos procedimientos es brindada por Breslow-Clayton (1993). El ajuste del modelo es evaluado por el test de superdispersión basados en el estimador de la componente de extradispersión: es el estimador del vector de estimadores β, r(X) el rango de X y u la predicción de u. La prueba se basa en comprobar si este estadístico de prueba soporta que el parámetro es significativamente mayor que 1. Vea Schall (1991) para una discusión sobre este y el algoritmo usado para su determinación.
Utilizamos las mismas características del experimento de Monte Carlo efectuado para el caso de los shocks, con el fin de generar los efectos aleatorios. En este caso usado como desviación típica a .
Los resultados del algoritmo programado en el ambiente R 1.6.1 son mejores que los brindados por el del SAS en términos de δ pues están más cerca de cero en todos los casos. Ambos algoritmos establecen siempre la aceptación de la consistencia de la varianza con la distribución asumida, lo que evidencia la no-existencia de superdispersión. Sin embargo, GLIMIX PRC MIXED SAS 8.10 tiene valores menores de V2 en todos los casos.
Conclusiones
En términos de proporción de aceptación, el mejor algoritmo que nos da la más alta probabilidad de que, dadas las señales, las empresas decidan coaligarse es el GLM de R 1.6.1, aunque el promedio de la norma es ligeramente mayor que la propuesta Naive (3.1), cuyo valor es 0,028 y es menos confiable en estos términos de la proporción de aceptación. El modelo es aceptado con una frecuencia muy cercana a la fijada por la teoría, excepto para (3.1). Para φ* también GLM-R1.6.1 es el mejor en términos de la aceptación del modelo como correcto. Las otras alternativas no difieren considerablemente. Sin embargo, (3.1) tiene el mejor valor de (, pero cuando evaluamos la exactitud bajo diversas distribuciones de probabilidad, este algoritmo resulta ser mejor para las distribuciones uniforme y exponencial, mientras que (3.2) lo es para las distribuciones normal, Cauchy y Laplace; en especial en estas dos últimas, con valores de 0,031 y 0,014, respectivamente. Esto conlleva a que la elección de uno de los estimadores como el mejor globalmente no sea posible sino sobre la base de criterios del decisor.
En términos de exactitud el estimador, Naive (3.2) es ligeramente superior que el (3.1) en la mayoría de las experiencias. Genmod-SAS tiene un buen comportamiento para las llamadas distribuciones alfa-estables: Cauchy y Normal. Estos resultados califican los estimadores Naive propuestos como una opción aparentemente robusta.
Los resultados del algoritmo programado en el ambiente R 1.6.1 son mejores que los brindados por el del SAS, en términos de δ pues están más cerca de cero en todos los casos. Ambos algoritmos establecen siempre la aceptación de la consistencia de la varianza con la distribución asumida, lo que evidencia la no-existencia de superdispersión. No obstante, GLIMIX PRC MIXED SAS 8.10 tiene valores menores de V2 en todos los casos.
Referencias
Agresti, A. (1990). Categorical data analysis. Nueva York: Wiley.
Aloysius, J. (2002). Research joint ventures: A cooperative game for competitors. European Journal of Operational Research, 136, 591-602. 10.1016/S0377-2217(01)00064-9
Anderson, N. D. (2015). Teaching signal detection theory with pseu doscience. Frontiers in Psychology, 6, 762. http://doi.org/10.3389/fpsyg.2015.00762
Atkinson, S., Levula, A., Caldwell, N., Wigand. R. & Hossain, L. (2014). Signalling decision making and taking in a complex world. 2014 International Conference on Information Technology and Management Science (ICITMS 2014). Hong Kong: WIT Transactions on Engineering Sciences.
Barreto, L. & Kypreos, S. (2004). Endogenizing R&D and market experience in the “bottom-up” energy-systems ERIS model. In Technovation, 24, 615-629.
Berenhaut, H. (2002). Score test for heterogeneity and overdis persion in Zero-inflated. Poisson and Binomial Regression Models. The Canadian Journal of Statistics, 30(3), 1-15.
Breswlow, N. E. & Clayton, D. G. (1993). Approximate inference in generalized linear mixed models. Journal of the American Statistical Association, 88, 9-25.
Deng, D. & Paul, S. R. (2002 ). Score tests for zero-inflationed linear models. Canadian Journal of Statistics. 28, 563-570.
Gentleman, I. (1996). R: A Language for Data Analysis and Graphics. Journal of Computational and Graphical Statistics, 5
Hadjicostas, P. (2003). Consistency of logistic regression coefficient estimates calculated from training sample. Statistics and Probability Letters, 62, 293-303.
Little, R. y Yau, L. (1996). Intent-to-treat analysis for longitudinal studies with drop-outs. Biometrics, 52(4), 1324-1333. DOI: 10.2307/2532847
Lynn, S. K., Wormwood, J. B., Barrett, L. F. & Quigley, K. S. (2015). Decision making from economic and signal detection per spectives: development of an integrated framework. Frontiers in Psychology, 6, 952. http://doi.org/10.3389/fpsyg.2015.00952
Lynn, S. K. & Barrett, L. F. (2014). Utilizing” signal detection theory. Psychological Science, 25(9), 1663-1673. http://doi.org/10.1177/0956797614541991
McCullagh, P. & Nelder, J.A. (1989). Generalized linear model (second edition). Londres: Chapman & Hall. Disponible en http://www.utstat.toronto.edu/~brunner/oldclass/2201s11/read ings/glmbook.pdf
McCullough, C., Searle, S. J. & Neuhaus, J. (2001). Generalized, linear, and mixed models. Hoboken: John Wiley & Sons.
Panajotovic, A. S., & Draca, D. L. (2015). Channel capacity of dual SC system with desired signal decision algorithm in correlated Weibull fading. 12th International Conference on Telecommunication in Modern Satellite, Cable and Broadcasting Services (TELSIKS), Nis, 2015, 263-266. DOI: 10.1109/TELSKS.2015.7357783.
Ray, D. & Vohra, R. (1999). A theory of endogenous coalition structures. Games and Economic Behavior, 26, 286-336.
Schall, R. (1991). Estimation in generalized linear models with ran-dom effects. Biometrika, 78, 719-727.
Steinert-Threlkeld, S. (2016). Compositional Signaling in a Complex World. Springer Science+Business Media Dordrecht, 25, 379-397.
Veugelers, R. (1998). Collaboration in R&D: An assessment of theoretical and empirical findings. De Economist, 146, 419-443.
Wolfinger, R. B. (1999). Fitting nonlinear mixed models with the new NLMIXED procedure. Proceedings of the Twenty-Fourth Annual Statistics, Data Analysis, and Modeling. Miami Beach: Estados Unidos. Disponible en http://www2.sas.com/proceedings/sugi24/Stats/p287-24.pdf
Yi, S. (1998). Endogenous formation of joint ventures with efficiency gains. RAND Journal of Economics, 29, 610-631.
Yousefi, A., Kakooee, R. & Beheshti, M. (2017). Predicting learning dynamics in multiple-choice decision-making tasks using a variational Bayes technique. 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Seogwipo, 3194-3197. DOI: 10.1109/EMBC.2017.8037536.
Notas de autor
*Autor de correspondencia: Carlos N. Bouza Herrera, bouza@matcom.uh.cu