REDES- Revista hispana para el análisis de redes sociales
Vol.6, #5, Jun./Jul 2004
http://revista-redes.rediris.es
 

 

Estimación y evaluación de Modelos estructurales centro-periferia

 

García Muñiz, Ana Salomé; Ramos Carvajal, Carmen; Álvarez Herrero, Rubén; Fernández Vázquez, Esteban – Universidad de Oviedo[1]

Resumen

 

Resulta revelador intentar plasmar la idea referida a un conglomerado de agentes que constituyan un núcleo alrededor del cual gire la actividad objeto de estudio. La concepción de una estructura formada por un centro y una periferia, constituye un paradigma clásico y recurrente en muchos campos de la ciencia.

 

Siguiendo esta línea, los investigadores Stephen Borgatti y Martin Everett desarrollan un modelo estructural en 1999 basado en la delimitación de un centro formado por un conjunto de actores fuertemente relacionados, esto es, un grupo cohesivo y con alta densidad de interrelaciones. En contraposición, los agentes dispersos y poco conectados de la red delimitan la periferia del sistema.

 

El enfoque original de los autores es modificado empleando medidas que creemos, aportan un mayor grado de coherencia y exactitud a los objetivos planteados. En este trabajo, sin perdida de generalidad nos centramos en la estimación y posteriormente en la evaluación, de modelos centro-periferia basados en grafos valorados.

 

Palabras clave: redes sociales, análisis estructural, modelos centro-periferia.

 

Abstract

 

The conception of a structure made up of a core and periphery is a common, classic   paradigm in many fields of science. Following this line, in 1999 researchers Stephen Borgatti and Martin Everett developed a model of structural analysis based on the delimitation of a core formed by a group of densely connected actors, in contrast to a class of actors, more loosely connected and forming the periphery of the system.

 

The original approach of these authors is modified, employing measures that, in our opinion, show a larger degree of coherence and accuracy in the proposed objectives.

 

Key words: network theory, structural analysis, core-periphery models.

 

 


1. Introducción

 

Resulta revelador intentar plasmar la idea referida a un conglomerado de agentes que constituyan un núcleo alrededor del cual gire la actividad objeto de estudio. La concepción de una estructura formada por un centro y una periferia, constituye un paradigma clásico y recurrente en muchos campos de la ciencia.

Siguiendo esta línea, los investigadores Stephen Borgatti y Martin Everett desarrollan en 1999 un modelo de análisis estructural basado en la delimitación de un centro formado por un conjunto de actores fuertemente relacionados, esto es, un grupo cohesivo y con alta densidad de interrelaciones. En contraposición, los agentes dispersos y poco conectados de la red delimitan la periferia del sistema.

El enfoque original de los autores es modificado empleando medidas que creemos, aportan un mayor grado de coherencia y exactitud a los objetivos planteados. En este trabajo, sin perdida de generalidad[2] nos centramos en la estimación y posteriormente en la evaluación, de modelos centro- periferia basados en grafos valorados. Se concluye con una breve síntesis de los resultados obtenidos.

 

2. Modelo centro-periferia. Planteamiento general

Siguiendo la línea de desarrollo iniciada por Borgatti y Everett (1999), es posible reconstruir un modelo donde se determine el centro o núcleo de la actividad frente a aquellos nodos que constituyen la periferia de la misma. La delimitación de las zonas de interés se basa en la comparación de una estructura ideal con los datos disponibles de la red, asumiendo que aquellos actores con unas relaciones más intensas serán los que constituyan el núcleo central.

La medida de proximidad entre la estructura real y teórica propuesta por Borgatti y Everett es:

 

Donde  muestra la presencia de relaciones observadas entre los nodos i-ésimo y j-ésimo, dij indica la existencia de interrelaciones entre los actores en la matriz imagen ideal centro-periferia, y ci es el grado de centralidad del actor i-ésimo, tal que .

La estructura teórica contendrá valores relativamente elevados para aquellos pares de actores que mantengan un alto nivel de centralidad (coreness), mientras que valores intermedios corresponderán a aquellos casos en los que sólo uno de los nodos muestra una posición central, por último, los actores pertenecientes a la periferia llevarían aparejados valores de pequeña cuantía.

La estimación de los valores correspondientes al centro (ci), se efectúa a partir de un proceso de maximización de la correlación entre las estructuras teórica y  real. Sin embargo, dicho procedimiento no resulta, en general, correcto dado que la existencia de una alta correlación entre las estructuras, no supone, necesariamente, que ambas sean idénticas, sino sólo que se comportan igual.  El coeficiente de correlación mide la fuerza de la relación entre dos variables, y el sentido de la misma, pero no la coincidencia  o concordancia del valor de sus observaciones. De hecho, un cambio en las unidades de medida de una de las magnitudes no afectaría a la correlación, aunque si indudablemente a la concordancia.

En otro orden de cosas, tampoco el método empleado en la resolución del problema de maximización resulta idóneo. El algoritmo iterativo aplicado- propuesto por Fletcher y Powell-, introduce variabilidad en sus resultados según cuál sea el punto de partida considerado, lo cual cuestiona la unicidad y representatividad de la solución ofrecida al existir la posibilidad de presentar como solución un máximo que sólo sea local, y no el global de la función (Everitt, 1987).

La conjunción de una medida de partida potencialmente confusa junto con las limitaciones del procedimiento de resolución aplicado, plantean la necesidad de afrontar una reforma de la metodología en una doble vertiente, estimación de coeficientes y análisis de bondad, cuestiones abordadas en los siguientes epígrafes.

 

3. Proceso de estimación

Con la finalidad de intentar resolver el primer problema señalado, proponemos emplear medidas derivadas de la teoría de la información con el objetivo  de estimar la estructura teórica que presente mínima divergencia con la estructura real objeto de estudio.

Una de las medidas pioneras de la teoría de la información es la denominada entropía de Shannon, la cual junto con otras medidas similares, han sido empleadas como indicadores de la diversidad existente dentro de una población[3].

La entropía de una distribución puede ser entendida como el desorden existente en la misma, es decir, la incertidumbre asociada a un determinado fenómeno. Dicha incertidumbre puede ser cuantificada a partir de un sistema de probabilidad. Así, si un fenómeno lleva asociado una distribución de probabilidad uniforme, presentará una mayor carga de incertidumbre que cualquier otro.

A partir de la medida de entropía propuesta por Shannon,  Kullback y Leibler (1951) introducen una medida de divergencia entre dos distribuciones. Consideremos dos variables aleatorias discretas X e Y cuyas probabilidades asociadas son  y , respectivamente. Se define la distancia de Kullback-Leibler como la expresión que sigue:

D(P,Q)=

Siguiendo la línea desarrollada por Golan, Judge y Robinson (1994) se plantea la siguiente expresión a partir de la divergencia anterior de Kullback y Leibler, consideradas dos distribuciones de probabilidad conjuntas recogidas en  y :

  

 

Dicha medida permite detectar la divergencia entre dos distribuciones bidimensionales discretas. Además, ofrece una alternativa a la estimación de la matriz teórica  que suponga  la mínima divergencia con la estructura real objeto de estudio.

La especificación del modelo centro versus periferia, a  partir de la delimitación de un conglomerado de nodos que constituya un núcleo generador de actividad, se inspira en el principio de mínima entropía sujeto a una serie de restricciones:

Min    

s.a.

 

Donde pij y qij corresponden respectivamente a las proporciones de conexiones teóricas y observadas  en las estructuras consiguientes recogidas en la Tabla Nº 1:

Tabla Nº 1. Organigrama de estructuras

RED TEÓRICA

 

 

RED REAL

 

1

...

n

 

 

 

1

n

1

d11

d1n

 

 

1

x11

x1n

 

 

n

dn1

dnn

 

 

n

xn1

xnn

 

de tal forma que:

     

La solución al proceso de minimización planteado se obtiene utilizando el método de los multiplicadores de Lagrange[4], cuya expresión es (Golan, et. al. 1994):

  

 

Donde

  

 

y  representa los multiplicadores de Lagrange asociados a las restricciones.

Es interesante destacar algunas de las propiedades del proceso de minimización generado a partir de la entropía cruzada[5], tales como la unicidad de la solución, que muestran que este procedimiento es potencialmente más adecuado que el algoritmo empleado por Borgatti y Everett el cual no permite garantizar la representatividad de la solución[6]. El método planteado permite además ofrecer estructuras similares en las cuales se conserven tanto los ceros como la intensidad de las variables. Los coeficientes qij importantes o relativamente elevados son representados por pij también relativamente considerables en la matriz teórica y, los coeficientes que son nulos o positivos en la matriz observada, seguirán el mismo patrón en la estructura imagen[7]. La posible inclusión además de ecuaciones no lineales, junto con desigualdades supone una ventaja operacional de la que otros métodos menos rápidos y eficientes carecen. Este rasgo permite la inclusión de información adicional derivada de otras fuentes o estudios, en la medida en la que sea posible su definición a partir de apropiadas ecuaciones.

Dado que nuestro interés es la determinación de los índices de centralidad (ci), para diferenciar los actores centrales de los periféricos, se debe proceder a su estimación a partir de los resultados obtenidos anteriormente (pij).

Puesto que por construcción  pij=,  las conexiones teóricas entre un par de actores i-ésimo y j-ésimo se pueden determinar un sistema de ecuaciones como el que sigue:

  

 

A partir del cual se establecen los índices de centralidad como[8]:

  

 

 

4. Análisis de bondad

La adaptación de la matriz teórica a la matriz observada, constituye un punto de análisis interesante y posterior a la determinación de los datos necesarios en nuestro modelo. Se presentan, para ello, dos posibles líneas de trabajo con el objetivo de estudiar la fiabilidad del modelo planteado.

La primera mantiene el hilo conductor derivado de la teoría de la información. La distancia de Kullback y Leibler sobre las variables bidimensional supone una medida del grado de exactitud entre las estructuras consideradas.  La segunda vía de estudio ofrece un análisis gráfico del nivel de concordancia existente entre las redes planteadas a partir de la definición de límites de concordancia a un nivel de confianza .

4.1. Divergencia distributiva

Una medida de divergencia directa extensamente aplicada por sus adecuadas propiedades es la distancia de Kullback y Leibler (1951), empleada ya en el proceso de estimación.

Dadas dos distribuciones de probabilidad  y , un indicador de la divergencia entre dos distribuciones de probabilidad puede ser entendido como una medida del error cometido al considerar que la distribución correcta es q. Su expresión es la que sigue:

  

 

Muestra, por tanto, la ineficiencia o el error cometido al asumir que la distribución correcta es q cuando en realidad lo es la distribución desconocida p.

Medida acotada inferiormente por cero, alcanzará dicho valor, si y sólo si, p=q.  Y a medida que la divergencia entre las distribuciones sea mayor, dicho indicador crecerá[9].  Además debe considerarse que , lo cual resulta un rasgo relevante en la decisión de la matriz sobre la cual se realiza la comparación.

Considérese ahora dos distribuciones de probabilidad bidimensionales  y  , cuyos elementos pij y qij, definidos anteriormente, corresponden respectivamente a las proporciones de relaciones teóricas y observadas .

La distancia de Kullback y Leibler (1951) asociada a estas variables bidimensionales, con comportamiento análogo al anteriormente expresado para una variable unidimensional, ofrece un indicador de la concordancia existente entre la estructura teórica y real:

  

 

 


4.2. El método de altam-bland

El método desarrollado por Altam-Bland (1986) permite visualizar gráficamente el nivel de concordancia existente entre las dos estructuras consideradas.

Sea mij,  la relación i-ésima[10] especificada en la matriz j-ésima, la información disponible podrá ser resumida en una tabla de doble entrada como la expuesta a continuación, donde el tamaño de muestra (n) para cada una de las dos situaciones experimentales- tablas real y teórica- coincide.

Tabla Nº 2

 

Red

Observaciones

  Observada    Teórica

1

 

i

 

n

La representación de la nube de puntos de las observaciones consideradas junto a la bisectriz del primer cuadrante, supone una aproximación inicial e intuitiva al grado de concordancia existente. De forma que, cuanto mayor sea la proporción de datos sobre la línea mencionada, menor será la discrepancia existente entre los resultados estimados y observados.

Gráfico Nº 1

 

 


                                      

 

 

 

 

m2

 
 

 


Donde m1 y m2 representan los datos relacionales de la red observada y teórica respectivamente.

Dado que, previsiblemente, ambas estructuras divergirán en el grado de sus interrelaciones, resulta interesante medir el grado de concordancia alcanzado.

El coeficiente de correlación usualmente empleado con este fin no resulta, como ya se ha comentado, adecuado por lo que la siguiente representación supone una alternativa sencilla que proporciona dos límites aleatorios entre los que con cierta probabilidad o confianza , se halle comprendido el nivel de divergencia existente entre las estructuras analizadas.

Sea D la variable diferencia resultante de la comparación de la estructuras de las dos redes, y M la media de las observaciones respectivas de las mismas. La gráfica de la nube de puntos que representa a las variables media y diferencia se representa en el gráfico Nº 2.

Gráfico Nº 2

 

l

 
 


l

 

l

 

 

l

 

 

 

l

 

 

 

 

 

 

 

 

 


La delimitación de una banda en la cual se sitúen discrepancias pequeñas entre ambas redes se puede generar como  . De hecho, si la variable diferencia se distribuyese normalmente, aproximadamente el 95% de las mismas se situarían dentro de los límites establecidos como .

Si las divergencias observadas entre las dos estructuras se sitúan dentro de los extremos establecidos, denominados límites de concordancia, no resultarán significativas y se puede considerar las redes como potencialmente intercambiables dada su similitud. En caso de que no haya un error sistemático los puntos se distribuirán de forma aleatoria a uno y otro lado de la recta que represente la diferencia nula[11]. Dado que estos límites son estimaciones puntuales aplicadas al conjunto de la población, deben ser complementadas con sus intervalos de confianza respectivos[12], las bandas aleatorias a las cuales pertenecerán los parámetros desconocidos con cierto nivel de confianza  bajo el supuesto de normalidad[13]:

La representación gráfica donde se recogen estos límites aparece en el gráfico siguiente, tal que la línea pespunteada gruesa representa la banda de concordancia y sus límites inferiores de confianza son delimitados por pespuntes finos.

Gráfico Nº 3

 

5. Conclusiones

Los modelos centro-periferia desarrollados por Borgatti y Everett (1999), constituyen una herramienta de análisis de valiosa utilidad, que son capaces de modelizar la idea clásica de la existencia de una estructura constituida por un núcleo activo, formado por un entramado denso y compacto de actores, frente a un conglomerado disperso en sus relaciones y poco conectado.

El proceso de estimación aplicado por estos autores presenta sin embargo, una serie de restricciones. La conjunción de una medida de partida potencialmente confusa junto con las limitaciones del procedimiento de resolución, plantean la necesidad de afrontar una reforma de la metodología en una doble vertiente, estimación de coeficientes y análisis de bondad, cuestiones abordadas en el presenta trabajo.

 

6. Bibliografía

Bland, J. Martin, Altam, Douglas G. (1986). “Statistical methods for assessing agreement between two methods of clinical measurement”. Lancet, i, pp.307-310.

Bland, J. Martin, Altam, Douglas G. (1999). “Measuring agreement in method comparison studies”. Statistical Methods in Medical Research, Nº 8, pp. 135-160.

Blien, Uwe, Graef, Friedrich (1997). “Entropy optimising methods for the estimation of tables”. Proceedings of the 21st Annual Conference of the Gesellschaft für Klassifikation e.V., University of Potsdam, March 12-14.

Blien, Uwe, Tassinopoulos, Alexandros (2001). “Forecasting regional employment with the ENTROP method”. Regional Studies, Vol. 35, Nº 2, pp.113-124.

Borgatti, Stephen P., Everett, Martin G. (1999). “Models of Core/Periphery Structures”. Social Networks, Nº 21, pp. 375-395.

Cover, Thomas M., Thomas, Joy A. (1991). Elements of Information Theory. United States of America: Wiley series in telecommunications.

Everitt, Brian (1987). Introduction to optimisation methods and their application in statistics. New York: Chapman and Hall Ltd,.

Golan Amos, et. al. (1994). “Recovering information from incomplete or partial multisectoral economic data”. The Review of Economics and Statistics, 76, pp. 541-549.

Kullback, Solomon, Leibler, Richard A. (1951). “On information and sufficiency”, Annals of Mathematical Statistics, Nº 22, pp. 79-86.

Lin, Lawrence, Hedayat, A.S., Sinha, Bikas, Yang, Min (2002). “Statistical Methods in Assessing Agreement: Models, Issues, and Tools”. Journal of the American Statistical Association, Vol. 97, Nº 457, pp. 257-270.

Lin, Lawrence (1989). “A concordance correlation coefficient to evaluate reproducibility”. Biometrics, Nº 45, pp.255-268.

Rao, C. Radhakrishna (1982). “Diversity and dissimilarity coefficients: A unified approach”. Theoretical Population Biology, Vol. 25, pp. 24-43.

Shannon, Claude E. (1948) “A mathematical theory of communication”. Bell Systems Tech Journal, Vol. 27, pp. 379-423, 623-659.



[1] Enviar correspondencia a: Ana Salomé García Muñiz asgarcia@uniovi.es

[2] Las técnicas de fiabilidad empleadas resultan extensibles a grafos dicotómicos.

[3] Ver Rao (1982).

[4] Dadas las características del problema, éste ha de se resuelto numéricamente.

[5] Se pueden consultar dichas propiedades en Blien (2001).

[6] Ver Everitt (1987), Cover y Thomas (1991) para una revisión de ambos métodos respectivamente.

[7] Ver Blien y Graef (1997).

[8] Correspondería a un sistema de ecuaciones sobreidentificado.

[9] Alcanzará el valor log(n) en el caso en que una de las distribuciones sea degenerada y la otra presente un reparto uniforme.

[10] Sea considerada cada celda de la tabla analizada como una observación i-ésima, orden que será mantenido para el estudio de las restantes matrices.

[11] Las relaciones entre ambas variables puede mostrar la existencia de cierto sesgo, en cuyo caso, los datos deben ser sometidos a ciertos tratamientos estadísticos.  La aplicación de logaritmos, puede solventar el problema en aquellos casos más sencillos. En caso contrario se requiere la aplicación de una combinación de métodos de regresión que establezcan el intervalo de confianza establecido. Ver  Bland y Altam (1999).

[12] La varianza del intervalo de confianza inicial, bajo el supuesto de independencia entre  y , responde a:

Expresión que puede ser aproximada para tamaños de muestra elevados por:

[13] Si las variables no cumplen el supuesto de normalidad, y existen fuertes discrepancias entre las redes consideradas, la estimación de los intervalos se debe plantear a partir de métodos no paramétricos. Dada la proporción de diferencias mayores a cierto valor de referencia, o  un determinado centil para, por ejemplo el 10%,  la banda de confianza se construye aplicando el modelo binomial para la proporción o el  error estándar del centil. Aún así estos métodos resultan menos exactos o confiables que aquellos que emplean el supuesto de normalidad  (Bland y Altman, 1999).