fbpx
Wikipedia

Multicolinealidad

El proceso o término de multicolinealidad en econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.[1][2]

Clases de colinealidad

Existen varios tipos de colinealidad.[3]

Multicolinealidad exacta

Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal de otra, es decir, existe un coeficiente de correlación entre estas dos variables de 1. Esto provoca que  , es decir, la matriz   tenga determinante   y sea singular (no invertible).

Efectos y soluciones de la colinealidad exacta

Se da cuando el rango es menor al número de columnas:  

Ordenamos las variables explicativas del modelo de manera que:

 

Teniendo en cuenta que:

 

Sustituimos en el Modelo:

 

Y llamamos a  

y si reescribimos el modelo tenemos:

 

Cuando hay colinealidad exacta no podemos estimar los parámetros del modelo, lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables. Siendo en nuestro caso particular   nuestra función estimable.

Ejemplo de cómo operar con funciones estimables:

 

Como se puede ver, la tercera columna es el doble de la segunda, de manera que la matriz X'X es singular y en consecuencia no podríamos obtener el estimador MCO.

De manera que en virtud de lo visto anteriormente tenemos:

 

De manera que:

 

Multicolinealidad aproximada

Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas variables muy cercano al uno y por lo tanto:

 

Efectos y soluciones de la colinealidad aproximada

El efecto de la multicolinealidad es el aumento de las varianzas de los estimadores de los coeficientes de regresión debido a :

 

y al ser la Varianza de las perturbaciones:

 

Debido a esto y dado que para realizar el análisis estructural se necesita la varianza de los estimadores y al ser un componente de esta la inversa de |X'X| la convierte muy elevada, y en consecuencia las estimaciones son poco precisas y afecta negativamente al análisis estructural.

Otro efecto son que tenemos unas estimaciones sensibles a la muestra. Puesto que la función objetivo (suma de cuadrados de residuos) es muy plana en el entorno del óptimo, de modo que pequeños cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones.

Detección de la colinealidad

Método del factor de inflación de la varianza

Partimos de que:

 

De manera que podemos hacer un contraste de hipótesis, para ver si hay o no colinealidad para la i-ésima variable, habrá colinealidad cuando:

 

Siendo   el cuantil de la distribución F de Snedecor con k - 2 y n – k + 1 grados de libertad.

Por este método analizamos la colinealidad que produce una determinada variable explicativa.

Autovalores y número de condición de |X'X|

Partimos de que:

 

Siendo:

  i-ésimo autovalor de la matriz. Por tanto, podemos reducir el diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero.

 

De manera que en función del número de condición tenemos:

 

 

Por este método analizamos la colinealidad que producen todas las variables explicativas del modelo en su conjunto.

Método del determinante en la matriz de correlación de exógenas

En supuesto que no hay multicolinealidad fuerte, la matriz de correlación tiende a la matriz identidad, por lo cual su determinante tiende a la unidad.

Caso contrario, cuando hay multicolinealidad, la matriz de correlación dista de ser la identidad, y la determinante estará cercana a cero; entonces bajo esta situación se dice que hay indicios de multicolinealidad.

Solución de la colinealidad

Aumentar el tamaño muestral puede reducir un problema de colinealidad aproximada.

Si se suprimen variables que están correlacionadas con otras, la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá.

Trabajar con las series logaritmizadas.

Utilizar datos de corte transversal.

Desestacionalizar las series y quitarles la tendencia.

Referencias

  1. «Multicolinealidad». Consultado el 25 de febrero de 2020. 
  2. «El Concepto de Multicolinealidad». Consultado el 25 de febrero de 2020. 
  3. «Multicolinealidad». Consultado el 25 de febrero de 2020. 
  •   Datos: Q1332350

multicolinealidad, este, artículo, sección, necesita, referencias, aparezcan, publicación, acreditada, este, aviso, puesto, enero, 2012, proceso, término, multicolinealidad, econometría, situación, presenta, fuerte, correlación, entre, variables, explicativas,. Este articulo o seccion necesita referencias que aparezcan en una publicacion acreditada Este aviso fue puesto el 6 de enero de 2012 El proceso o termino de multicolinealidad en econometria es una situacion en la que se presenta una fuerte correlacion entre variables explicativas del modelo La correlacion ha de ser fuerte ya que siempre existira correlacion entre dos variables explicativas en un modelo es decir la no correlacion de dos variables es un proceso idilico que solo se podria encontrar en condiciones de laboratorio 1 2 Indice 1 Clases de colinealidad 1 1 Multicolinealidad exacta 1 1 1 Efectos y soluciones de la colinealidad exacta 1 2 Multicolinealidad aproximada 1 2 1 Efectos y soluciones de la colinealidad aproximada 2 Deteccion de la colinealidad 2 1 Metodo del factor de inflacion de la varianza 2 2 Autovalores y numero de condicion de X X 2 3 Metodo del determinante en la matriz de correlacion de exogenas 3 Solucion de la colinealidad 4 ReferenciasClases de colinealidad EditarExisten varios tipos de colinealidad 3 Multicolinealidad exacta Editar Afirmamos que hay colinealidad exacta cuando una o mas variables son una combinacion lineal de otra es decir existe un coeficiente de correlacion entre estas dos variables de 1 Esto provoca que det X t X 0 displaystyle det X t X 0 es decir la matriz X t X displaystyle X t X tenga determinante 0 displaystyle 0 y sea singular no invertible Efectos y soluciones de la colinealidad exacta Editar Se da cuando el rango es menor al numero de columnas R g X r lt k displaystyle Rg X r lt k Ordenamos las variables explicativas del modelo de manera que X X r X s k r R g X r r displaystyle X X r X s k r longleftrightarrow Rg X r r Teniendo en cuenta que X s X r M X X r I r M X r Z Z I r M displaystyle X s X r M longleftrightarrow X X r I r M X r Z longleftrightarrow Z I r M Sustituimos en el Modelo X X r Z Y X r Z b u Y X b u displaystyle X X r Z rightarrow Y X r Z beta u leftarrow Y X beta u Y llamamos a Z b ϑ displaystyle Z beta vartheta y si reescribimos el modelo tenemos Y X r ϑ u displaystyle Y X r vartheta u Cuando hay colinealidad exacta no podemos estimar los parametros del modelo lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables Siendo en nuestro caso particular ϑ displaystyle vartheta nuestra funcion estimable Ejemplo de como operar con funciones estimables X 1 4 8 1 2 4 1 5 10 1 7 14 1 9 18 1 12 24 1 13 26 1 1 2 displaystyle X begin pmatrix 1 amp 4 amp 8 1 amp 2 amp 4 1 amp 5 amp 10 1 amp 7 amp 14 1 amp 9 amp 18 1 amp 12 amp 24 1 amp 13 amp 26 1 amp 1 amp 2 end pmatrix Como se puede ver la tercera columna es el doble de la segunda de manera que la matriz X X es singular y en consecuencia no podriamos obtener el estimador MCO De manera que en virtud de lo visto anteriormente tenemos X r 1 4 1 2 1 5 1 7 1 9 1 12 1 13 1 1 X s 8 4 10 14 18 24 26 2 M 0 2 Z 1 0 0 0 1 2 displaystyle X r begin pmatrix 1 amp 4 1 amp 2 1 amp 5 1 amp 7 1 amp 9 1 amp 12 1 amp 13 1 amp 1 end pmatrix X s begin pmatrix 8 4 10 14 18 24 26 2 end pmatrix M begin pmatrix 0 2 end pmatrix Z begin pmatrix 1 amp 0 amp 0 0 amp 1 amp 2 end pmatrix De manera que ϑ Z b b 1 b 2 2 b 3 displaystyle vartheta Z beta begin pmatrix beta 1 beta 2 2 beta 3 end pmatrix Multicolinealidad aproximada Editar Afirmamos que hay colinealidad aproximada cuando una o mas variables no son exactamente una combinacion lineal de la otra pero existe un coeficiente de determinacion entre estas variables muy cercano al uno y por lo tanto X X 0 displaystyle X X simeq 0 Efectos y soluciones de la colinealidad aproximada Editar El efecto de la multicolinealidad es el aumento de las varianzas de los estimadores de los coeficientes de regresion debido a X X 0 1 X X displaystyle X X simeq 0 longleftrightarrow frac 1 X X approx infty y al ser la Varianza de las perturbaciones C o v b s ϵ 2 X X 1 s ϵ 2 1 X X a d j X X displaystyle Cov beta sigma epsilon 2 X X 1 sigma epsilon 2 frac 1 X X adj X X Debido a esto y dado que para realizar el analisis estructural se necesita la varianza de los estimadores y al ser un componente de esta la inversa de X X la convierte muy elevada y en consecuencia las estimaciones son poco precisas y afecta negativamente al analisis estructural Otro efecto son que tenemos unas estimaciones sensibles a la muestra Puesto que la funcion objetivo suma de cuadrados de residuos es muy plana en el entorno del optimo de modo que pequenos cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones Deteccion de la colinealidad EditarMetodo del factor de inflacion de la varianza Editar Partimos de que F I V b i 1 1 R x i 2 T b i 1 R x i 2 displaystyle FIV beta i frac 1 1 R xi 2 longleftrightarrow T beta i 1 R xi 2 De manera que podemos hacer un contraste de hipotesis para ver si hay o no colinealidad para la i esima variable habra colinealidad cuando F I V b i gt k 2 n k 1 F 0 1 displaystyle FIV beta i gt frac k 2 n k 1 F 0 1 Siendo F 0 displaystyle F 0 el cuantil de la distribucion F de Snedecor con k 2 y n k 1 grados de libertad Por este metodo analizamos la colinealidad que produce una determinada variable explicativa Autovalores y numero de condicion de X X Editar Partimos de que X X i 1 k l j displaystyle X X displaystyle prod i 1 k lambda j Siendo l j displaystyle lambda j i esimo autovalor de la matriz Por tanto podemos reducir el diagnostico a comprobar si la matriz tiene algun autovalor proximo a cero I C X X l m a x l m i n displaystyle IC X X sqrt frac lambda max lambda min De manera que en funcion del numero de condicion tenemos 10 I C 30 M o d e r a d a displaystyle 10 leq IC leq 30 rightarrow Moderada I C gt 30 G r a v e displaystyle IC gt 30 rightarrow Grave Por este metodo analizamos la colinealidad que producen todas las variables explicativas del modelo en su conjunto Metodo del determinante en la matriz de correlacion de exogenas Editar En supuesto que no hay multicolinealidad fuerte la matriz de correlacion tiende a la matriz identidad por lo cual su determinante tiende a la unidad Caso contrario cuando hay multicolinealidad la matriz de correlacion dista de ser la identidad y la determinante estara cercana a cero entonces bajo esta situacion se dice que hay indicios de multicolinealidad Solucion de la colinealidad EditarAumentar el tamano muestral puede reducir un problema de colinealidad aproximada Si se suprimen variables que estan correlacionadas con otras la perdida de capacidad explicativa sera pequena y la colinealidad se reducira Trabajar con las series logaritmizadas Utilizar datos de corte transversal Desestacionalizar las series y quitarles la tendencia Referencias Editar Multicolinealidad Consultado el 25 de febrero de 2020 El Concepto de Multicolinealidad Consultado el 25 de febrero de 2020 Multicolinealidad Consultado el 25 de febrero de 2020 Datos Q1332350Obtenido de https es wikipedia org w index php title Multicolinealidad amp oldid 137154167, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos