Capítulo 3 series de tiempo



Descargar 92.76 Kb.
Fecha de conversión24.03.2017
Tamaño92.76 Kb.


CAPÍTULO 3

3. SERIES DE TIEMPO

Las series de tiempo son un registro metódico a intervalos de tiempo fijos de las características de una variable, o su observación numérica. Se usan para describir y analizar fenónemos a través del tiempo. Las series de tiempo son en definitiva procesos estocáticos, pero con la restricción de que estén indexados por el tiempo y que los cortes se hagan a intervalos fijos. Definiremos a continuación un proceso estocástico.


3.1 Procesos Estocásticos

Un proceso estocástico es una familia de variables aleatorias asociada a un conjunto índice de números reales: es decir a cada elemento del conjunto de números índice, le corresponde una y solo una variable aleatoria.


Sea el conjunto de números reales índice. Definimos como la variable aleatoria correspondiente al elemento de (es decir, está en ). Definimos al proceso estocástico como la familia (o el conjunto) de variables aleatorias { }
Las series de tiempo discretas, (,,,…,) son las observaciones de una variable en el tiempo (1,2...n). El proceso estocástico respectivo será: { Z(), Z(), Z(),…..Z() }. Es decir, una familia (o conjunto) de variables aleatorias. En lo sucesivo el nombre de la variable en (t) y su valor observado, se denotarán por .
Una serie de tiempo observada es simplemente una realización de un proceso estocástico: siempre habrá un elemento probabilístico en las observaciones registradas y observadas.
El comportamiento de una variable aleatoria se describe por su función de densidad . El comportamiento de dos variables aleatorias , queda descrito por su función de densidad conjunta , y si éstas son variables aleatorias independientes: .
En el análisis de series de tiempo se establece el supuesto de que las observaciones no provienen de variables aleatorias independientes: se supone que existe toda una estructura de correlación entre las observaciones; por lo que no es fácil obtener la función de densidad conjunta.
3.1.1. Ventajas de aplicar procesos estocásticos a series de tiempo:

  • Flexibilidad para representar un amplio número de fenómenos mediante una sola clase general de modelos.

  • Facilidad y precisión en pronósticos.

  • Generalizar métodos de análisis de variables individuales a grupos de variables.

Ahora analizaremos los procesos determinísticos. Para ello, vamos utilizar ciertas herramientas de las ecuaciones en diferencia.




  • Su solución.

  • Condiciones para llegar al equilibrio.

“Temporalmente” hacemos caso omiso a la aleatoriedad. Luego, ya haremos un símil entre equilibrio y estacionariedad.


3.2 Ecuaciones en diferencia:

Operador incremento :



La ecuacion:
Se puede escribir como:
La solución general de dicha ecuación es:


Es fácil probar que la solución de la ecuación diferencial 1, está dada por la ecuación 2 : aplicando a la ecuación 2 el operador; se obtiene la ecuación (1).
La solución particular requiere información adicional para calcular el valor de . Más generalmente, conociendo la condición inicial , se tendría que , y la solución de la ecuación en diferencia sería: si suponemos que , cuando ; tiende a cero y tiende a:
El método iterativo o “pedestre”, permite también resolver una ecuación en diferencia.













Ecuaciones en diferencia de segundo orden:

3.3. Tipos de series de tiempo:

3.3.1. Series de tiempo estacionarias.-

Una vez definida la función de autocavarianza, podremos definir la estacionariedad de un proceso estocástico, en este caso, de una serie de tiempo (más especificamente nos referimos a la estacionalidad débil). En general, cuando se habla de estacionaridad nos referimos a estacionaridad débil.


3.3.1.1. Estacionaridad o estacionaridad débil.- la serie de tiempo , donde es el conjunto de los números enteros es estacionaria sí y solo sí:

i) ,

ii) ,

iii) , .
En resumen para que una serie de tiempo sea estacionaria se necesita que su varianza se mantenga finita, que su primer momento sea constante a lo largo del tiempo y que la covarianza entre dos variables de la serie solo dependan de el lapso entre estas y no en su ubicación en el tiempo (es decir la covarianza entre y solo dependedan de , y no de ni de .
3.3.1.3. Estacionaridad Estricta.-

Se dice que la serie de tiempo es estrictamente estacionaria si la distribución conjunta de es la misma que la de .


Debe notarse que en la estacionaridad estricta no se necesita que los

Mantengan su varianza finita, por consiguiente la estacionaridad estricta no implica necesariamente estacionaridad débil. También es de notar que toda función no lineal de un proceso estrictamente estacionario sigue siendo estrictamente estacionario, sin embargo no sucede lo mismo con las funciones no lineales de procesos estacionarios débiles. Por ejemplo el cuadrado de un proceso estacionario débil puede no tener una varianza finita.


Las propiedades de los procesos estacionarios y no estacionarios son muy diferentes, y requieren diferentes métodos para realizar inferencias. Un procedimiento, para estudios empíricos, sencillo y útil de reconocer entre un proceso estacionario y uno no estacionario es ploteando los datos. Si una serie parece no tener una media constante o varianza, entonces es muy probable que no sea estacionaria.

3.3.1.3. Estacionariedad de las series de tiempo:

En la práctica muchas series no son estacionarias; pero sí sus primeras y segundas diferencias. El propósito de diferenciar una serie es volver estacionaria al diferencial de dicha serie. No obstante, debe recordarse que si se toman diferencias de series que ya son estacionarias; estas diferencias también serán estacionarias. Luego puede darse una sobre diferenciación de las series; lo que acarrea problemas de identificación respecto a aquel modelo que representa mejor el proceso que sigue la serie y se incrementa su varianza.


Una serie de tiempo es estacional cuando además de su tendencia y ciclo de largo plazo, muestra fluctuaciones que se repiten periódicamente.


  • Observaciones mensuales: puede haber similitud de comportamiento para observaciones del mismo mes; por ejemplo, venta de juguetes en los “meses de diciembre”. También puede haber un patrón de comportamiento periódico con duración menor a un año; por ejemplo, “cada seis meses” a partir de junio. Las observaciones de los “meses de junio” y los “meses de diciembre” serán similares en su comportamiento, además de un comportamiento similar de las observaciones de los “meses de diciembre” entre sí, y de los “meses de junio” entre sí.

  • Es conveniente considerar genéricamente un periodo E donde esperamos observar comportamiento estacional de la variable.


3.3.1.4. Procesos Ergódicos

La ley de los grandes números de Kolmogorov establece que si los ´s son indepedientes y están todos identicamente distribuidos con media y varianza entonces tenemos el siguiente límite:


.
En series de tiempo en lugar de tener un promedio de un conjunto de individuos en un instante dado, tendremos un promedio a través del tiempo del mismo individuo. Para entender mejor esta diferencia consideremos primero un conjunto de estudiantes formanado un curso, se tomó primero el promedio de todo el curso de cierto examen final. Luego se tomó el promedio de la carrera estudiantil de un solo estudiante. Ciertamente son medidas diferentes. En el primer caso la ley de los grandes números afirma que el promedio del curso convergerá al de la distribución. Para poder hacer una aplicación de esta ley, a las series de tiempo es necesario que éstas sean ergódicas y estacionarias.
Para definir lo que es un proceso ergódico, primero debemos definir lo que son las medias temporales de un proceso. Si es un proceso estocástico, entonces su media temporal, , se define así:

Ahora si podremos definir lo que es un proceso ergódico.


3.3.1.4. Proceso ergódico

es un proceso ergódico si y solo si todas sus medias estadísticas de la familia pueden ser intercambiadas por sus correspondientes medias temporales. Es decir una simple realización temporal es representativa de todo el proceso. Que un proceso sea ergódico implica que éste sea estacionario, pero al revés no.

Por lo tanto: Si la serie de tiempo es estacionaria y ergódica con , entonces el promedio de la serie de tiempo converge a , es decir:



.
3.3.1.5. Procesos estocásticos lineales:

Ocurren choques aleatorios independientes de una variable. Estos choques, generan series de tiempo para otras ciertas variables, cuyos valores sucesivos pueden ser altamente dependientes: esta es la idea genial que introdujeron Yule(1927) y Box & JenKins (1970).


es la variable sujeta a choques aleatorios independientes. Sin embargo, los valores que se generan para relacionada con un polinomio de rezagos de , son altamente dependientes con valores sucesivos de .
Por ejemplo: at, la variable sujeta a choques aleatorios independientes, puede ser “la cantidad de lluvia”, la cual tiende afectar “las cosechas de maíz”. Es factible que la cosecha de maíz en el período t, denotada por esté afectada por la cantidad de lluvia del año t, la de un período pasado y la del período antepasado; por lo que la cosecha actual y la del año próximo estarán relacionadas : ambas dependientes de las lluvias actuales y las del año pasado.



El polinomio de retraso para “convierte”, a través de una relación, el proceso estocástico {} en el proceso {}.
3.3.1.6. Características de una serie de tiempo.-

Para realizar inferencias acerca de estas variables, muchas veces es útil “descomponer” la serie de tiempo por sus principales componentes:



  • Tendencia y ciclo: representa el movimiento de largo plazo de la serie.

  • Estacionalidad: representa efectos de fenómenos que ocurren o se reproducen periódicamente (fin de semana, diciembres, los viernes, etc.).

  • Irregularidad: movimientos impredecibles o aleatorios.

Tendencia y ciclo y estacionalidad, conforman la parte determinística de la serie, mientras que la irregularidad representa la parte no-determinística o estocástica de la serie.


Muchos usuarios de la información se limitan a desestacionalizar las series estocásticas (en parte por la generalización de métodos de desestacionalización), sin intentar un análisis estadístico mas completo.
3.4. Modelos de series de tiempo

3.4.1. Operadores y polinomios:

Los polinomios de retraso son muy útiles, porque permiten representar en forma concisa y simple modelos que son muy valiosos (pero que parecen complejos).




  • Operador de retraso o “backward” B, aplicable a Z t. Nos indica que se debe retrasar la variable un periodo:

es decir, B Z t = Z t-1,

también, B2Z t = B [B Z t] = B[Z t-1] = Z t-2 ,

y en general, Bk Z t = Z t-k.


    • Operador diferencia , aplicable a . Nos indica que se debe obtener las diferencia entre y su valor rezagado:







    • Polinomios formados por observaciones presentes y pasadas, ponderadas:





    • Polinomios de retraso racionales:


A(B) = 1- aj B j ; C(B)= 1- c j B j



Ejemplo: probar que el siguiente operador (polinomio de retrasos) es “racional”:


G(B) = 1+ gB +g 2 B2 + g 3 B3 + g 4 B4....... Para: g < 1.
Es claro que en este caso G(B) es un polinomio de retraso racional,

puesto que es equivalente a la relación :


G (B) = A (B) / C(B) =1 / ( 1-g B). Donde: A (B) = 1 ; C(B) = (1-g B).
Modelos Autorregresivos (AR):

  • Deterministicos. Son del tipo:



= constante


  • Estocásticos. Se introduce una variable aleatoria:


constante
Donde es un proceso de ruido blanco. es un polinomio de rezagos de la forma: . Luego el modelo estocástico se puede escribir como:
constante
Si: , para todo , implica que la constante sea igual a . Y que el proceso estocástico se pueda escribir como:

.
El proceso es autorregresivo porque también se puede escribir como:

Es importante determinar si el proceso estocástico tiene estacionariedad; es decir si tiende a localizarse (la mayoría de las veces) en la vecindad de su valor medio.
Tenemos:
. El proceso será estacionario si para el polinomio de rezagos, (B), equivalente a:
, , para


Representación de procesos (o modelos) autorregresivos (AR):



El modelo AR será de orden (1,2,3,…p), de acuerdo con el número (1,2,3,..p) de rezagos que el polinomio operador de rezagos (B) realice.
Modelo autorregresivo de orden uno. AR (1):
, que genera una serie de tiempo conocida como serie de Markov.
El proceso se puede re-escribir como:
La raíz de la ecuación: , deberá encontrarse fuera del circulo unitario: es decir
Modelo AR (2):



Modelo AR (p):



Modelos promedios móviles (MA).

Introducidos por Yule (1926) y Slutsky (1927). Son procesos estocásticos , cuyos valores pueden ser dependientes entre sí, porque corresponden a una suma finita ponderada de choques aleatorios independientes .


Zt = (1-B -B2 -B3 -B4 ……….-Bq ) a t
El término “promedios móviles” no es estrictamente correcto, porque puede ser negativo y   1.
es menor a infinito y considerando un número finito de sumandos, el proceso es estacionario.

Representación de promedios móviles por medio de polinomios de retrasos:



Donde {} es una sucesión de variables aleatorias con ciertas características.
La representación compacta del modelo de promedios móviles (MA) será:

. A este modelo se le conoce como el modelo de promedios móviles, o modelo MA por sus siglas en inglés. De acuerdo con el número de rezagos que el polinomio operador de rezagos ( B ) realice (1,2,3, …q), el modelo MA alcanzará un orden (1,2,3, …q).
Modelo MA(1):
(1- B)a t =a t- a t-1

E= 0 ; VAR (1- )VAR (a) =(1- ) .


La autocovarianza entre y será:
E[(a t- a t-1)( a t- a t-k-1) = - ,para K=1 y cero para ;
por lo que el coeficiente de autocorrelación entre y será:
=Autocovarianza(;) / VAR (a) = -(1-) para K=1; cero para .
El proceso MA(1) “no recuerda” más allá de lo ocurrido el periodo anterior; es decir tiene una memoria limitada a un periodo. Note que  0.5.
Los procesos autorregresivos estacionarios pueden representarse por modelos de promedios móviles (siempre que sea menor a uno); de igual forma los modelos MA (1) pueden representarse en forma de un modelo autorregresivo si

1 .


En general cuando un proceso AM(q) se puede expresar mediante un modelo AR(p) se dice que dicho proceso es invertible.
Modelo MA (2):
(1- B- B2) a t

E = 0 ; VAR= ( 1 + ) .


Modelo MA (q)

(1- B - B2 - …..- Bq) a t

at - a t-1 - at-2………..- a t-q.



y un coeficiente de autocorrelación de la serie >0 para K= 1,2,3 ...q y cero para ; lo que nos señala que el proceso MA (q) tiene “memoria limitada” a q periodos.
ARMA (p, q):
Modelo autorregresivo y de promedios móviles: Proceso estocástico que sigue la variable aleatoria Zt , cuya desviación con respecto a su valor esperado lo denotamos por:

t = Z t -
El modelo lo expresamos de la siguiente forma:

1) ,

Donde (B), (B) son operadores de rezagos de orden p y q respectivamente, {at} es una variable aleatoria con proceso de ruido blanco (media cero y varianza finita).
Una forma alterna de escribir el proceso que sigue la variable t sería:

1.1)

O bien:

1.2)


El modelo ARMA (p, q) es una generalización de los modelos AR y MA, combinando ambas clases de modelos. Tal generalización surge de observar que las series de tiempo presentan, simultáneamente, características de procesos AR Y MA. Además, el principio de parsimonia sugiere construir modelos que incluyan el menor número posible de parámetros.
Es de esperarse que no todas las series de tiempo sean estacionarias, supuesto bajo el cual está construido el modelo ARMA. No obstante, sabemos que para casi cualquier serie no estacionaria, la primera, segunda o tercera diferencia de la serie si es estacionaria. Bajo estas condiciones Yaglom (1955), consideró que si el proceso original {t } adolece de no estacionariedad causada por una tendencia polinomial no determinista (a la cual se le denomina no estacionariedad homogénea) es posible construir un proceso estacionario {Wt}, tal que:

2) Wt = d t , para toda t. Para esta nueva serie es posible obtener un modelo ARMA:



(B) Wt = a t, equivalente a considerar el modelo ARIMA : (B) d t = a t
En el modelo ARIMA el término “integración” proviene de que Z t equivale a la suma de un número infinito de valores actuales y pasados de Wt . Consideremos la ecuación 2, para d =1. El valor de Zt se puede obtener multiplicando ambos lados de dicha ecuación por el operador -1, obtendríamos:

Zt = -1 Wt = (1-B)-1 W t = W t + W t-1 + W t-2 + W t-3 +….. …, una suma de un numero infinito de términos.



Modelo ARIMA ( p, d, q).-

Dado que en muchas ocasiones el proceso estocástico que sigue [Z t - ] = t no es de estacionariedad; pero si su diferencial de primero, segundo, tercer..… enésimo orden, se puede formular una generalización del modelo ARMA para llegar a lo que se conoce como modelo ARIMA.


Tendremos finalmente:

( B ) [ d ( Z t - ) ] = ( B ) d t = B a t.
Que constituye el llamado modelo autorregresivo integrado y de promedios móviles, o modelo ARIMA por sus siglas en inglés (autorregresive, integreted, moving average).

El modelo ARIMA se describe más precisamente como: ARIMA (p, d, q). Donde p es el número de rezagos que el polinomio operador de rezagos (B ) realiza, d es el número de diferenciaciones sobre t que el operador d realiza y q es el número de rezagos que el polinomio operador de rezagos (B) realiza. (Ver figura 4).




=




Orden del polinomio de retraso B



p

Orden del exponente

en el operador diferencia



d

Orden del polinomio de retraso B

q


Fig. 4

Un modelo ARIMA (p, d, q) indica que el modelo consta de un polinomio autorregresivo de orden p, de una diferenciación en la variable de estudio t de orden d, y de un polinomio de promedios móviles de orden q, tal como se muestra en la figura 3.


Modelo Multiplicativo Estacional (ARIMA ( p, d , q) X (P ,D , Q)E):
A fin de incorporar los efectos estocásticos estacionales y no estacionales a que están sujetos los valores observados de cierta característica de la población, o series de tiempo, Box y Jenkins (1970) propusieron un modelo general del tipo:
(BE ) ( Z t - ) = (BE) t
Donde las variables {t} no se suponen ruido blanco, sino generadas por un proceso ARIMA (p,d,q), o sea:
(B) d t = (B) a t

Con (a t) un proceso de ruido blanco. De estas dos últimas expresiones se obtiene el modelo multiplicativo estacional:


(B)(BE ) ( Z t - ) =(B)(BE) a t
El cual lo denotamos por: modelo ARIMA ( p, d , q) X (P ,D , Q)E.
Como es de esperarse, a mayor complejidad del modelo corresponde una estructura de autocorrelación más compleja.
El modelo ARIMA multiplicativo estacional para series con observaciones mensuales permite;
1) Considerar la relación que puede existir entre las observaciones de meses contiguos dentro de los años.
2) Considerar la relación que puede haber entre años, para las observaciones de los mismos meses.
Es decir se “captura” simultáneamente, los efectos estacionales y de tendencia del proceso “multiplicativa” o de “auto-refuerzo” de manera de tales efectos.


La base de datos está protegida por derechos de autor ©bazica.org 2016
enviar mensaje

    Página principal