Tuesday 12 December 2017

Autocorrelation function moving average process


Objetivo: verificar os gráficos de autocorrelação de aleatoriedade (Box e Jenkins, pp. 28-32) são uma ferramenta comumente usada para verificar a aleatoriedade em um conjunto de dados. Esta aleatoriedade é determinada por computar autocorrelações para valores de dados em diferentes intervalos de tempo. Se for aleatória, tais autocorrelações devem ser próximas de zero para qualquer e todas as separações de intervalo de tempo. Se não for aleatório, então uma ou mais das autocorrelações serão significativamente não-zero. Além disso, as parcelas de autocorrelação são usadas na fase de identificação do modelo para os modelos auto-regressivos, modelos de séries temporais móveis de Box-Jenkins. Autocorrelação é apenas uma medida de aleatoriedade Observe que não correlacionado não significa necessariamente aleatório. Os dados que possuem autocorrelação significativa não são aleatórios. No entanto, os dados que não mostram autocorrelação significativa ainda podem exibir não-aleatoriedade de outras maneiras. Autocorrelação é apenas uma medida de aleatoriedade. No contexto da validação do modelo (que é o tipo primário de aleatoriedade que descrevemos no Manual), a verificação da autocorrelação é tipicamente um teste suficiente de aleatoriedade, uma vez que os resíduos de um modelo de ajuste inadequado tendem a exibir aleatoriedade não sutil. No entanto, algumas aplicações requerem uma determinação mais rigorosa da aleatoriedade. Nestes casos, uma bateria de testes, que podem incluir verificação de autocorrelação, são aplicados desde que os dados podem ser não-aleatórios de muitas maneiras diferentes e muitas vezes sutis. Um exemplo de onde uma verificação mais rigorosa para aleatoriedade é necessária seria testando geradores de números aleatórios. Amostra Plot: autocorrelações devem ser perto de zero para aleatoriedade. Tal não é o caso neste exemplo e, assim, a suposição de aleatoriedade falha. Este gráfico de autocorrelação de amostra mostra que a série de tempo não é aleatória, mas tem um alto grau de autocorrelação entre observações adjacentes e quase adjacentes. Definição: r (h) versus h As parcelas de autocorrelação são formadas por Eixo vertical: Coeficiente de autocorrelação onde C h é a função de autocovariância e C 0 é a função de variância Note que R h está entre -1 e 1. Note que algumas fontes podem usar o Seguinte fórmula para a função autocovariância Embora esta definição tenha menos viés, a formulação (1 / N) tem algumas propriedades estatísticas desejáveis ​​e é a forma mais comumente utilizada na literatura estatística. Consulte as páginas 20 e 49-50 em Chatfield para obter detalhes. Eixo horizontal: Time lag h (h 1, 2, 3.) A linha acima também contém várias linhas de referência horizontais. A linha do meio está em zero. As outras quatro linhas são 95 e 99 faixas de confiança. Observe que existem duas fórmulas distintas para gerar as bandas de confiança. Se o gráfico de autocorrelação estiver sendo usado para testar a aleatoriedade (ou seja, não há dependência temporal nos dados), recomenda-se a seguinte fórmula: onde N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa ) É o nível de significância. Neste caso, as bandas de confiança têm uma largura fixa que depende do tamanho da amostra. Esta é a fórmula que foi usada para gerar as faixas de confiança no gráfico acima. Os gráficos de autocorrelação também são usados ​​na fase de identificação do modelo para a montagem de modelos ARIMA. Neste caso, um modelo de média móvel é assumido para os dados e devem ser geradas as seguintes faixas de confiança: onde k é o atraso, N é o tamanho da amostra, z é a função de distribuição cumulativa da distribuição normal padrão e (alfa) é O nível de significância. Nesse caso, as faixas de confiança aumentam à medida que o atraso aumenta. O gráfico de autocorrelação pode fornecer respostas para as seguintes perguntas: Os dados são aleatórios É uma observação relacionada a uma observação adjacente É uma observação relacionada a uma observação duas vezes removido (etc.) É a série de tempo observada ruído branco A série temporal observada é sinusoidal As séries temporais observadas são autorregressivas O que é um modelo adequado para as séries temporais observadas O modelo é válido e suficiente A fórmula ss / sqrt é válida Importância: Garanta a validade das conclusões de engenharia Aleatoriedade (juntamente com modelo fixo, variação fixa e distribuição fixa) É uma das quatro suposições que tipicamente estão subjacentes a todos os processos de medição. A hipótese de aleatoriedade é extremamente importante pelas três razões a seguir: A maioria dos testes estatísticos padrão depende da aleatoriedade. A validade das conclusões do teste está diretamente ligada à validade do pressuposto aleatório. Muitas fórmulas estatísticas comumente usadas dependem da suposição de aleatoriedade, sendo a fórmula mais comum a fórmula para determinar o desvio padrão da média da amostra: onde s é o desvio padrão dos dados. Embora fortemente usados, os resultados de usar esta fórmula são de nenhum valor a menos que a suposição de aleatoriedade se mantenha. Para dados univariados, o modelo padrão é Se os dados não são aleatórios, este modelo é incorreto e inválido, e as estimativas para os parâmetros (como a constante) tornam-se absurdas e inválidas. Em suma, se o analista não verificar a aleatoriedade, então a validade de muitas das conclusões estatísticas torna-se suspeito. O gráfico de autocorrelação é uma excelente maneira de verificar essa aleatoriedade. O primeiro passo no desenvolvimento de um modelo Box-Jenkins é determinar se a série é estacionária e se há alguma sazonalidade significativa que precisa ser modelada. A estacionariedade pode ser avaliada a partir de um diagrama de sequência de execução. O gráfico de sequência de execução deve mostrar localização e escala constantes. Também pode ser detectado a partir de um gráfico de autocorrelação. Especificamente, a não estacionariedade é muitas vezes indicada por um gráfico de autocorrelação com decaimento muito lento. Diferenciação para alcançar a estacionaridade Box e Jenkins recomendam a abordagem de diferenciação para conseguir a estacionaridade. No entanto, o ajuste de uma curva e a subtração dos valores ajustados dos dados originais também podem ser usados ​​no contexto dos modelos Box-Jenkins. Na etapa de identificação do modelo, nosso objetivo é detectar a sazonalidade, se existir, e identificar a ordem dos termos sazonais autorregressivos e sazonais de média móvel. Para muitas séries, o período é conhecido e um único termo de sazonalidade é suficiente. Por exemplo, para dados mensais tipicamente incluiríamos um termo AR 12 temporário ou um termo MA 12 sazonal. Para os modelos Box-Jenkins, não removemos a sazonalidade explicitamente antes de montar o modelo. Em vez disso, incluímos a ordem dos termos sazonais na especificação do modelo para o software de estimativa ARIMA. No entanto, pode ser útil aplicar uma diferença sazonal aos dados e regenerar as parcelas de autocorrelação e de autocorrelação parcial. Isso pode ajudar na identificação do modelo da componente não sazonal do modelo. Em alguns casos, a diferenciação sazonal pode remover a maior parte ou todo o efeito da sazonalidade. Identificar p e q Uma vez que a estacionariedade ea sazonalidade foram abordadas, o próximo passo é identificar a ordem (isto é, o (p) e (q)) dos termos autorregressivos e de média móvel. Autocorrelação e parcelas de autocorrelação parcial As ferramentas primárias para fazer isso são o gráfico de autocorrelação eo gráfico de autocorrelação parcial. O gráfico de autocorrelação da amostra eo gráfico de autocorrelação parcial da amostra são comparados com o comportamento teórico destas parcelas quando a ordem é conhecida. Ordem do Processo Autoregressivo ((p)) Especificamente, para um processo AR (1), a função de autocorrelação da amostra deve ter uma aparência decrescente exponencialmente. Contudo, os processos de AR de ordem superior são frequentemente uma mistura de componentes sinusoidais exponencialmente decrescentes e amortecidos. Para processos autoregressivos de ordem superior, a autocorrelação da amostra precisa ser suplementada com um gráfico de autocorrelação parcial. A autocorrelação parcial de um processo AR ((p)) torna-se zero em lag (p 1) e maior, então examinamos a função de autocorrelação parcial da amostra para ver se existe evidência de uma partida de zero. Isso geralmente é determinado colocando um intervalo de confiança de 95 no gráfico de autocorrelação parcial da amostra (a maioria dos programas de software que geram gráficos de autocorrelação da amostra também traçará este intervalo de confiança). Se o programa de software não gera a banda de confiança, é aproximadamente (pm 2 / sqrt), com (N) indicando o tamanho da amostra. Ordem do Processo de Média Móvel ((q)) A função de autocorrelação de um processo MA ((q)) torna-se zero em atraso (q 1) e maior, então examinamos a função de autocorrelação da amostra para ver onde ela se torna essencialmente zero. Fazemos isso colocando o intervalo de confiança de 95 para a função de autocorrelação da amostra no gráfico de autocorrelação da amostra. A maioria dos softwares que podem gerar o gráfico de autocorrelação também pode gerar esse intervalo de confiança. A função de autocorrelação parcial de amostra geralmente não é útil para identificar a ordem do processo de média móvel. A função de autocorrelação inversa da amostra (SIACF) desempenha muito o mesmo papel na modelagem ARIMA como a função de autocorrelação parcial da amostra (SPACF) Mas geralmente indica subconjunto e modelos autoregressivos sazonais melhor do que o SPACF. Além disso, o SIACF pode ser útil para detectar over-differencing. Se os dados vêm de um modelo não-estacionário ou quase não-estacionário, o SIACF tem as características de uma média móvel não-reversível. Da mesma forma, se os dados vierem de um modelo com uma média móvel não reversível, então o SIACF tem características não-estacionárias. Em particular, se os dados foram sobre-diferenciados, o SIACF parece um SACF de um processo não-estacionário. A função de autocorrelação inversa não é frequentemente discutida nos manuais, por isso uma breve descrição é dada aqui. Discussões mais completas podem ser encontradas em Cleveland (1972), Chatfield (1980) e Priestly (1981). Seja Wt gerado pelo processo ARMA (p, q) onde a t é uma sequência de ruído branco. Se (B) é inversível (isto é, se considerado como um polinômio em B não tem raízes menores ou iguais a 1 em magnitude), então o modelo é também um modelo ARMA válido (q, p). Este modelo é por vezes referido como o modelo dual. A função de autocorrelação (ACF) deste modelo dual é chamada de função de autocorrelação inversa (IACF) do modelo original. Observe que se o modelo original é um modelo autoregressivo puro, então o IACF é um ACF correspondente a um modelo de média móvel puro. Assim, corta bruscamente quando o atraso é maior que p este comportamento é semelhante ao comportamento da função de autocorrelação parcial (PACF). A função inversa de autocorrelação da amostra (SIACF) é estimada no procedimento ARIMA pelas seguintes etapas. Um modelo autorregressivo de alta ordem é ajustado aos dados por meio das equações de Yule-Walker. A ordem do modelo autorregressivo utilizado para calcular o SIACF é o mínimo do valor NLAG e metade do número de observações após a diferenciação. O SIACF é então calculado como a função de autocorrelação que corresponde a este operador autorregressivo quando tratado como operador de média móvel. Ou seja, os coeficientes autorregressivos são convolvidos consigo mesmos e tratados como autocovariâncias. Sob certas condições, a distribuição de amostragem do SIACF pode ser aproximada pela distribuição de amostragem do SACF do modelo dual (Bhansali 1980). Nas parcelas geradas por ARIMA, as marcas de limite de confiança (.) Estão localizadas em. Esses limites limitam um intervalo de confiança aproximado de 95 para a hipótese de que os dados são de um processo de ruído branco. Publicações de Ciência e Educação É bastante óbvio que os ACFs Em (1.4) e um em (1.8) todos cortados após o atraso dois. Isso é indicativo do fato de que um processo de média móvel de ordem dois e um processo de série de tempo bilinear diagonal puro de ordem dois têm estruturas de autocorrelação semelhantes. Como resultado, existe a possibilidade de classificar erroneamente um processo diagonal bilinear puro de ordem dois como um processo de média móvel de ordem dois. A facilidade com que os modelos lineares são instalados e a prática de aproximar modelos não-lineares por modelos lineares também podem causar a falta de especificação do processo linear não linear linear de ordem dois. A partir do que precede, é imperativo investigar a implicação estatística do modelo acima mencionado misclassification. Nesse sentido, iremos nos concentrar na função de penalidade associada à classificação incorreta de um processo do APO (2) como um processo de MA (2). 2. Relação entre os Parâmetros do Processo Bilinear Puro Diário da Ordem Dois e o Processo Mínimo de Ordem Dois Tendo observado que o processo de média móvel de ordem dois e o processo diagonal bilinear puro de ordem dois têm estruturas de autocorrelação semelhantes, vale a pena derivar A relação entre os parâmetros dos dois modelos. Esses relacionamentos nos ajudarão a obter a função de penalidade para classificar erroneamente o modelo não linear como o modelo linear concorrente. O método de momentos que envolve a equação do primeiro e segundo momentos do modelo diagonal bilinear puro com os momentos correspondentes do processo de média móvel não zero de ordem dois deve ser usado para este fim. Considerando a tabela completa contendo 2129 conjuntos de valores, podemos ver que a função de penalidade para misclassification de um processo de PDB (2) como um MA (2) processo (P) assume valores positivos Para todos os valores de, /. /. O valor positivo da penalidade por classificação errada de um processo PDB (2) como um processo de MA (2) mostra que essa classificação equivocada leva a um aumento na variação dos erros. Esta constatação concorda com os resultados obtidos por 6 no que se refere à classificação errada de um processo de PDB (1) como um processo MA (1). Para fins de previsão, temos que encontrar a relação entre P e /. Primeiro, plotamos P contra cada um de /. A Figura 1 mostra o gráfico de P contra. O valor de p de 0,00 na Tabela 3 implica que o modelo de regressão ajustado é adequado para descrever a relação entre P e /. 4. Conclusão Neste estudo, determinamos o efeito de classificar erroneamente um processo diagonal bilinear puro de ordem dois como um processo de média móvel de ordem dois. Uma função de penalidade foi definida e foi usada para computar penalidades para a classificação errada do processo diagonal bilinear puro de ordem dois como o processo de média móvel de ordem dois baseado em vários conjuntos de valores dos parâmetros dos dois processos. As penalidades calculadas assumiram valores positivos. Isto indicou um aumento da variância de erro devido a uma classificação errada do processo bilinear diagonal puro de ordem dois como um processo de média móvel de ordem dois. Um modelo de regressão quadrática foi encontrado adequado para prever as penalidades com base nos parâmetros do processo bilinear diagonal puro de ordem dois. Referências Bessels, S. (2006). Um passo além da equação resolvível. staff. science. uu. nc//AfstudeerscriptieSanderBessels. pdf (Este site foi visitado em junho de 2017). Box, G. E. P. Jenkins, G. M. e Reinsel, G. C. (1994). Análise de Séries Temporais: Previsão e Controle. 3 ª ed. A função de autocorrelação inversa da amostra (SIACF) desempenha muito o mesmo papel na modelagem ARIMA como a função de autocorrelação parcial da amostra (SPACF), mas geralmente indica modelos subautomáticos e sazonais mais autoregressivos do que o SPACF. Além disso, o SIACF pode ser útil para detectar over-differencing. Se os dados vêm de um modelo não-estacionário ou quase não-estacionário, o SIACF tem as características de uma média móvel não-reversível. Da mesma forma, se os dados vêm de um modelo com uma média móvel não-reversível, então o SIACF tem características não-estacionárias e, portanto, decai lentamente. Em particular, se os dados foram sobre-diferenciados, o SIACF parece um SACF de um processo não-estacionário. A função de autocorrelação inversa não é frequentemente discutida nos manuais, por isso uma breve descrição é dada aqui. Discussões mais completas podem ser encontradas em Cleveland (1972), Chatfield (1980) e Priestly (1981). É também um válido ARMA (q, p) modelo. Este modelo é por vezes referido como o modelo dual. A função de autocorrelação (ACF) deste modelo dual é chamada de função de autocorrelação inversa (IACF) do modelo original. Observe que se o modelo original for um modelo autoregressivo puro, então o IACF é um ACF que corresponde a um modelo puro de média móvel. Assim, corta bruscamente quando o atraso é maior que p este comportamento é semelhante ao comportamento da função de autocorrelação parcial (PACF). A função inversa de autocorrelação da amostra (SIACF) é estimada no procedimento ARIMA pelas seguintes etapas. Um modelo autorregressivo de alta ordem é ajustado aos dados por meio das equações de Yule-Walker. A ordem do modelo autorregressivo utilizado para calcular o SIACF é o mínimo do valor NLAG e metade do número de observações após a diferenciação. O SIACF é então calculado como a função de autocorrelação que corresponde a este operador autorregressivo quando tratado como operador de média móvel. Ou seja, os coeficientes autorregressivos são convolvidos consigo mesmos e tratados como autocovariâncias. Sob certas condições, a distribuição de amostragem do SIACF pode ser aproximada pela distribuição de amostragem do SACF do modelo dual (Bhansali 1980). Nas parcelas geradas pelo ARIMA, as marcas de limite de confiança (.) Estão localizadas em. Estes limites limitam um intervalo de confiança aproximado de 95 para a hipótese de que os dados são de um processo de ruído branco.

No comments:

Post a Comment