Abordagem bayesiana para modelos mistos com o uso de Gibbs Sampling
Visualizar/abrir
Data
2005Orientador
Nível acadêmico
Graduação
Assunto
Resumo
A principal diferença entre inferência Bayesiana e inferência clássica é que a primeira considera os parâmetros desconhecidos dos problemas estatísticos estudados como variáveis aleatórias, enquanto a segunda os considera constantes. Segundo a abordagem Bayesiana, antes de qualquer dado ser coletado deve-se assumir uma distribuição de probabilidade para os parâmetros desconhecidos do modelo, chamada de distribuição a priori, a qual deve ser especificada juntando-se toda informação existente sob ...
A principal diferença entre inferência Bayesiana e inferência clássica é que a primeira considera os parâmetros desconhecidos dos problemas estatísticos estudados como variáveis aleatórias, enquanto a segunda os considera constantes. Segundo a abordagem Bayesiana, antes de qualquer dado ser coletado deve-se assumir uma distribuição de probabilidade para os parâmetros desconhecidos do modelo, chamada de distribuição a priori, a qual deve ser especificada juntando-se toda informação existente sobre o parâmetro. Após os dados serem observados, a informação dada pela priori é combinada, através do teorema de Bayes, com a informação proveniente dos dados, que é representada pela função de verossimilhança dos parâmetros em função dos dados observados. Esta combinação resulta na distribuição a posteriori dos parâmetros desconhecidos que proverá toda a informação sobre estes após os dados terem sido observados. Para se chegar analiticamente à distribuição a posteriori, alguns cálculos são necessários, cálculos estes que nem sempre são exeqüíveis. Os métodos MCMC (abreviatura de "Markov Chain Monte Carlo"), que são métodos computacionais de simulação baseados em cadeias de Markov, são muito úteis para problemas Bayesianos em que a distribuição a posteriori não pode ser obtida analiticamente (e também para alguns problemas clássicos). Neste contexto, eles permitem que sejam simuladas observações provenientes da posteriori de interesse, e com estas observações, pode-se estimar momentos, . quantis e até mesmo a densidade da distribuição. Um dos métodos MCMC é o algoritmo de "Gibbs Sampling". Neste trabalho, o "Gibbs Sampling" será utilizado para analisar modelos mistos. O modelo misto é um modelo que compreende efeitos fixos e aleatórios em sua formulação e que assume distribuição multivariada para os erros do modelo. Desta forma, este modelo permite analisar dados que não são independentes tais como dados que são de alguma forma agrupados, como, por exemplo, quando se tomam múltiplas medidas de um mesmo sujeito. O modelo misto é um exemplo de modelo onde a distribuição a posteriori de interesse não é analiticamente derivável. Este trabalho trata da aplicação das técnicas Bayesianas ao modelo misto, em especial, da utilização do "Gibbs Sampling" para as análises deste modelo. Assim, o objetivo principal é introduzir os métodos MCMC, com enfoque no "Gibbs Sampling", e estudar a sua aplicação em problemas estatísticos envolvendo modelos mistos. Além de abordar a parte teórica, serão apresentados exemplos envolvendo dados reais e dados simulados. No decorrer do trabalho, percebeu-se que o "Gibbs Sampling" é um algoritmo realmente eficiente e versátil para a análise de vários problemas Bayesianos, especialmente no caso dos modelos mistos. ...
Abstract
The main difference between Bayesian and classical inference is that the first considers the unknown parameters of the statistical model as random variables, while the second considers them as constants. In Bayesian framework, before any observation is collected, a probability distribution for the unknown parameters of the model must be assumed. This is called prior distribution, which must be specified by joining ali the existent information about the parameter. After the data are collected, t ...
The main difference between Bayesian and classical inference is that the first considers the unknown parameters of the statistical model as random variables, while the second considers them as constants. In Bayesian framework, before any observation is collected, a probability distribution for the unknown parameters of the model must be assumed. This is called prior distribution, which must be specified by joining ali the existent information about the parameter. After the data are collected, the information provided by the prior distribution is combined, through the Bayes theorem, with the information provided by the data, that is represented by the likelihood function of the parameters. The combination results in the posterior distribution of the unknown parameters of the model, which will provide ali the information about them after the data is observed. Some calculus are necessary to obtain analytically the posterior distribution. However this is sometimes unfeasible. The MCMC methods (from "Markov Chain Monte Carlo") are computational methods of simulation based on Markov chains and are very useful in Bayesian problems when the posterior distribution can not be analytically obtained (and for some classical problems too). In this context, observations are simulated from the unknown posterior of interest. Therefore, moments, quantiles and even the full density are estimated. One ofthe MCMC methods is the Gibbs Sampling algorithm. In this work, "Gibbs Sampling" will be used to analyze mixed models. The mixed model is a model that involves fixed and random effects in its formulation and assumes a multivariate distribution for the errors of the model. As so, this model allows data that are either not independent or data that are in some way clustered to be analyzed, like, for example, when multiple measures are taken from the same subject. The mixed model is an example where the posterior distribution is not analytically derivable. This work discusses about the application o f the Bayesian techniques to the mixed model, in special, about the use of Gibbs Sampling to analyze it. So, the main objective is to introduce the MCMC methods, with emphasis on Gibbs Sampling, and to study their application to statistical problems involving mixed models. Besides the discussion about the theory, examples involving real and simulated data will be presented. In the course of this work, it was noticed that Gibbs Sampling is a really efficient and versatile algorithm for the analyses of many Bayesian problems, in special in the case o f mixed models. ...
Instituição
Universidade Federal do Rio Grande do Sul. Instituto de Matemática. Curso de Estatística: Bacharelado.
Coleções
-
TCC Estatística (295)
Este item está licenciado na Creative Commons License