Guerino pirollo junior



Baixar 84.7 Kb.
Encontro23.07.2016
Tamanho84.7 Kb.
GUERINO PIROLLO JUNIOR

GRADUAÇÃO BAYESIANA DE TAXAS DE MORTALIDADE E PROJEÇÃO DAS TAXAS DE MORTALIDADE DOS PARTICIPANTES DA FUNDAÇÃO COPEL
Projeto de Dissertação de Mestrado do Curso de Pós-Graduação em Métodos Numéricos em Engenharia, na Área de Concentração em Programação Matemática da Universidade Federal do Paraná-UFPR.
Orientador: Prof. Ph.D. Paulo Justiniano Ribeiro Junior


CURITIBA

2008

RESUMO
O processo de envelhecimento populacional que vem afetando a população mundial, o qual é caracterizado por quedas significativas nas taxas de mortalidade e fecundidade, tem afetado os sistemas de previdência e seguridade do mundo todo, alertando-os a adotarem hipóteses de mortalidade cada vez mais conservadoras, as quais impactam os cálculos atuariais. Essas tendências já começam a ser contempladas nos cálculos de provisões matemáticas e de benefícios através do uso de algumas ferramentas de construção de tábuas de mortalidade e projeções de taxas de mortalidade futuras. Diante disso, considerando a população de expostos ao risco de morte da Fundação Copel, este estudo tem por objetivos graduar e projetar as taxas de mortalidade para a população, obtendo informações sobre seus níveis de mortalidade atuais e futuros, usando-as na adoção de hipóteses de mortalidade geral que melhor reflita a mortalidade do grupo. Em um estudo preliminar, foi aplicada a Graduação Bayesiana de Taxas de Mortalidade utilizando simulação estocástica de Monte Carlo via Cadeias de Markov (MCMC) na população de assistidos (aposentados) da Fundação Copel, considerando os anos de estudo de 2003 a 2008 - janeiro de cada ano – obtendo-se as taxas de mortalidade graduadas para as idades entre 48 e 84 anos, observando-se os níveis atuais da mortalidade da população e uma tendência de queda nestes níveis futuramente. Pretende-se graduar novamente as taxas de mortalidade, incluindo também os participantes ativos na população de expostos ao risco e aumentando o número de anos de estudo, abrangendo um intervalo maior de idades. Além da Graduação Bayesiana, serão aplicadas metodologias de projeção de taxas de mortalidade, a saber, o modelo de Lee-Carter e modelos de regressão P-Spline, nas suas formas usuais e através de simulação estocástica por bootstrap - usado na estimação dos parâmetros dos modelos - obtendo taxas de mortalidade futuras para a população. A implementação dos programas necessários será feita utilizando os softwares R e JAGS (Just Another Gibbs Sampler).

1 INTRODUÇÃO


    1. PROBLEMA DO ESTUDO

O rápido envelhecimento populacional, que também já atinge o Brasil, impõe um desafio a mais aos atuários de planos brasileiros de previdência: propor soluções através de técnicas de graduação de taxas brutas de mortalidade e modelagem da melhoria dos níveis de mortalidade futuros dos participantes destes planos, provisionando-se para pagar os benefícios de pensão e aposentadoria por períodos mais longos, considerando o aumento da longevidade dos participantes.

Vindo de encontro a essa realidade, a Fundação Copel tem como preocupação continuar mantendo a aderência das hipóteses de mortalidade adotadas para seus participantes, evitando desvios indesejáveis nestas suposições, nos momentos atuais e futuros, para que seus planos não entrem em desequilíbrio financeiro/atuarial e continuem sempre solventes.



    1. OBJETIVOS DO TRABALHO




      1. Objetivo Geral

Gerar informações sobre os níveis de mortalidade dos participantes da Fundação Copel a serem usadas na adequação de hipóteses da mortalidade atual e futura do grupo, subsidiando também estudos futuros neste sentido ou que façam uso destas informações.




      1. Objetivos Específicos

O primeiro objetivo deste trabalho é obter as taxas de mortalidade para a população dos participantes da Fundação Copel (ativos e assistidos) baseando-se na experiência da mesma, através da técnica de Graduação Bayesiana de taxas de mortalidade (Neves, 2005). As taxas obtidas serão comparadas às taxas de tábuas de mortalidade atualmente em uso na entidade.

O segundo objetivo é obter as taxas de mortalidade futuras da mesma população, através da aplicação do modelo de projeção de Lee-Carter (Lee e Carter, 1992) e de modelos de regressão P-Spline. Os modelos serão aplicadas nas suas formas usuais e estocásticas. Os resultados obtidos serão usados na avaliação das metodologias de projeção e regressão, assim como aplicação em tábuas de mortalidade estáticas, obtendo as probabilidades de morte futuras nas respectivas idades.


    1. JUSTIFICATIVA

Devido às mudanças demográficas – envelhecimento populacional - que a população mundial vem sofrendo, há a necessidade de adequação dos sistemas de previdência e seguridade à nova realidade. O fenômeno já atinge o Brasil, alertando aos sistemas de previdência sobre a necessidade de se adequarem a esta realidade, sob pena de se tornarem insolventes, não garantindo seus compromissos – pagamento de benefícios a seus participantes – caso não sejam atendidas as suposições de mortalidade atuais e futuras.


2 REVISÃO DE LITERATURA
2.1 INTRODUÇÃO
Ao longo de toda a história, os idosos (pessoas com 65 anos de idade ou mais) nunca representaram mais do que 2% ou 3% da população, porém nos últimos 150 anos essa proporção subiu e já alcança patamares em torno de 15% no mundo desenvolvido de hoje, se esperando um nível de 25% em 2030, podendo ser maior ainda em alguns países da Europa Continental que envelhecem rapidamente (Watson Wyatt, 1999). Este rápido envelhecimento populacional, primeiramente foi evidenciado em países desenvolvidos, mas já é realidade em países em desenvolvimento como o Brasil, que atravessa o que se convencionou chamar de terceira fase da transição demográfica (Beltrão e Camarano, 1999). Tal transição é caracterizada por uma queda nos níveis de mortalidade, seguida depois de um lapso por uma queda nos níveis de fecundidade, resultando num outro período de estabilidade.

A maior parte dos países europeus levou quase um século para completar sua transição da fecundidade. Suécia e Inglaterra, por exemplo, levaram cerca de seis décadas (aproximadamente de 1870 a 1930) para diminuir em torno de 50% seus níveis de fecundidade. O Brasil, por sua vez, experimentou um declínio similar em um quarto de século (Wong e Carvalho, 2006). Portanto, a Transição de Estrutura Etária que o Brasil está experimentando em todas as suas regiões, tem sido extremamente rápida.

A Figura 1 representa as evoluções demográficas das populações da América Latina, Caribe e Brasil, segundo informações das Nações Unidas.

Figura 1 – Evolução Demográfica da América Latina, Caribe e Brasil.


O declínio da mortalidade no Brasil está se concentrando nas idades mais avançadas, tendo como efeito a aceleração do processo de envelhecimento, contribuindo também para outras duas alterações da função de sobrevivência: “retangularização” e “expansão”. A primeira diz respeito ao fato de estar ocorrendo uma grande concentração de mortes em torno de uma idade média de morte, a partir da qual a linha da função começa a se curvar. Até chegar neste ponto médio, as probabilidades de sobrevivência também vão aumentando, fazendo com que um maior número de pessoas alcancem idades mais avançadas. Já a segunda alteração, é caracterizada pela elevação da idade limite que a população alcança (Santos, 2007).

A Figura 2, emprestada de (Santos, 2007), ilustra a evolução da sobrevida, caracterizada pela retangularização e expansão da função de sobrevivência s(x).




Figura 2 – Mudanças na curva da função de sobrevivência


Com base na velocidade que o envelhecimento populacional vem ocorrendo no Brasil, surgem grandes desafios não só para o governo, que deverá rever e reformular suas políticas sócio-econômicas e de desenvolvimento, mas também para pesquisadores – demógrafos, estatísticos, atuários dentre outros – no sentido de dedicarem esforços na busca de soluções para o problema, propondo metodologias de adequação ao fenômeno nas mais diversas áreas.

Uma das áreas que mais serão impactadas, é a área previdenciária, a qual deverá estar provisionada a pagar benefícios (pensões e aposentadorias) por tempo superior àquele determinado através de tábuas de mortalidade estáticas que não estejam refletindo a mortalidade atual e nem a futura, não contemplando as melhorias contínuas nos níveis de mortalidade. Portanto, técnicos em sistemas de previdência, especialmente atuários, terão que propor ferramentas de graduação e projeção de taxas de mortalidade que deverão refletir cada vez com mais fidedignidade esta realidade, incluindo-as nos cálculos atuariais, mantendo esses sistemas sempre solventes.


2.2 TÁBUAS DE MORTALIDADE
O instrumento que melhor reflete o comportamento de uma população é a Tabua de Mortalidade, a qual contém as probabilidades “teóricas” de morte em cada idade, nas quais o atuário se baseia para realizar os cálculos atuariais. Entretanto, existem dois problemas, o primeiro é que raramente uma tábua adotada como hipótese de mortalidade para uma população, foi construída com base na experiência da mesma (geralmente são americanas, inglesas etc), logo devem ser realizados testes de aderência constantemente com o objetivo de verificar se o número de mortes que vem ocorrendo na população corresponde ao número de mortes esperado, o qual é determinado pela tábua adotada. Neste sentido, metodologias de graduação de taxas de mortalidade proporcionam a construção de tábuas de mortalidade baseadas na própria experiência do grupo de expostos ao risco de morte.

O segundo problema é que, mesmo que a tábua seja construída com base na experiência da própria população, não significa que os níveis de mortalidade desta população serão sempre os mesmos, ou seja, a tábua é “estática”, não levando em consideração as movimentações que poderão ocorrer nos níveis de mortalidade, podendo futuramente ser adequada ou não à realidade daquela população. Neste sentido, metodologias de projeção proporcionam a obtenção dos fatores de melhoria na mortalidade, possibilitando a aplicação destes fatores (escalas de projeções) em tábuas de mortalidade estáticas, tornando-as geracionais, obtendo probabilidades de morte futuras.


2.3 METODOLOGIAS
2.3.1 Graduação Bayesiana de Taxas de Mortalidade
Um modelo estatístico Bayesiano é aplicado aos dados da população exposta ao risco de morte para construir uma tábua de mortalidade que reflita as taxas de mortalidade do grupo. Para predizer as probabilidades de morte contidas nesta tábua, um processo de graduação Bayesiana é usado. A Graduação é fundamental para suavizar as taxas brutas de mortalidade, tal que as probabilidades de morte sejam monotonicamente crescentes em relação à idade, pois é sabido que a mortalidade humana se comporta assim a partir duma certa idade. Todavia, na prática as taxas brutas de mortalidade não se comportam dessa forma, mas formam uma seqüência irregular. Assim, além de corrigir o problema mencionado acima, a graduação supera a falta de informação para algumas idades estudadas (Neves, 2005).

Os dados utilizados são estruturados da seguinte forma: x representa a idade do individuo, lx,t é o número inicial (inicio do ano) de expostos ao risco na idade x e ano calendário t, e dx,t é o número de mortes observadas na idade x no ano calendário t, para t=1,...,T.

As taxas brutas de mortalidade são graduadas em função da força de mortalidade, isto é, da variação instantânea da intensidade de morte. Assumindo que todos os indivíduos com a mesma idade morrem independentemente e com a mesma probabilidade, então o número de mortes observadas (dx,t) para cada ano e idade, é distribuído segundo uma Poisson com média E[dx,t| μx,t ]= lx,t μx,t, onde μx,t é a força de mortalidade na idade x e no ano calendário t.

Como o objetivo do processo de graduação é obter probabilidade anuais de morte em cada idade x (qx), e se está graduando em função da força de mortalidade, considera-se esta como sendo constante nos intervalos de idades, trabalhando-se com a seguinte relação (Bowers, 1997):



(1)
A aproximação Bayesiana do processo de graduação envolve estimação estatística de parâmetros desconhecidos, onde o conhecimento inicial dos parâmetros de interesse (distribuição a priori) é agregada aos dados. Desta forma, temos o seguinte modelo hierárquico Bayesiano:


  • Verossimilhança Poisson:

  • Distribuição a Priori do Parâmetro:

  • Distribuição a Posteriori:

onde nas distribuições acima, IA(y) é a função indicadora, assumindo o valor 1 se yA e zero caso contrário.

A probabilidade de morte a cada idade x é dada por , sendo com , onde r denota a r-ésima iteração por MCMC a cada idade x, usando o amostrador de Gibbs.
2.3.2 O Modelo de Lee-Carter
O método de Lee-Carter (Lee e Carter, 1992) é extrapolativo, ou seja, é baseado na projeção de tendências históricas na mortalidade para o futuro e incluem algum elemento de julgamento subjetivo, por exemplo, a escolha do período sobre o qual as tendências serão determinadas. Este método combina um modelo demográfico bilinear nas variáveis x (idade) e t (ano calendário) com um modelo de séries temporais, o qual pode ser estimado a partir de uma matriz de taxas específicas de mortalidade por idade, para diversos períodos passados. Trata-se de um modelo simples, porém altamente estruturado e tem sido usado com sucesso em projeções na população dos EUA e de outros lugares, onde ele tem capturado quase toda a variação nos dados. O modelo possui a seguinte forma:
(2)
onde μ(x,t) é a força de mortalidade na idade x e no ano calendário t; є(x,t) é um termo de erro aleatório; os coeficientes a(x) descrevem a forma geral do perfil de mortalidade por idade; os coeficientes b(x) descrevem o padrão de desvios do perfil da idade conforme o parâmetro k(t) varia. Se o coeficiente b(x) é particularmente alto para algumas idades x, isto significa que as taxas de mortalidade mudam mais rápido nessas idades que no geral. Se os b(x) são iguais, então as taxas de mortalidade mudam à mesma velocidade em todas as idades.

O parâmetro k(t) descreve a mudança na mortalidade como um todo. Se k(t) diminui, então as taxas de mortalidade diminuem, e se k(t) aumenta, as taxas de mortalidade aumentam. Os coeficientes b(x) determinam como esta mudança global na mortalidade afeta as taxas na idade em questão. Se k(t) decresce linearmente, então μ(x,t) decresce exponencialmente em cada idade, à uma taxa que depende de b(x) (a menos que b(x) seja negativo, caso no qual μ(x,t) aumenta).

O modelo não especifica escolhas únicas para os parâmetros, pois b(x) e k(t) aparecem apenas através de seu produto b(x)k(t). Freqüentemente assume-se que e , para impor não unicidade.

Lee e Carter (1992) sugeriram o uso de um modelo de séries temporais para modelar k(t), tal que as projeções baseadas em um modelo de Lee-Carter compartilham muitas das características de previsões em séries temporais. Uma vez ajustado o modelo, k(t) é projetado de forma a dar as taxas de mortalidade para anos futuros. Uma escolha popular para a modelagem de k(t) é o modelo autoregressivo de ordem 1, AR(1).

2.3.3 Modelos de Regressão P-Spline
Uma spline é um mecanismo utilizado para traçar curvas. Sua aplicação tem sido muito ampla nos anos recentes, abrangendo desde os modelos estatísticos até os mais modernos modelos de computação gráfica. Matematicamente, uma spline é uma função polinomial que aproxima pontos em um determinado espaço. Sua utilização inicial voltou-se basicamente para o problema da interpolação de pontos, no ajuste de curvas. Uma spline normal é definida como uma parábola construída para conter três pontos, pois somente uma parábola será ajustada para esta restrição e a única informação necessária para a construção desta curva seria a localização de cada ponto. Portanto, define-se uma spline que une esses três pontos como sendo uma parábola, cuja equação básica é f(x)=ax2+bx+c.

Mais recentemente as splines cúbicas ou de Bezier - B-Splines - têm ampliado o uso das splines, pois permitem criar uma polinomial cúbica entre dois pontos, baseada nas seguintes informações: a localização de cada ponto e a derivada em cada ponto. Os pontos por onde passa a spline são chamados nós. Assim, no problema do ajuste de pontos por splines cúbicas, poderíamos dizer que elas representam um conjunto de funções polinomiais de grau menor ou igual a 3, de tal modo que as segundas derivadas concordem nos nós, isto é, a spline tem uma segunda derivada contínua.

Quando se faz a interpolação de um conjunto de pontos, uma spline pode ser uma solução muito melhor do que uma interpolação polinomial, pois as polinomiais podem sofrer grandes oscilações para ajustar todos os pontos, já que as polinomiais ajustam os dados de uma forma global, enquanto que as splines o fazem localmente.

As splines cúbicas são funções que têm um comportamento instável nas extremidades, isto é, antes do primeiro nó e depois do último nó. Alguns autores propõem assumir a linearidade da spline nas extremidades. Já para o ajuste de splines de regressão em um modelo, a localização dos nós não é tão crucial, mas sim o k (número de nós). Há várias maneiras que são utilizadas para esse cálculo, mas, em geral, para a maioria das bases de dados um valor de k=4 costuma satisfazer a flexibilidade almejada no ajuste do modelo e a perda de precisão causada por um superajuste.

Existem várias vantagens das splines de regressão em comparação à outras splines chamadas de alisamento ou ajuste, relacionadas aos métodos de regressão não paramétrica. Uma dessas vantagens, é que como as splines paramétricas - B-splines e splines penalizadas (P-Splines) - são polinomiais ajustadas localmente, elas podem ser ajustadas usando-se qualquer modelo de regressão, após a estimação dos parâmetros dos preditores, e podem ser igualmente adequadas em modelos de regressão linear, modelos de sobrevida, e modelos de regressão logística.

Como um exemplo deste estudo, tomando-se a variável preditora como sendo o número de expostos ao risco na idade x e ano calendário t (Ex,t), a variável resposta representada pelo número de mortes no mesmo ano e idade (Dx,t), tal que Dx,t siga uma distribuição de Poisson com média (Ex,tDx,t), como descrever a relação entre a força de mortalidade μx e as variáveis x e t? Uma resposta seria escolher um número de funções polinomiais base b1(x,t),b2(x,t),...,bn(x,t), tal que se possa representar μx como uma combinação linear:


μxβ1b1(x,t) + β2b2(x,t) + ... + βnbn(x,t) (3)
A questão então se torna: como escolher um conjunto desejável de funções polinomiais base bi(x,t), e qual critério aplicar para se escolher os melhores ajustes dos coeficientes de regressão βi? Existem muitos modelos de regressão diferentes conforme as respostas à essa questão, mas retornando à questão, freqüentemente se adota o princípio de parsimônia de forma que o número de funções base seja o menor possível. Logo, se uma regressão quadrática proporciona um bom ajuste, não há necessidade de uma regressão cúbica ou de ordem superior, de forma a alcançar um balanço entre “suavidade” e “bondade de ajuste”. Quando são adicionados polinômios de ordens mais altas à base, obtém-se um melhor ajuste, porém ao custo de menor suavidade entre os pontos de dados (nós). Assim, uma graduação através de modelos spline, requer um equilíbrio entre bondade do ajuste - alcançado pela adição de mais e mais funções base - e suavidade - alcançado pela limitação do número de funções base.

Nos modelos de regressão splines penalizados - P-Spline - não se da atenção em manter o número de bases spline pequeno, ao invés disso se certifica de que a base é rica o bastante para fornecer um bom ajuste para os dados. Assim, impõe-se uma penalidade explícita para a falta de suavidade, representada convenientemente pela falta de suavidade na progressão dos coeficientes βi. Então o número preciso de funções base quase encerra a questão; a combinação entre suavidade e bondade do ajuste é alcançada escolhendo uma grande penalidade (preferência por suavidade) ou uma pequena penalidade (preferência por bondade do ajuste).


2.4 SIMULAÇÃO ESTOCÁSTICA


2.4.1 Simulação de Monte Carlo via Cadeias de Markov (MCMC)

Nos métodos de simulação em geral, obtém-se uma amostra da distribuição de interesse da seguinte forma: os valores são gerados independentemente sem haver preocupação com a convergência do algoritmo, bastando que o tamanho da amostra seja suficientemente grande. Tais métodos são chamados não iterativos. No entanto, em alguns problemas complexos, pode ser bastante difícil ou mesmo impossível, encontrar uma densidade que seja simultaneamente uma boa aproximação da distribuição de interesse e fácil de ser amostrada. Nestas situações, os métodos de Monte Carlo via Cadeias de Markov (MCMC), são uma alternativa aos métodos não iterativos.

A idéia do método MCMC ainda é obter uma amostra da distribuição de interesse e calcular estimativas amostrais de características desta distribuição. A diferença é que aqui se usa técnicas de simulação iterativa, baseadas em Cadeias de Markov, assim os valores gerados não serão mais independentes. Este fato porém não causará maiores complicações.

Uma Cadeia de Markov é um processo estocástico {X0,X1,X2,...} tal que a distribuição de Xt dados todos os valores (estados) X0,...,Xt-1 depende apenas de Xt-1. Matematicamente:


(4)
para qualquer subcojunto A.

A cadeia acima é convenientemente construída por um longo período, de forma que seja:




  • Homogênea: as probabilidades de transição de um estado para o outro são constantes;

  • Irredutível: cada estado pode ser atingido a partir de qualquer outro em um número finito de iterações;

  • Aperiódica: não deve haver estados absorventes.

Existem muitas formas de construção destas cadeias, mas todas elas - incluindo o amostrador de Gibbs (Geman e Geman, 1984) - são casos especiais da estrutura geral do algoritmo Metropolis-Hastings (M-H), proposto inicialmente por Metropolis et al. (1953) e por Hastings (1970).

O algoritmo M-H funciona como um mecanismo de rejeição-aceitação, isto é, um valor é gerado aleatoriamente de uma distribuição auxiliar (proposta) e aceito com uma dada probabilidade na cadeia. Este mecanismo de correção garante a convergência da cadeia para sua distribuição de equilíbrio.

Suponha que a cadeia esteja no estado x e um valor x’ é gerado da distribuição proposta q(.|x), então o novo valor x’ é aceito na cadeia com a seguinte probabilidade:



(5)
onde π é a distribuição de interesse. Assim, o algoritmo M-H é descrito pelos seguintes passos:


  1. Inicialize o contador de iterações t=0 e especifique um valor inicial x(0);

  2. Gere um novo valor x’ da distribuição q(.|x);

  3. Calcule a probabilidade de aceitação α(x,x’) e gere uma observação de u~U(0,1);

  4. Se u≤α então aceite o novo valor e faça x(t+1)=x’ na cadeia, caso contrário rejeite e faça x(t+1)=x(t).

  5. Incremente o contador de t para t+1 e volte ao passo 2.

O amostrador de Gibbs é um caso especial do algoritmo acima, no qual o novo valor gerado é “sempre” aceito na cadeia. As transições de um estado para outro são feitas de acordo com as distribuições condicionais completas π(xi|x-i), onde x-i=(x,...,xi-1,xi+1,...,xd). Em geral, cada uma das componentes xi pode ser uni ou multidimensional, logo, a distribuição condicional completa é a distribuição da i-ésima componente de x condicionada em todas as outras componentes. Ela é obtida a partir da distribuição conjunta como:


(6)
Assim para obter a distribuição condicional completa de xi basta pegar os termos da distribuição conjunta que não dependem de xi.

Em muitas situações, a geração de uma amostra diretamente de π(x) pode ser custosa, complicada ou simplesmente impossível. Mas se as distribuições condicionais completas forem completamente conhecidas, então o amostrador de Gibbs é definido pelo seguinte algoritmo:





  1. Inicialize o contador de iteração da cadeia t=0;

  2. Especifique os valores iniciais ;

  3. Obtenha um novo valor de x(t) a partir x(t-1) através da geração sucessiva dos valores




  1. Incremente o contador de t para t+1 e retorne ao passo 2 até obter convergência.

A convergência das cadeias geradas por MCMC através dos algoritmos acima, não é automática. Primeiramente é necessário um certo número de realizações da cadeia até começar a convergência da mesma. Essas primeiras realizações são descartadas posteriormente, servindo apenas para estabilizar a cadeia. Este período até a estabilização da cadeia, é conhecido como burn in (período de aquecimento), e seu tamanho (número de realizações) dependerá da calibração do algoritmo.

2.4.2 Simulação por Bootstrap
Bootstrap é uma técnica computacional que pode ser usada para estimar o vício, precisão, variância e intervalo de confiança de uma estatística. Trata-se de um método computacionalmente intensivo que substitui equações analíticas por calculo numérico.

Esta técnica estima a precisão de uma estatística aproximando a distribuição amostral desconhecida através de um procedimento que consiste de dois passos.




  1. A distribuição desconhecida dos valores na população é aproximada por uma distribuição discreta. Então, muitas amostras bootstrap são retiradas desta distribuição.

  2. A distribuição amostral desconhecida é aproximada pela distribuição das estimativas de muitas amostras bootstrap. Esta distribuição bootstrap é então usada para estimar o vício, erro padrão e intervalo de confiança.

Como a distribuição bootstrap é calculada por amostragem aleatória, duas análises dos mesmos dados provavelmente produzirão duas distribuições bootstrap diferentes. Logo, estimativas baseadas na distribuição bootstrap podem não ser as mesmas. Esta variabilidade é minimizada tomando um número suficientemente grande de amostras bootstrap. Em geral, é necessário um número maior de amostras bootstrap para estimar um intervalo de confiança do que para estimar o vício ou erro padrão da estimativa. Os dados observados nas amostras bootstrap são amostrados com reposição da distribuição discreta aproximada.

Neste trabalho, é de particular interesse o percentil bootstrap, que será utilizado na construção dos de intervalos de confiança dos parâmetros dos modelos de projeção e regressão. É o método mais simples e comumente usado para construir intervalos de confiança por bootstrap. Neste método, os percentis 2,5 e 97,5 da distribuição bootstrap são usados como limites de um intervalo de confiança de 95%. Por exemplo, para calcular o percentil 2,5 a partir de 1000 realizações de bootstrap, ordena-se - do menor para o maior - as estimativas das amostras bootstrap e calcula-se a média entre a 25ª e 26ª estimativa, fazendo-se o mesmo para as 975ª e 976ª estimativas, obtém o percentil 97,5.
3. MATERIAIS E MÉTODOS
Para a realização deste trabalho, está sendo considerada a população de expostos ao risco de morte (ativos e assistidos) da Fundação Copel de Previdência e Assistência Social. Preliminarmente, foi realizada a Graduação Bayesiana de taxas de mortalidade considerando somente a população de participantes assistidos (aposentados), em janeiro de cada ano, para os anos de 2003 a 2007. Os totais de expostos ao risco foram 4.425, 4.437, 4.425, 4.432 e 4.569 para os anos de 2003 a 2007, respectivamente.

O Gráfico 1 apresenta as distribuições do número de expostos ao risco por idade, segundo o ano calendário de estudo:


Gráfico 1 – Distribuições do número de expostos ao risco por idade e ano de estudo


O intervalo de idades considerado foi de 46 a 95 anos, sendo que para algumas destas idades não foram observadas ocorrências de óbitos para períodos de observação de 1 até 5 anos, devido à pouca quantidade de expostos ao risco para algumas idades. Portanto, observou-se o grupo de expostos por um período de 5 anos - janeiro de 2003 a janeiro de 2008 - não ocorrendo ainda mortes em todas as idades. Assim, a pouca quantidade de dados em algumas idades a princípio, configurou um problema, fazendo com que algumas taxas brutas de mortalidade não fossem bem graduadas, apresentando alguns valores discrepantes, conforme mostra o Gráfico 2.

Para graduar as taxas brutas de mortalidade, utilizou-se o programa de domínio público JAGS (Just Another Gibbs Sampler) em conjunto com o programa R, também de domínio público. Foram realizadas 120.000 iterações de MCMC através do amostrador de Gibbs para cada taxa de mortalidade, descartando-se as primeiras 60.000 (etapa de burn-in, para estabilização das cadeias), conservando um a cada 6 valores gerados de forma a reduzir a auto-correlação das cadeias, resultando em amostras de tamanho 20.000.

Foram executadas 3 cadeias em paralelo, considerando as forças de mortalidade de três tabuas usuais no mercado de previdência e seguros: AT49, AT83 e AT2000. O diagnostico de convergência das cadeias foi feito através dos Traces e Densidades, utilizando o pacote CODA do programa R. A Figura 3 abaixo apresenta os Traces e Densidades das cadeias geradas para as taxas de mortalidade específicas das idades de 52, 53, 54 e 55 anos:


Figura 3 – Traces e densidades das cadeias geradas para as idades de 52, 53, 54 e 55 anos.


A Tabela 1 apresenta o numero de óbitos ocorridos, as taxas brutas de mortalidade (dx/lx) e as taxas graduadas (probabilidades de morte - qx) para o período de observação de janeiro de 2003 a janeiro de 2008, conforme citado anteriormente:

Tabela 1 – Número de expostos ao risco e taxas de mortalidade por idade



Fonte: Fundação Copel de Previdencia e Assistência Social


Como se pode observar, as taxas brutas e graduadas foram calculadas somente para as idades entre 48 e 84 anos, pois nas idades de 46 e 47 anos, assim como na maioria das idades a partir de 85 anos, não foram observados óbitos. O Gráfico 2 abaixo apresenta um comparativo das taxas de mortalidade graduadas com as taxas de mortalidade das tábuas de mortalidade AT49, AT83 e AT2000:

Gráfico 2 - Comparativo das taxas de mortalidade graduadas com as taxas de mortalidade das tábuas AT49, AT83 e AT2000


Como se pode observar, a maioria das taxas graduadas permanecem entre as taxas de mortalidade das tábuas AT49 (expectativa de 76,22 anos) e AT83 (expectativa de 81,66 anos), uma pequena parte delas (algumas idades entre 50 e 61 anos aproximadamente) permanecem muito próximas, ou até abaixo, das taxas de mortalidade da AT2000 (expectativa de 82,95 anos), indicando melhorias - quedas - nos níveis de mortalidade do grupo.

Para algumas idades a partir de 76 anos, algumas taxas estiveram bem abaixo da mortalidade da AT2000, porém deve ser levado em consideração que as quantidades de expostos para estas idades foram pequenas. Portanto, antes de concluir sobre a mortalidade do grupo a partir de 76 anos, será realizada novamente a Graduação Bayesiana considerando um maior número de expostos ao risco (inclusão de participantes ativos) para posteriormente concluir se este comportamento reflete de fato a mortalidade do grupo nestas idades.

Além da Graduação Bayesiana, serão aplicadas as metodologias de projeção de Lee-Carter e os modelos de regressão P-Spline. Como se pode observar no Gráfico 2, já há evidências de quedas nos níveis de mortalidade, logo, as projeções objetivam obter os fatores de melhoria na mortalidade, aplicando-os posteriormente em tábuas de mortalidade estáticas usuais, obtendo as taxas de mortalidade futura para o grupo. Após a realização das projeções, pretende-se analisar e comparar os resultados obtidos através das metodologias propostas, buscando avaliar qual delas é mais adequada para a população em questão.

Para as metodologias de projeção e regressão, será usado somente o programa R, estabelecendo códigos de programação específicos para tal.



4. RESULTADOS ESPERADOS
Com o desenvolvimento deste trabalho, espera-se obter as taxas de mortalidade (atuais e futuras) baseadas na experiência da população específica, além de um bom embasamento para aplicação e avaliação de metodologias estatísticas - incluindo simulação estocástica – adequadas, tanto na projeção de taxas de mortalidade como na construção de tábuas de mortalidade.
5 BIBLIOGRAFIA
BELTRÃO, K. I.; CAMARANO, A.A. A Dinâmica Populacional Brasileira e a Previdência Social: Uma Descrição com Ênfase nos Idosos. Relatórios Técnicos 01/99. ENCE/IBGE, Rio de Janeiro, 1999.
BOWERS, N.L. el al. Actuarial Mathematics. The Society of Actuaries, 1997.
BOX, G.E.P.; JENKINS, G. M. Time Series Analysis: Forecasting and Control. San Francisco: Holden-Day, 1970.
COELHO, E.I.F. O Método Lee-Carter para Previsão da Mortalidade. INE, Revista de Estudos Demográficos, 37, 2005.
COLES, S.; ROBERTS, G.; JARNER, S. Computer Intensive Methods. Lecture Notes, University of Lancaster, 2002.
EHLERS, R.S. Métodos Computacionalmente Intensivos em Estatísitca. Notas de Aula, Universidade Federal do Paraná, 2004.
LEE, R.D.; CARTER, L. Modeling and Forecasting the Time Series of US Mortality. Journal of the American Statistical Association, v87, 419: 659-671, 1992.
NEVES, C.R. Graduação Bayesiana de Taxas de Mortalidade. Funenseg, Caderno de Seguros – Teses, v.10, 28, 2005.
SANTOS, R.R Técnicas de modelagem do improvement para construção de tábuas geracionais. Pontifícia Universidade Católica do Rio de Janeiro, Dissertação de Mestrado, 2007.
SPIEGELHALTER, D.J. et al. Markov Chain Monte Carlo in Practice. Chapman & Hall, London, 1997.
WATSON WYATT WORLDWIDE, CSIS. Envelhecimento Mundial – Desafio do Novo Milênio. Períodico interno, 1999.
WONG, L.L.R.; CARVALHO, J.A. CSIS. O rápido processo de envelhecimento populacional do Brasil: sérios desafios para as políticas públicas. São Paulo: Revista Brasileira de Estudos Populacionais, v23, 5-26, 2006.


©principo.org 2016
enviar mensagem

    Página principal