terça-feira, 9 de setembro de 2014

O que é aleatoriedade? - parte II

quebecoislibre.org

Vamos agora tratar do conceito similar de pseudo-aleatoriedade. Vamos temporariamente esquecer da discussão da parte I e assumir que todo fenômeno para o qual temos dificuldade de prever o resultado com certeza é um fenômeno aleatório. Assim, resultados de lançamento de moedas e dados, previsão do tempo, nível de glicose no sangue de um indivíduo, chances de mortes de doentes, número de roubos de carro são todos exemplos de fenômenos aleatórios. Essa simplificação não é necessária para explicar o conceito de pseudo-aleatoriedade mas torna a explicação mais clara.

Costuma-se se chamar se pseudo-aleatório todo esquema determinístico (não-aleatório) que reproduz as condições de aleatoriedade desejadas. Existem vários esquemas que foram desenvolvidos para esse fim e formam um conjunto essencial para a prática da Estatística aplicada nos dias de hoje, com inúmeras ramificações. A base para esquemas pseudo-aleatórios é a geração de números pseudo-aleatórios. Os algoritmos mais comumente usados nos dias de hoje são os algoritmos congruenciais, que serão tema da próxima postagem sobre aleatoriedade.

Embora algoritmos congruenciais não tenha nada de aleatório, ele gera números que se comportam como se assim o fossem. E isso permite que qualquer situação aleatória possa ser reproduzida em ambientes controlados, como um computador, facilitando sua compreensão. Essa idéia foi estendida em muitas direções e hoje em dia muitos problemas aleatórios e não-aleatórios vem sendo (bem) resolvidos através de técnicas como essa. 

Um dos problemas determinísticos mais importantes onde técnicas como essas são úteis é o de encontrar máximos de funções. Dependendo da complexidade analítica da função, é praticamente impossível encontrar seu(s) máximo(s) de forma exata. Técnicas de aleatorização se mostraram extremamente eficazes nessa tarefa. Um dos exemplos mais vistosos é o da técnica conhecida como simulated annealing. A chave para esse uso é a transformação de um problema determinístico (busca do máximo de uma função) em um problema de probabilidade (busca da moda de uma distribuição)*. Outro problema importante é o de resolução de integrais por técnicas de Monte Carlo, já aludidas aqui.

Podemos agora retornar à abordagem da postagem inicial deste tema. Sob o prisma adotado naquela postagem, muitos problemas que comumente tratamos como aleatórios são na realidade pseudo-aleatórios. A aleatoriedade que a eles é atribuida nada mais é do que um artifício para torná-los mais facilmente tratáveis, como vimos. Nesse sentido, eles são outro exemplo da importância da pseudo-aleatoriedade. Mas independente da abordagem adotada naqueles fenômenos, a pseudo-aleatoriedade desempenha um papel fundamental na estatística aplicada dos dias de hoje.

==========================
*- qualquer função f pode ser transformada em uma densidade g através da operação de exponenciação seguida de padronização, isto é, = exp ( ) /  ∫  f . Com isso, achar máximo(s) de f corresponde a achar a(s) moda(s) de g e um problema totalmente determinístico é transformado em um problema de probabilidade e técnicas de aleatoriedade podem ser usadas.

Nenhum comentário:

Postar um comentário