Senhores,
gostaria de achar alguma referência que explique como uma distribuição binomial se comporta através do tempo. Por exemplo, em um experimento, um pequeno programa executa uma série de funções repetidas vezes e sobre essas funções são provocados erros com uma certa frequência. Teriamos então uma série de resultados divididos entre corretos e incorretos (parte dos erros injetados podem não gerar erros no resultado das funções). Minha dúvida principal diz respeito a função de densidade de probabilidade. No experimento, seriam considerados os tempos decorridos até que fosse detectada uma ocorrência de resultado incorreto. Ou seja, eu disparo a execução do programa, disparo a injeção de erros e aguardo até que um resultado incorreto ocorra. Então, registro esses tempos e traço uma função de densidade de probabilidade (termo associado: MTTF - mean time to failure). Eu acredito que a distribuição não seria normal e sim exponencial, mas preciso fundamentar essa premissa. Alguém conheçe um livro que aborde esse tipo de questão ? Seria mesmo um distribuição exponencial ? É possível que dependendo dos parametros eu obtenha uma distribuição normal ?
Eu já levantei esses tempos através de simulação para a usa-los na conclusão do meu mestrado na POLI e a distribuição "parece" ser exponencial. No momento preciso fundamentar tais resultados.
Alex Zumalde