O desenvolvimento das aplicações das probabilidades


No período que vai dos primeiros estudos matemáticos de probabilidades até a metade do século passado, surgiram varias aplicações da Teoria das Probabilidades, aplicações que chamamos de clássicas:

  • os cálculos atuariais, especialmente os associados aos seguros de vida
  • os estudos demográficos e, em especial, os estudos de incidência de doenças infecciosas e o efeito da vacinação ( exemplo de grande repercussão na época sendo o da varíola )
  • a construção das loterias nacionais e o estudo dos jogos de azar: carteados, roleta, lotos, etc


Contudo, o que queremos aqui abordar é o surgimento das modernas aplicações da Teoria das Probabilidades, pois são essas que vão demonstrar a enorme importância teórica e prática das idéias probabilistas e estender seu uso a uma enorme gama de profissionais e até mesmo a muitas atividades do cotidiano do viver moderno. Dentre essas modernas aplicações, nos concentraremos em:

        • probabilidades na Física
        • probabilidades na Estatística
        • probabilidades na Engenharia



1.- PROBABILIDADES NA FISICA

Teoria dos Erros Experimentais

A partir do sec XVIII, o desenvolvimento e barateamento dos instrumentos de medida em muito multiplicou as observações quantitativas em laboratório e em campo. Logo os físicos deixaram-se de se contentar em ter conseguido medir, eles passaram a buscar a melhor medida possível. Em termos mais precisos, queriam a resposta do Problema Fundamental da Teoria dos Erros:


se em condições idênticas foram obtidas medidas x 1, x 2  . . .   x n para uma grandeza de valor exato x desconhecido, determinar a probabilidade de que o valor de x seja uma quantidade expressa em termos dos x k, como e' o caso da média dessas medidas.

Esse problema foi exaustivamente estudado por Legendre, Laplace e Gauss, no final do sec XVIII e início de sec XX. O resultado mais fundamental foi estabelecido por Gauss, ao provar que se os erros das medidas tem uma distribuição gaussiana ( ou da curva normal ) então o valor mais provável de x é a média das medidas x k.

Probabilidades na Física Estatística

Até a metade do sec XIX, os físicos viam a Teoria dos Erros como a única utilidade das probabilidades. Para isso era usado o seguinte argumento: é perfeitamente concebível que usemos probabilidades e estatística no estudo de fenômenos biológicos e sociais, afinal as pessoas de uma população tem altura, peso, inteligência diferentes; contudo, não há possibilidade de esse tipo de variações no mundo físico: as propriedades de duas gotas de água ou dois litros de ar são absolutamente as mesmas.

Foi preciso um gênio do calibre de Maxwell para derrubar esse preconceito.
Maxwell implicara com o Princípio de Carnot, que diz que o calor não pode fluir espontâneamente ( = sem gasto de energia ) de um corpo frio para um quente. Usando que a temperatura é um efeito médio das moléculas dos corpos, Maxwell acabou mostrando que era perfeitamente possível que uma inteligência, a qual hoje chamamos de demônio de Maxwell, conseguisse fazer o calor passar de um corpo frio para um quente, sem gasto de energia. Como um segundo estágio de suas idéias, passou a defender que as leis termodinâmicas deveriam ter uma formulação probabilística. Em c. 1860 deu ao mundo a primeira lei física de natureza probabilística: a lei de Maxwell para a distribuição do percentual p de moléculas de um gás em equilíbrio que estão com velocidade ( a rigor: rapidêz ) v. Sendo a e b parâmetros do gás:



p=p(v)=a v 2 e - b v 2


As idéias de Maxwell foram tornadas ao mesmo tempo práticas e mais gerais ( pois que aplicáveis a fenômenos físicos outros que os de calor ) com Josiah Wilard Gibbs, com seu Principles of Statistical Mechanics, 1902, uma das obras mais importantes já escritas em toda a história da Humanidade e que verdadeiramente deu maturidade à abordagem probabilística dos fenômenos físicos.

Probabilidades na Física Quântica

O formalismo da Mecânica Estatística mostrou o quão útil podia ser a Teoria das Probabilidades para estender o poder da Ciência clássica e equipá-la com instrumentos capazes de uma análise muito mais ampla do comportamento da matéria e da energia: o estudo das reações químicas, dos processos termodinâmicos, da radiação eletromagnética, etc.

Contudo, no final do século XIX, começaram a surgir inconsistências nesta vasta paisagem. Por exemplo, o equilíbrio das radiações não podia conviver logicamente com a idéia natural de distribuição contínua dos níveis energéticos. Logo se viu que a evidência experimental levava à uma estrutura discreta dos níveis energéticos. A descoberta do elétron e a concepção atômica de Rutherford apontavam grandes discrepâncias entre a teoria clássica do eletromagnetismo e o calor específico dos metais. A teoria ondulatória da luz tinha sido adotada para se poder explicar os fenómenos de interferência luminosa, mas o efeito fotoelétrico parecia preferir uma interpretação corpuscular. Pior do que isso, para esses mesmos elétrons observou-se fenômenos de interferência, o que sugeria que eles também podiam comportar-se como ondas.

A resolução dessas dificuldades foi iniciada com Max Planck, no início do século XX, e acabou produzindo outra das maiores obras da Humanidade: a Mecânica Quântica. Essa nova disciplina, ao explicar os fenômenos de radiação em termos de probabilidades, destruiu o ponto de vista clássico que pregava que todos os fenômenos eram deterministas. Sob um ponto de vista mais prático, permitiu uma muito fértil aproximação entre o ponto de vista dos físicos e o dos químicos no estudo da matéria, disso resultando uma enorme massa de resultados fundamenatis tanto nso estudos teóricos ( como uma adequada descrição molecular da química, e a interpretação e previsão de fenómenos de radiação em uma enorme faixa de energias ) como na criação de importantes tecnologias ( como a eletrónica e a engenharia nuclear ).

O objetivo inicial da Mecânica Quântica era explicar as interações entre matéria e energia mas acabou tendo o papel de retificar e completar a Física e Química clássicas. No que toca aos fenômenos macroscópicos, passou-se a pensar em termos de efeitos macroscópicos consequência do comportamento de uma enorme quantidade de micro-sistemas cujas leis são probabilistas. Esses micro-sistemas não são totalmente independentes ( por exemplo, os átomos de um sólido obedecem relações espaciais ), mas não podem ser individualizados e os cálculos probabilistícos envolvidos precisam levar isso em conta. Assim que foi necessário um ponto de vista revolucionário para descrever o comportamento dos micro-sistemas: as grandezas observáveis tem natureza verdadeiramente probabilista.



2.- PROBABILIDADES NA ESTATISTICA

A História registra censos, para fins de alistamento militar e de coleta de impostos, realizados há mais de 4 000 anos, como é o caso do censo do imperador Yao na China, em 2 200AC. Em todo esse tempo, por estatística entendia-se meramente o trabalho de exibição e síntese dos dados referentes colhidos pelo censo. Mais importante do que observar que estava restrita aos censos é notar que era uma mera Estatística Descritiva, a qual não envolvia nenhum trabalho probabilístico, pois todos os objetos do universo envolvido ( a população ) eram observados ou medidos.

A primeira pessoa a atinar em medir/observar apenas uma pequena amostra do universo envolvido e, a partir de análise probabilista, estender os resultados da amostra para o todo do universo ou população foi Adolphe Quételet, c. 1850.
A partir dele, rapidamente surgiu a idéia de dar um embasamento mais rigoroso para o método científico, a partir de uma fundamentação probabilista para as etapas da coleta e a da análise indutiva de dados científicos. Essa concepção, hoje essencial no trabalho científico, só atingiu um nível prático no início do sec XX e desenvolveu-se em três grandes frentes:

A inferência estatística

estuda técnicas que permitem quantificar probabilisticamente as incertezas envolvidas ao induzirmos para um universo observações feitas numa amostra do mesmo. Por exemplo:
uma companhia de aviação deseja saber o tempo médio que seus passageiros gastam ao desembarcarem no aeroporto XYZ. Numa amostra de 320 passageiros, o tempo médio foi de 23 min. Com 95% de chances de certeza, o que poderá a companhia dizer sobre o erro cometido ao afirmar que o tempo médio de desembarque de seus passageiros seu é 23 min, no aeroorto XYZ ?
Os pais da Inferência Estatística são J. Neyman e Karl Pearson, os quais a criaram em varios artigos escritos c. 1930. Embora os estudos de Neyman e Pearson estivessem associados à questões de hereditariedade, os métodos e até as expressoes que criaram, tais como "hipótese nula" e "nível de significância", fazem hoje parte da rotina diária de todo estatístico e cientista.

O delineamento dos experimentos científicos

trata das precauções que o cientista deve tomar, antes de iniciar suas observações ou medidas, de modo que se possa dar uma boa probabilidade de que os objetivos pretendidos sejam atingidos.
O pai dessas técnicas é R. A. Fisher. Esse, ao trabalhar na seleção genética de plantas agrícolas, desenvolveu imensa quantidade de resultados básicos sobre delineamento de experimentos e os divulgou, com grande sucesso, em dois livros históricos: Statistical Methods for Research Workers, 1925, e The Design of Experiments, publicado em 1935.

A correlação entre variáveis

é o que, em Estatística, corresponde - não perfeitamente, desde já alertamos - à idéia de causação. Suponhamos que um cientista faça, simultâneamente, a medida de duas ou mais variáveis: uma poderia ser a altura e a outra o peso de pessoas de uma população. Se ocorrer que elas tendam a crescer ou decrescer simultaneamente, dizemos que elas sao positivamente correlacionadas; se, por outro lado, a tendência é uma delas crescer e a outra decrescer, dizemos que elas são negativamente correlacionadas. No instante que o estatístico ou cientista possa afirmar que duas ou mais variáveis são correlacionadas, ele pode usar uma série de técnicas ( chamadas análise de regressão ) para achar fórmulas expressando os valores de uma dessas variáveis em termos da outra, ou das outras. Tudo dentro de uma margem de erro que ele poderá estimar probabilisticamente.

O pai da idéia de correlação foi o inglês Francis Galton o qual, no final do século passado a usou numa série de estudos de hereditariedade motivados pela Teoria da Evolução de Darwin e com objetivos decididamente eugênicos.
A base matemática do trabalho de Galton era precária. Coube a Karl Pearson dar uma fundamentação mais matemática para a correlação e introduzir técnicas hoje básicas: coeficiente de correlação, medida da qualidade da regressão via a distribuição probabilista chi-quadrado, etc.



3.- PROBABILIDADES na ENGENHARIA

Controle de qualidade da produção industrial

A primeira pessoa a estudar matemáticamente o controle da qualidade foi W. Gosset ( mais conhecido por seu pseudônimo, Student ) quando, no início do séc XX, trabalhava numa fábrica de cerveja. Sucederam-se algumas aplicações de âmbito fechado, restrita ao setor militar ( França: M. Dumas ) e às atividades internas da Western Electric Company.

Contudo, é só em torno de 1930 que surgem os primeiros tratados de cunho prático e destinado a engenheiros: o The Economic Control of the Quality of Manufactured Products ( de W. A. Shewart, da Bell Telephone Co., USA, 1929 ) e o The Application of Statistical Methods in Industrial Standartization and Quality Control ( de Egon. S. Pearson, Inglaterra, 1935). Por essa mesma época, surgem as primeiras comissões tratando da uniformização das normas do controle estatístico da qualidade: o Joint Committe for the Development of Statistical Applications in Engineering and Manufacturing, americano, e a Section of Industrial and Agriculture Researches, na Royal Statistical Society of London.

Apesar desses pioneiros, a real difusão dos métodos estatísticos na engenharia só iniciou durante a Segunda Guerra. Entre 1941 e 1942 os americanos e os inglêses desenvolveram um grande programa, procurando disseminar a prática do controle de qualidade estatístico na produção militar. Vários manuais foram escritos e divulgados amplamente. Especialmente decisiva foi a adoção desses manuais pelas universidades americanas que faziam parte do Engineering and Science War Training Program. Terminada a guerra, rapidamente tornou-se norma a inclusão de cursos de Probabilidades e Estatística em todos os cursos de engenharia americanos, inglêses e, logo, de outros países.

EXEMPLO:
Uma fábrica estuda um novo processo de manufatura para a produção de tampões para pias e banheiras. Os tampões com mais de 2.5 cm deverão ser descartados. Numa amostra de 20 tampões determinou-se um diâmetro médio 2.49 cm e desvio padrão de 0.01 cm. Supondo que os diâmetros tenham uma distribuição de probabilidades gaussiana, que percentual da produção desse processo deverá ser descartada ?


Aplicações mais recentes das probabilidades na Engenharia

são cada vez mais variadas e importantes, citaremos rapidamente apenas três:

  • Teoria das Filas:
    Busca calcular a quantidade de recursos e a maneira de disponibilizá-los para que uma fila de solicitação de serviços seja atendida, com investimento mínimo de recursos e tempo mínimo de espera por parte dos clientes da fila. Exemplos de problemas de filas sendo: determinar o número de caixas num super-mercado, determinar o número de pistas num aeroporto, determinar a quantidade de equipamento telefônico necessário para atender uma área geográfica, determinar a quantidade de mecânicos e boxes para atender os serviços de uma grande concessionária de automóveis, tudo isso a partir de projeções probabilistas da demanda.
    A origem da Teoria das Filas ocorreu em Telefonia.

  • Teoria da Informação
    Partindo de considerações probabilistas, essa teoria desenvolveu uma medida da quantidade de informação em mensagens. Usando essa medida, a teoria estuda maneiras de codificar, transmitir e decodificar as mensagens que são transmitidas pelos sistemas de comunicação: TV, radio, telefonia, satélites, etc. Os principais obstáculos a vencer são a existência de ruídos aleatórios, produzidos pelas componentes dos sistemas de comunicação e por interferências, e a existência de uma capacidade limite de todo canal de comunicação. As bases dessa teoria foram estabelecidas por Claude Shannon c. 1950.

  • Teoria do Risco
    Trata de problemas envolvendo decisões alternativas e cujas consequências só podem ser avaliadas probabilísticamente. Uma situação importante sendo o estudo das panes em sistemas de engenharia complexos, como redes de distribuição de energia elétrica, redes telefônicas, redes de computadores, etc. Tipicamente, deseja-se maximizar a duração do funcionamento normal do sistema a um custo mínimo de investimento em equipamento.



versão: 23 - fev - 2 001
localize esta página em: http://athena.mat.ufrgs.br/~portosil/histo2.html
© J.F. Porto da Silveira ( portosil@mat.ufrgs.br )
permitida a reprodução, desde que com fins acadêmicos e não comerciais