domingo, 26 de julio de 2009

Popper e Heisenberg


Sobre a tentativa frustrada de Popper em refutar Heisenberg

Apontamentos


por
Jacob (J.) Lumier
Creative Commons License
Sobre a tentetiva de Popper em refutar a Heisenber - Apontamentos by Jacob (J.) Lumier is licensed under a Creative Commons Reconocimiento-No comercial-Sin obras derivadas 3.0 Estados Unidos License.
Based on a work at www.oei.es.
Permissions beyond the scope of this license may be available at http://www.leiturasjlumierautor.pro.br/sociologia.htm.


No texto de Karl POPPER, em sua exposição sobre o programa de Werner HEISENBERG e as relações de incerteza, (cf. “A Lógica da Pesquisa Científica”,pp.239 sq), podemos ver que o “programa epistemológico” de HEISENBERG é orientado, segundo POPPER, para afastar da teoria atômica os “não-observáveis”, ou seja, afastar as magnitudes inacessíveis à observação experimental e, desse modo, livrar a teoria de elementos metafísicos.
Conforme a exposição de POPPER, essas magnitudes não observáveis através de um experimento correspondiam, na teoria de BOHR, anterior à de HEISENBERG, às órbitas dos elétrons ou às freqüências de suas revoluções. Essas freqüências das revoluções do elétron (velocidade), nada observáveis, excluem, portanto, a possibilidade de ser identificadas com as freqüências passíveis de observação como linhas espectrais (posição).
POPPER antecipa as conclusões de sua análise a partir de um esquema compreensivo da interpretação de HEISENBERG, no qual destacamos a seguinte proposição: (a)- “há algumas fórmulas matemáticas, na teoria quântica, interpretadas por HEISENBERG em termos do seu princípio de incerteza, ou seja, como enunciados acerca de intervalos de incerteza, devido aos limites de precisão que nossas medidas podem atingir”; (b)- compreendidas no enfoque estatístico, tais fórmulas asseveram que certas relações vigem entre determinados intervalos de dispersão ou variação ou disseminação estatística, intervalos estes que POPPER chama “relações estatísticas de dispersão; (c)- nessa compreensão popperiana, se deve propor uma inversão na avaliação da “existência de limites de precisão atingível”, afirmada ou asseverada por HEISENBERG, a qual, então, nessa inversão, deixaria de ser uma conseqüência lógica, dedutível a partir das fórmulas da teoria (para se tornar um pressuposto distinto da teoria, um adicional); (d)- quer dizer, POPPER se insurge quanto ao estatuto desses “limites de precisão”, agasalhando a pretensão de que “medidas mais precisas, não apenas são compatíveis com a teoria quântica, mas é até mesmo possível descrever experimentos imaginários que demonstrariam a procedência de medidas mais exatas.
A crítica de POPPER contesta a doutrina que estaria por traz da pretensão de fazer a reforma na teoria de BOHR; quer dizer acusa a ocorrência do que ele, POPPER, chama “pressuposto insatisfatório de que existem eventos físicos e magnitudes fisicamente definidas que a natureza consegue esconder de Nós, tornando-os para sempre inacessíveis a testes observacionais”. Trata-se, portanto, da defesa de uma “acessibilidade” tida por “imperiosa” dos testes observacionais, contraposta à concepção do princípio de incerteza, de HEISENBERG (POPPER admite que a ciência e a técnica desenvolvem juntos). Essa crítica propõe uma reflexão sobre a conclusão (enfatizada por MARCH) de que, “na Mecânica nova, o conceito de trajetória não tem qualquer significado definido ...” (apud POPPER, op.cit., p.241).
A exposição da fórmula da relação de incerteza que POPPER nos oferece, pauta-se numa análise da interferência da medida na experimentação, ou seja: a análise do impacto do processus de mensuração.
►Na primeira parte da sua argumentação nos é dito que “toda medida física envolve troca de energia entre o objeto medido e o aparelho de mensuração”, incluindo o próprio observador, sendo admitido que a energia, o raio de luz, refletida pelo objeto, pode vir a sofrer absorção por parte do aparelho de medida, de tal sorte que “a medida proporciona conhecimento de um estado que acabou de ser destruído pelo processus de mensuração”.
Entretanto, se essa interferência do processus de mensuração no objeto medido pode ser desprezada quando se trata de objetos macroscópicos, o mesmo não vale para um objeto atômico. “É impossível, a partir do resultado da medida, fazer inferência acerca do preciso estado de um objeto atômico, imediatamente após ele ter sido medido: conseqüentemente, a medida não pode servir de base para previsões”, enfatiza POPPER.
A segunda parte da argumentação aprofunda na série das medidas de experimentos. Nos é dito, (1)- que, através de novas medições, existiria a possibilidade de determinar o estado do objeto após a medição anterior, só que a interferência se repete de um modo que escapa à avaliação; (2)- que seria viável fazer as medidas de maneira tal que certas características do estado a ser avaliado -como, p.ex., o momento da partícula- não sejam perturbadas. (3)- Alternativa esta que também não prospera, já que essa medição só pode ser feita “ao preço de interferir fortemente com outras magnitudes características do estado a ser medido" (no caso particular, a posição da partícula, que seria, então, perturbada).
Quer dizer, a alternativa de medição do item (1) poderia ser conseguida através da alternativa do item (2) caso a magnitude que se pretende alcançar não fosse mutuamente correlacionada a outra, item (3), de sorte a sofrer a interferência que seria controlada em relação à primeira grandeza.
Neste ponto da exposição de POPPER, sobressai a aplicação do teorema que leva à fórmula da relação de incerteza de HEISENBERG, a saber: se duas grandezas estiverem mutuamente correlacionadas dessa maneira interpenetrada notada no item (3), em que a correção da interferência da medição em uma leva à interferência na outra, então, “o teorema segundo o qual elas não podem ser simultaneamente medidas com precisão aplica-se a elas, embora cada qual, separadamente, possa sofrer medição precisa”.
Desta forma, a exposição popperiana entra na discussão da fórmula de HEISENBERG, segundo a qual “o produto dos dois intervalos de erro é, pelo menos, da ordem de grandeza de “h” (eth), sendo “h”(eth) o quantum de ação de PLANK (referente à grandeza mutuamente correlacionada de maneira interpenetrada):
Δx.Δpאַ > h/4π
Sendo:
pאַ ... momento Δx ... intervalo de erro
Δpאַ ... intervalo de erro
x... coordenada de posição
Por esta fórmula, se aumentarmos a precisão de uma das medidas -como a do momento “pאַ”, reduzindo desse modo a extensão do intervalo de erro “Δpאַ”- seremos levados a reduzir a precisão da medida da coordenada da posição - “x” - , isto é, seremos levados a expandir o intervalo “Δx”. Desse modo, segundo HEISENBERG, a maior precisão atingível está limitada pela relação de incerteza (apud POPPER,op.cit.,p.240 sq.).
POPPER enfatiza que, dessa fórmula de HEISENBERG, decorre o seguinte: (1)- que uma medida inteiramente precisa de uma das duas magnitudes terá de ser conseguida ao preço da completa indeterminação da outra; (2)- que “toda a medida de posição interfere com a medida da correspondente componente do momento”. Daí a conclusão que é objeto da crítica de POPPER: (a)- é impossível em princípio prever a trajetória de uma partícula; (b)- na Mecânica nova , o conceito de trajetória não tem qualquer significado definido.
►Com efeito, na avaliação de POPPER, o programa epistemológico de HEISENBERG não alcançou êxito no sentido de expulsar da teoria atômica todos os elementos metafísicos, exatamente devido às vacilações entre uma abordagem subjetiva e um enfoque objetivo, de que a conclusão acima seria a expressão, sendo o enunciado do item (a) referido à abordagem subjetiva, enquanto o do item (b) indica o enfoque objetivo.
As “vacilações” de que nos fala POPPER baseiam-se em que HEISENBERG afirma que os cálculos de trajetória insuscetíveis de teste observacional são destituídos de significação, no seu dizer: “é uma questão de crença pessoal querer alguém atribuir qualquer realidade física à calculada história passada do elétron” (apud POPPER, ibid. p.242). A “vacilação” estaria em que é possível calcular essa “trajetória sem sentido”, o que implica admitir elementos metafísicos na teoria atômica.
Quer dizer, POPPER contrapõe a concepção subjetiva à objetiva e tenta mostrar a ocorrência de duas contradições (nºs 01 e 02), que estariam como impedimentos do programa de HEISENBERG.
A contradição nº01 é o próprio caráter subjetivo da interpretação que encara o princípio de incerteza como um limite imposto a nosso conhecimento: “a partícula tem uma posição exata e um momento exato (portanto, tem uma trajetória exata), mas que para nós é impossível medi-los simultaneamente”.
Segundo POPPER, por este enunciado, “a natureza continua empenhada em esconder de nossos olhos certas grandezas físicas; não a posição, não o momento da partícula, mas a combinação dessas duas magnitudes, isto é, a “ posição-cum-momento” ou trajetória.
A contradição nº02 já é decorrência da aplicação da possibilidade de calcular a “trajetória sem sentido”. Assim nos é dito que a abordagem objetiva assevera ser inadmissível ou incorreto ou metafísico atribuir à partícula algo como uma “posição-cum-momento” ou uma trajetória claramente definida: a partícula simplesmente não tem trajetória, mas “apenas ou uma posição exata, combinada a um momento inexato, ou um momento exato combinado a uma posição inexata”.
A contradição em aceitar esse enfoque objetivo é o fato de que, como já mencionamos uma posição-cum-momento ou uma trajetória claramente definida da partícula é exatamente calculável, ainda que só para os períodos de tempo durante os quais é impossível, em princípio, submetê-la a teste observacional. Conseqüentemente, aceitar esse enfoque objetivo que nega realidade física à trajetória calculável seria aceitar elementos metafísicos.
►POPPER nos apresenta como esclarecedor dessas duas contradições que os defensores da relação de incerteza vacilam entre uma abordagem subjetiva e um enfoque objetivo, como já dissemos. Acrescenta que em nada avança ao programa epistemológico de HEISENBERG tentarmos, juntamente com o próprio HEISENBERG, combinar as duas interpretações – que POPPER as quer opostas ou confrontadas –, em uma única consideração, levando a afirmar que “uma física objetiva neste sentido, isto é, no sentido de uma divisão nítida do mundo em objeto e sujeito, deixou evidentemente de ser possível” ( HEISENBERG, in “Princípios de Teoria Física”, apud POPPER, “A Lógica da Pesquisa Científica”,op.cit.,p.244).
A reflexão de POPPER é voltada para desenvolver a interpretação estatística em sentido restrito da teoria quântica. Sua crítica contrapõe-se ao que ele chama “tentativa de explicar a interpretação estatística recorrendo ao fato da precisão atingível na medida das grandezas físicas estar limitada pelas relações de incerteza de HEISENBERG”.
Na corrente dessa “tentativa” repelida, argumenta-se que, devido a essa incerteza das medidas concernentes aos experimentos atômicos em geral, o resultado destes não será determinado.
(a)-Se o experimento for repetido várias vezes, nas mesmas condições, vários resultados diferentes serão obtidos; (b)- se o experimento for repetido grande número de vezes , verificar-se-á que cada resultado particular será obtido uma fração definida de vezes, no total; (c )- de sorte que se pode dizer que há uma probabilidade definida de que tal resultado seja obtido sempre que o experimento venha a ser realizado.
Nesta corrente POPPER inclui a MARCH, quem escreve que, do ponto de vista da relação de incerteza, “entre o presente e o futuro vigoram... apenas relações de probabilidade, tornando-se claro que o caráter da Mecânica nova há de ser o de uma teoria estatística”.
POPPER repele essa análise das relações entre as fórmulas de incerteza e a interpretação estatística da teoria quântica, sustentando que, efetivamente se podem deduzir as fórmulas de incerteza a partir da equação de onda proposta por SCHRODINGER.
Diz-nos que a interpretação estatística dada por BORN às duas teorias (a essa teoria ondulatória e à teoria de partículas, de HEISENBERG), mostrou que a teoria ondulatória pode ser vista como uma teoria de partículas, pois a “equação de onda”, formulada por SCHRODINGER, admite interpretação tal que fornece a probabilidade de localizar a partícula em qualquer dada região do espaço (ib.p.244) - conforme acrescenta POPPER, tal probabilidade é determinada matematicamente pelo quadro da amplitude da onda; é grande dentro do pacote de ondas, em que estas se reforçam umas às outras; e desaparece fora do alcance desse pacote.
POPPER entende que a situação-problema de localizar a partícula, sendo fundamental na teoria quântica, sugere que essa teoria seja interpretada estatisticamente.
Diz-nos que essa situação-problema está contida no que seria a missão mais importante da teoria quântica, a saber: a dedução dos espectros atômicos, e sustenta que essa dedução tinha de ser encarada como tarefa estatística, considerando notadamente que EINSTEIN formulou a hipótese dos fótons ou quanta de luz, e que assim devia ser encarada desde o momento em que ele fez isso.
Reforçando sua avaliação, POPPER utiliza citações de BORN-JORDAN (“Elementos de Mecânica Quântica”, 1930) já que a hipótese de EINSTEIN interpretava os efeitos luminosos observados em termos de fenômenos de massa, devido à incidência de muitos fótons.
Quer dizer, a experiência de observação de muitos fótons favorece as afirmativas de BORN de que (a)- “os métodos experimentais da física atômica... sob a orientação da experiência, passaram a preocupar-se exclusivamente com questões estatísticas”; (b)- “A Mecânica Quântica, que oferece a teoria sistemática das regularidades observadas, corresponde, sob todos os aspectos, ao presente estado da física experimental, pois que se restringe, desde a origem, a indagações estatísticas e a respostas estatísticas”.
Privilegiando tal consideração sobre as regularidades observadas como preocupação estatística central na física atômica, POPPER sublinha exatamente que é em sua aplicação aos problemas da física atômica que a teoria quântica leva a obtenção de resultados que diferem dos alcançados pela Mecânica Clássica: no dizer de MARCH, “segundo a teoria quântica, as leis da Mecânica Clássica serão válidas se forem vistas como enunciados acerca das relações entre médias estatísticas” (apud POPPER,op.cit.,p.245).
A partir dessa compreensão da missão da teoria quântica como ligada à dedução dos espectros atômicos,POPPER propõe uma interpretação estatística das fórmulas de incerteza. Para isso, sustenta que as fórmulas de HEISENBERG Δx.Δpx > h/4π apresentam-se como conclusões lógicas da teoria, mas a interpretação dessas fórmulas, tomando-as como regras limitadoras da precisão da medida possível de atingir -de acordo com HEISENBERG- não decorreriam da teoria, de tal sorte que as supostas “medidas mais exatas do que as permissíveis nas fórmulas de incerteza, não poderiam contradizer logicamente a teoria quântica ou a Mecânica ondulatória”.
►Contra o que chama “interpretação subjetiva” (“quanto mais precisamente medirmos a posição de uma partícula, menos sabemos acerca de seu momento”) POPPER propõe a seguinte razão: dado um agregado de partículas e feita uma seleção (no sentido de separação física) daquelas que, em certo instante e com certo grau de precisão, ocupam determinada posição “X”, verificaremos que seus momentos “px” mostrarão dispersão aleatória, e o âmbito da dispersão desses momentos, “delta px”, será tanto maior quanto menor for “delta X”, isto é, quanto menor for o âmbito da dispersão ou imprecisão admitida para as posições.
E a recíproca também se confirma: se selecionarmos ou separarmos as partículas cujos momentos “px” se coloquem todos dentro de um âmbito estabelecido “delta px”, verificaremos que suas posições se dispersarão de modo aleatório, dentro de uma âmbito “delta X” que será tanto maior quanto menor for “delta px”, isto é, quanto menor for o âmbito da dispersão ou imprecisão admitida para os momentos.
Todavia, para POPPER, na interpretação estatística haveria a possibilidade de alcançar a combinação dessas duas grandezas.
Assim, o processus de seleção proposto só chega à etapa final ao tentarmos selecionar as partículas que tenham tanto as propriedades “delta X” quanto as “delta px”, pois só poderemos realizar fisicamente essa seleção - isto é, separar fisicamente as partículas- se ambos os âmbitos forem suficientemente grandes para satisfazer a equação de queou, simplesmente, “delta X” multiplicado por “delta px” é maior ou igual a “eth” sobre “4 pi”, {Δx.Δpx > h/4π}.
Segundo POPPER, essa “interpretação objetiva”, como a chama, entende as fórmulas de HEISENBERG como “asseveradoras de que certas relações vigoram entre certos âmbitos de dispersão”, que serão chamadas “relações estatísticas de dispersão”.
A correção posterior que POPPER ajunta a sua linguagem substitui “agregado de partículas” por um conjunto bem mais amplo e melhor definido, isto é, por “um agregado ou uma seqüência de repetições de um experimento”, experimento este “levado a efeito com uma partícula ou um sistema de partículas”.
A seleção física de que se fala nessas proposições compreende um processus tecnicamente operado, tendo em conta a propriedade “delta X” da seqüência de repetições do experimento (isto é, o âmbito da dispersão ou imprecisão admitida para as posições), seleção física esta que POPPER a quer “em oposição a uma seleção simplesmente mental ou imaginada”, como o é a seleção feita quando falamos da classe de todas as partículas que passaram ou passarão através da fenda ou faixa “delta p” (e não “delta X”), ou seja, quando falamos de uma classe que faz parte de classe mais ampla de partículas, da qual não foi fisicamente separada.
Segundo POPPER, toda seleção física pode naturalmente ser vista como se fora uma forma de medida, e pode efetivamente ser usada como tal.
Medida significa “não apenas operações diretas de medida, mas também medidas obtidas indiretamente, através de cálculos (em física, são praticamente estas últimas as únicas medidas que surgem).
Isto não quer dizer que devamos encarar toda a medida como uma seleção física, pelo contrário. Qualquer seleção baseada na posição das partículas equivale a uma interferência no sistema, resultando em aumento da dispersão dos componentes do momento “px”, de modo que a dispersão crescerá (de acordo com a lei traduzida pela fórmula de HEISENBERG) com o estreitamento da fenda.
►Com isto, POPPER sustenta que as fórmulas peculiares à teoria quântica constituem hipóteses de probabilidade e se colocam como enunciados estatísticos, de tal sorte que se tornará difícil perceber de que maneira “as proibições de eventos isolados” (ou proibições de medidas exatas) poderiam ser deduzidas de uma teoria estatística de casos de probabilidade. Em suma: POPPER acredita haver meios para refutar a argumentação de que medidas exatas de posição e momento estariam em contradição com a teoria quântica.
O raciocínio dedutivo que a este respeito nos é apresentado, entende que o problema está “no produzir condições iniciais precisas através de manipulação experimental do sistema”, ou seja, através do processus de “seleção física”.
Quer dizer, (1)- em razão das próprias “relações de dispersão” concebidas na interpretação estatística de POPPER -como já vimos- “haveremos de falhar no produzir condições iniciais precisas”.
(2)- Ora, “é indubitavelmente verdade que a técnica normal do experimentador consiste em produzir ou construir condições iniciais”; e isso, esse raciocínio, permite a Karl POPPER deduzir, a partir de suas “relações estatísticas de dispersão” (como, em sua interpretação, chama ele as “relações de incerteza”, de HEISENBERG), o teorema segundo o qual “da teoria quântica não podemos derivar quaisquer predições singulares, mas apenas previsões de freqüência”(probabilidades).
Segundo POPPER, esse teorema resume sua atitude diante de todos os experimentos imaginários discutidos por HEISENBERG (POPPER faz questão de frizar que este último autor acompanha a BOHR).
Segundo POPPER, esse teorema resume sua atitude diante de todos os experimentos imaginários discutidos por HEISENBERG (POPPER faz questão de frisar que este último autor acompanha a BOHR).
Se HEISENBERG tinha o objetivo de provar a impossibilidade de efetivar medidas com uma precisão proibida pelo seu princípio de incerteza, POPPER, por sua vez, afirma que “a dispersão estatística torna impossível notadamente prever qual será a trajetória da partícula após a alteração da medida”.
A conseqüência dessa interpretação estatística em termos de probabilidade, segundo o próprio POPPER, é que as medidas e cálculos dos elementos tidos por dispensáveis na interpretação de HEISENBERG (os cálculos exatos da trajetória cuja realidade física HEISENBERG deixa em dúvida, e outros de seus correligionários, como SCHLICK, negam-na totalmente), “podem ser qualquer coisa, mas não são supérfluos”(“A Lógica da Pesquisa Científica”,op.cit.,p.253).
E POPPER acrescenta: “reconhecidamente, eles (os elementos tidos por dispensáveis) não servem como condições iniciais ou como base para a dedução de previsões, mas, apesar disso, são indispensáveis; são necessários para submeter a teste nossas previsões, de vez que se trata de previsões estatísticas.
Com isso, POPPER quer mostrar que sua interpretação em termos de “relações estatísticas de dispersão” leva a uma previsão possível de ser testada.
Ou seja, as suas relações estatísticas de dispersão “asseveram que os momentos devem dispersar-se quando as posições se vêem determinadas mais exatamente -e vice-versa”.
►Neste ponto é que a interpretação estatística de POPPER mostra diferença em relação à interpretação do próprio HEISENBERG, já que as medidas e os cálculos por este dispensados passam a ter aplicação na previsão.
Com efeito, segundo POPPER, "essa é uma previsão que não poderia ser submetida a teste observacional, ou que não seria falseável se não tivéssemos condições de medir e calcular os vários momentos dispersos, que ocorrem imediatamente após qualquer seleção feita de acordo com a posição”.
Desse modo, POPPER entende que a teoria, estatisticamente interpretada, não só deixa de afastar a possibilidade de medidas isoladas exatas, como deixa de ser insuscetível de teste e, conseqüentemente, deixa de ser “metafísica”, como seria se essas medidas fossem impossíveis.
Quer dizer, a concretização do programa de HEISENBERG, a eliminação de elementos metafísicos, seria aqui alcançada; porém o seria através de um método oposto ao preconizado por ele.
POPPER sustenta que faz a inversão da atitude que procurava excluir magnitudes tidas por inadmissíveis, mostrando que o formalismo no qual se contém essas magnitudes é correto, exatamente por que as magnitudes não são metafísicas, mas são testáveis.
Com isso, POPPER acredita (1)- haver abandonado o que ele chama “dogma presente na limitação” que HEISENBERG impõe à precisão atingível e (2)- que assim ficou ultrapassado qualquer motivo para duvidarmos da significação física dessas magnitudes.
Quer dizer, as relações de dispersão que neutralizam a impossibilidade de medidas precisas, são “previsões de freqüência acerca de trajetórias”.
Conseqüentemente, essas trajetórias hão de ser mensuráveis, tão precisamente como os lançamentos de dado que resultem em cinco hão de ser empiricamente determináveis; e isto, caso desejemos ter -como é exatamente o que POPPER quer estabelecer- as condições de submeter a teste observacional nossas previsões de freqüência acerca dessas trajetórias ou desses lançamentos.
POPPER esclarece sua interpretação ressaltando que as relações de dispersão asseveram que, “se fizermos um arranjo para uma perfeita seleção da posição (através de uma fenda numa tela, p.ex.) os momentos, como conseqüência, se dispersarão”. Quer dizer, em lugar de se tornarem indeterminados, os momentos assim isolados se tornam imprevisíveis, num sentido que nos permite predizer que eles se dispersarão.
►Neste ponto é que se alcança o tão desejado teste observacional. Com efeito, a previsão de probabilidade de dispersão é uma previsão que se deve submeter a teste medindo os momentos isolados, de tal modo que se possa determinar-lhes a distribuição estatística.
POPPER entende que esse “cálculo da história passada” da partícula é essencial: “sem ele não poderíamos asseverar que estamos medindo os momentos imediatamente após terem sido selecionadas as posições”;
Nem poderíamos asseverar que estamos submetendo a teste as relações de dispersão - o que, segundo POPPER, se faz realmente com qualquer experimento que mostre aumento de dispersão, como conseqüência do decréscimo da largura de uma fenda.
E a conclusão de POPPER é peremptória: desta forma, “em conseqüência das relações de dispersão, só se torna “toldada” ou “anuviada” a precisão da previsão, mas nunca a precisão da medida”.
Todavia, a grande dificuldade do pensamento nomológico-dedutivo é sua incapacidade para considerar a multiplicidade dos tempos no domínio das probabilidades.
Como é sabido, POPPER pôs em obra um experimento que ele chamou “imaginário”, com lógica aparentemente intocável, capaz, supunha-se, de provar com todo o rigor da ciência que, num teste empírico de previsão feito mediante a aplicação técnica de seu modelo de relações de dispersão, a precisão das medidas não seria limitada pelas relações de incerteza.
Ele examinou três casos de medidas “não-preditivas” -(a)-medida de duas posições, (b)-medida de posição precedida ou (c)- sucedida por medida de momento- visando viabilizar o “cálculo do passado do elétron”, que HEISENBERG admite em princípio, mas despreza.
Só que, para tal viabilidade, seria preciso ter estabelecido a possibilidade pressuposta no caso (b), ou seja, que é possível calcular a trajetória anterior à primeira medida, “contanto que essa medida corresponda a uma seleção feita segundo um momento dado, pois essa seleção não perturba a posição da partícula” (cf.POPPER,op.cit.,p.265).
MAS ISSO NÃO É POSSÍVEL ! E o experimento de POPPER ruiu por terra!
“O ponto principal do fracasso - nos diz o próprio em sua integridade científica- é o de que medidas não-preditivas só determinam a trajetória de uma partícula entre duas medidas, como, por exemplo, uma medida de momento seguida por uma medida de posição (ou vice-versa); não é possível, nos termos da teoria quântica, projetar a trajetória para mais atrás, isto é, para uma região de tempo anterior à primeira dessas medidas” (ib.ibidem).

x-x-x-x-x-x-x-x-x

sábado, 18 de julio de 2009

Promovendo a leitura e a formação de leitores



PROJETO 'RIO, UMA CIDADE DE LEITORES", da Prefeitura, foi recentemente lançado (Abril 2009) .

O projeto dispõe das salas de leitura das 150 "Escolas do Amanhã", localizadas em áreas especiais.
Alguns pontos são os seguintes:

- Curso de Leitura, Literatura e Formação de Leitores - sob a
coordenação da Fundação Nacional do Livro Infantil e Juvenil
(FNLIJ), destinado a professores das Salas de Leitura,
bibliotecários municipais, demais mestres interessados e parceiros.

- Circuito Jovem de Leitura - Rodas de Leitura nas Bibliotecas
Municipais, com a presença de escritores, atendendo,
prioritariamente, alunos do 6º ao 9º ano da Rede Municipal.
Parceria com a Secretaria Municipal de Cultura.

Distribuição de livros de literatura a professores da rede,
totalizando seis por ano para cada um (julho, outubro e dezembro).
A escolha dos títulos será feita pelos próprios docentes, a partir
de votação de listas pela Internet.

O Projeto terá acompanhamento da Comissão Carioca de Leitura

O Programa de TV 'Rio, uma cidade de leitores'- foi lançado também
na TV Bandeirantes, abordando em
reportagens e entrevistas os diversos aspectos da Literatura.
( Tem sido apresentado na BandRio e no canal 14 da Net, programa que a MultiRio exibe)

- Ver Programa de TV 'ABZ do Ziraldo'- veiculado pela TV Brasil, com os
alunos da rede municipal participando da platéia.

Leia mais na Web da Prefeitura (Educação)

Governo do Estado do Rio de Janeiro adota o Telecurso® como política pública de ensino


Consolidado como política pública de ensino no Acre, Amazonas, Pernambuco e Distrito Federal, o Telecurso® chega ao Rio de Janeiro com a missão de corrigir um dos mais graves problemas brasileiros na área de Educação: a defasagem idade-série.

(...)

Em sua primeira fase, o programa de aceleração escolar vai atender cerca de 25 mil alunos da 6ª e 7ª séries do ensino fundamental que tenham 15 anos ou mais e do 1º ano do ensino médio que tenham mais de 17. A partir de agosto 2009, outras 45 mil vagas serão abertas.

(...)

o papel do professor é fundamental. É dele a missão de mediar a aprendizagem e motivar o aluno. Para isso, eles também recebem uma formação continuada na metodologia do Telecurso®.

Na primeira fase de implementação do programa, 684 educadores de todo o estado enfrentaram esse desafio.

(...)

“Em 10 anos de trabalho, o Telecurso® consolidou-se como uma alternativa pedagógica eficiente para corrigir a questão da defasagem em vários estados brasileiros. Mais do que uma medida corretiva, o programa auxilia preventivamente na estruturação do ensino regular”, ressalta Vilma Guimarães, gerente geral de Educação e Implementação da Fundação Roberto Marinho.


Leia mais na Web da Fundação Roberto Marinho


viernes, 10 de julio de 2009

Psicopedagogia da Ciência em Bachelard

A Psicopedagogia da Ciência em Bachelard

Por

Jacob (J.) Lumier

Autor de Ensaios Sociológicos

xlibrisWebsitio Produção Leituras do Século XX – PLSV:

Literatura Digital

http://www.leiturasjlumierautor.pro.br

Esta obra está bajo una licencia Reconocimiento-No comercial-Sin obras derivadas 3.0 Estados Unidos de Creative Commons. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by-nc-nd/3.0/us/ o envie una carta a Creative Commons, 171 Second Street, Suite 300, San Francisco, California 94105, USA.

Rio de Janeiro, 04 de Julho 2009

---

Como se sabe, a pedagogia, o ensino da ciência, favorece e leva ao esclarecimento da psicologia envolvida na polêmica da prova.

Nota Gastón Bachelard que as condições da prova para o determinismo, os elementos da descrição que valem para a previsão, não podem ser tratados como sinônimo de causalidade, a qual, por sua vez, categoria fundamental do pensamento objetivo, se subordina ao que o pensamento objetivo exige.

A causalidade é um componente geral da experiência do cientista, é de ordem qualitativa, portanto, afirmada como psicologia da idéia de causa, que se constitui sem submeter-se às definições ultraprecisas reclamadas para fundamentar o determinismo: a ligação da causa ao efeito “subsiste apesar das desfigurações parciais da causa e do efeito”.

O caminho do ensino permanece um caminho de pensamento sempre efetivo porquanto alimentado pela “polêmica da prova”.

O espírito científico não repousa sobre crenças, sobre elementos estáticos, sobre axiomas não discutidos.

A crença no determinismo não está na base de todos os pensamentos, fora de toda discussão. Pelo contrário, "o determinismo é precisamente o objeto de uma discussão”, assunto de uma polêmica quase diária na atividade do laboratório [1].

Fora dessa polêmica alcançando "uma ligeira ignorância, uma ligeira flutuação na predição”, só restará o argumento mais psicológico, mais dogmático, em predizer o que o fenômeno esperado não será. Portanto, o ensino traz uma luz indispensável à constituição de um espírito científico. Tanto mais por ocupar-se o pensamento científico contemporâneo em assimilar a noção das leis do acaso: ligações probabilitárias dos fenômenos sem ligação real.

***

O “novo espírito científico” posto em obra na microfísica, na teoria quântica e na mecânica ondulatória, já antes dos anos de 1930, foi justamente apreciado por Gaston Bachelar como “revolução relativista”.

Nesta perspectiva - e compreendendo a epistemologia “não coisista” correspondente à microfísica e seu objeto elementar como “não-sólido”- a retificação dos conceitos realizada pela Relatividade, como disposição da cultura científica do século XX, é a prova do incremento psicológico que faz avançar a história dinâmica do pensamento.

No dizer de Bachelard: “é no momento em que um conceito muda de sentido que ele tem mais sentido”; é então “um acontecimento da conceituação”. Não se pode crer na permanência das formas racionais, na impossibilidade de um novo método do pensamento. O que faz a estrutura não é a acumulação; a massa dos conhecimentos imutáveis não tem a importância funcional que se supõe”.

Se o pensamento científico é uma objetivação, “deve-se concluir que as retificações e as extensões são dele as verdadeiras molas”. Ao realizar o “incremento psicológico”, o pensamento não-newtoniano absorve a mecânica clássica e dela se distingue; produz uma convicção que se prova como progresso [2].

A perspectiva que marca o alargamento do pensamento científico é aquela que encontra “o real como um caso particular do possível”.

Antes de haver desenvolvimento das antigas doutrinas -no estudo das relações epistemológicas da ciência física contemporânea e da ciência newtoniana- há, muito antes, ”o envolvimento dos antigos pensadores pelos novos, há encaixes sucessivos" (ib.p.277).

O uso do conceito de cultura científica em sentido vago, para designar a circulação de informações a respeito das utilidades dos conhecimentos científicos, talvez seja bastante inadequado se tivermos em conta que se trata de uma noção muito complexa e precisa, na raiz da qual se situa a análise da confusão constante do determinismo e da causalidade, bem como do conflito entre o determinismo e o indeterminismo.

A cultura científica construiu-se sobre a noção das leis do acaso, das ligações probabilitárias dos fenômenos sem ligação real, de que se ocupou o pensamento científico contemporâneo, caracterizado por uma multiplicidade nas hipóteses de base. Desta forma, pressupõe o incremento psicológico que faz avançar a história dinâmica do pensamento objetivo.

O aspecto significante das análises e comentários de Bachelard que se aplicam mais diretamente nos debates interessando o pensamento probabilitário é a sua tese de que o novo espírito científico contradiz a maneira habitual de designar dogmaticamente as noções de base, as quais eram tidas como sentenças que representam experiências e valem como os então chamados “registros ou protocolos de laboratório”, isto é, os enunciados cujo valor científico está em poderem ser testados por observação.

Bachelard nos mostra que as noções iniciais devem ser solidarizadas numa definição orgânica, ligadas a casos complexos. Quer dizer, há uma correlação essencial das noções.

Mais e mais se impõe, por exemplo, a reciprocidade entre a noção de força e a noção de energia. Na teoria quântica, nada de absoluto sustenta a idéia de força, ela não é aqui a noção primitiva.

A explicação científica tende a recolher em sua base elementos complexos, e tende a não construir senão sobre elementos condicionais: a simplicidade só é admitida a título provisório e para funções bem especificadas.

Essa preocupação em preservar aberto o corpo de explicação é característica de uma psicologia científica receptiva, guardando uma espécie de dúvida recorrente, aberta para o passado de conhecimentos certos (teme-se sempre que um postulado possa sutilmente se ajuntar à ciência e desdobrá-la).

Cientificamente, pensa-se o verdadeiro como retificação histórica de um longo erro; pensa-se a experiência como retificação da ilusão comum e primeira (ib.p.334).

Sem dúvida, essas proposições de Bachelard apóiam-se em sua análise do problema do determinismo, isto é, a análise da confusão constante do determinismo e da causalidade, bem como do conflito entre o determinismo e o indeterminismo (cf.ib.pp.302 a 312).

A posse da compreensão de que um fenômeno não se desfigura com a ligeira variação dos seus traços e que, por isso, não se encaixa no indeterminismo senão parcialmente permite a Bachelard estudar a “psicologia do indeterminismo”, partindo do pensamento probabilitário até chegar às conseqüências do princípio de Heisenberg, levando à concepção de um método de individuação em que os objetos de uma lei estatística se distinguem por sua pertinência a certo grupo, superando os termos contraditórios em que, nas probabilidades estatísticas, uma propriedade é afirmada de uma classe de objetos e negada aos objetos considerados separadamente.

Quem fala de indeterminismo fala de comportamentos imprevisíveis ou imponderáveis; fala do desconhecimento sobre o tempo em que se efetuam os fenômenos de choque; fala da enorme pluralidade desses fenômenos (originariamente estudados na teoria cinética dos gases), revelando uma espécie de fenômeno geral pulverizado, onde os fenômenos elementares são estritamente independentes uns dos outros.

Ora, é justamente aí que pode intervir o cálculo das probabilidades, fundamentado na independência absoluta dos elementos [3]. É essa independência dos elementos que define a linha de conceitos que, acima do indeterminismo de base, entronizou a probabilidade no pensamento científico, com seu componente especulativo, sua disposição em correr o risco de fracassar para realizar a obra do conhecimento. Ou seja, se houvesse a menor dependência haveria uma perturbação na informação probabilitária e seria preciso um esforço sempre difícil para levar em conta uma interferência entre ligações de dependência real e as leis de estrita probabilidade.

Segundo Bachelard, foi em assimilar essa noção das leis do acaso, das ligações probabilitárias dos fenômenos sem ligação real, que se ocupou o pensamento científico contemporâneo, caracterizado por uma multiplicidade nas hipóteses de base, nas hipóteses em que métodos estatísticos diferentes têm uma eficácia limitada [4].

Desta forma, “o positivismo do provável” no dizer de Bachelard é bastante difícil de situar entre “o positivismo da experiência” e “o positivismo da razão”. Para esse autor, ainda que “a fenomenologia probabilitária” mostre as qualidades se exprimindo umas pelas outras e mesmo supondo uma base mecânica na teoria científica, a verdadeira força explicativa reside na composição das probabilidades.

Quer dizer, é preciso sempre vir a aceitar a experiência da probabilidade, mesmo que a probabilidade se apóie sobre a ignorância das causas. Há uma grande diferença em dizer que um elétron está em qualquer parte no espaço, mas não sei onde, não posso saber onde, e dizer que todo o ponto é um lugar igualmente provável para o elétron. Esta última afirmação contém, além da primeira, a garantia de que, se executo um número muito grande de observações, os resultados serão distribuídos regularmente em todo o espaço. Tal o caráter todo positivo do conhecimento provável.

Além disso, que o provável tampouco é assimilável ao irreal, nos mostra a noção de uma “causalidade provável”: o acontecimento que possui a maior probabilidade matemática acontecerá na natureza com freqüência maior correspondente. O tempo se encarrega de realizar o provável, de tornar efetiva a probabilidade.

E Bachelard vai mais longe ainda: “que haja coincidência entre a probabilidade medida, é talvez a prova mais delicada, mais sutil, mais convincente da permeabilidade da natureza à razão: a realidade auxiliada pela duração acaba sempre por incorporar o provável ao ser.

Seja como for, “as formas prováveis, os objetos dotados de qualidades hierárquicas que a ciência moderna nos habituou a manejar, não têm uma permanência absoluta”. Daí que, prossegue Bachelard, “o caminho do nosso aprendizado com a física atual nos leve mais além da ‘física dos sólidos’ e nos alimente pela instrução que poderíamos receber dos fluidos, das massas, dos aglomerados”.

É nesse caminho que Bachelard entende situar-se com sua análise um nível acima do in-determinismo de base e, por essa via, nos levar à compreensão psico-pedagógica do determinismo topológico dos procedimentos gerais, que aceita ao mesmo tempo as flutuações e as probabilidades.

Com efeito, os fenômenos tomados em sua “indeterminação elementar” podem, portanto, ser compostos pela probabilidade e desse modo assumir “figuras de conjunto”, sendo sobre essas figuras que atua a causalidade, como ligação qualitativa subsistente.

A partir deste ponto, a análise que se lê na obra de Bachelard pauta-se sobre a apreciação dos postulados de Reichenbach (“La Philosophie Scientifique”, 1932), quem tivera indicado as “relações exatas” da idéia de causa e da idéia de probabilidade, a partir da compreensão de que, nas leis deterministas, conjecturais ou que colocam os fatos em perspectiva de conhecimento e previsão, estamos na impossibilidade de levar em conta todos os fatores variáveis que intervenham.

Se, contudo, podemos fazer excelentes previsões devemo-lo à noção de probabilidade, que exprime uma lei para os fatores não considerados no cálculo.

Em resumo: pode haver convergência da experiência com o determinismo (admitindo-se em pensamento todas as condições variáveis do fenômeno), mas “definir o determinismo de outro modo senão como perspectiva convergente de probabilidade é cometer um erro insigne”.

Neste ponto, Bachelard elabora sobre a assertiva de Reinchenbach segundo a qual “coisa alguma prova a-priori que a probabilidade de toda a espécie de fenômeno tenha necessariamente uma convergência com a unidade, isto é: corrobore previamente o determinismo". Daí que as leis causais podem ser reduzidas a leis estatísticas; ou que pode haver leis estatísticas sem convergência causal, as quais dariam lugar a uma física não-causal, em que pontifica Werner Heisenberg.

Deixando de lado a negação dogmática das teses do determinismo clássico, “a revolução de Heisenberg” no dizer de Bachelard tende a estabelecer uma “indeterminação objetiva”, superando a independência com que os erros sobre “as variáveis independentes” eram tratados: com o princípio de incerteza se trata de uma correção objetiva dos erros.

Ou seja, para encontrar o lugar de um elétron é preciso iluminá-lo mediante um fóton. O encontro do fóton e do elétron modifica o lugar do elétron e, além disso, modifica a freqüência do fóton, de tal sorte que, em microfísica, não há método de observação sem a ação dos procedimentos do método sobre o objeto observado.

Há, pois, uma interferência do método e do objeto que Bachelard qualifica “interferência essencial”, corroborando sua compreensão do determinismo topológico dos procedimentos gerais.

Neste ponto, Bachelard enfoca como decorrência a “limitação das atribuições realísticas”, que pretendem empregar as palavras “posição” e “velocidade” fora do terreno em que foram definidas ou onde são definíveis (pelas relações de incerteza).

Nos diz que, desde a revolução de Heisenberg, a objeção de que noções tão fundamentais como “posição” e “velocidade” têm sentido universal, já não procedem.

As qualidades geométricas, incluindo a posição e a velocidade, não têm direito algum a serem chamadas qualidades primeiras. Só há qualidades secundárias, uma vez que toda a qualidade é solidária de uma relação (de incerteza) que faz girar as duas intuições fundamentais: a corpuscular e a ondulatória, com o domínio da física atômica apresentando-se como “o lugar de junção das intuições contrárias”.

Seguindo a Heisenberg e de um ponto de vista crítico, nota ainda Bachelard que a pretensão das atribuições realísticas no domínio epistemológico, a favor de tratar as noções fundamentais como noções universais, nutre-se na “confiança indevida que temos no absoluto da localização”.

Confiança indevida porque essa localização, antes de constituir uma exigência propriamente epistemológica, encontra-se na base da linguagem como tal, sendo toda sintaxe de “essência topológica”.

Ou seja, a pretensão em tratar as noções fundamentais como noções universais é uma expressão do “pensamento falado”, sendo contra esses arroubos que deve reagir o pensamento científico.

Assim o emprego epistemológico do termo “na realidade”, que revela essa confiança indevida no absoluto da localização, aparece a Bachelard como uma “desinteligência da designação objetiva”, já que a comunicação se refere a um grupo de átomos, de tal sorte que é preciso falar de uma “realidade coletiva".

Com efeito, o procedimento pelo qual cada objeto individual (cada sólido) era conhecido por sua localização no espaço e no tempo limitava esse objeto, que só podia ser objeto de uma lei mecânica, já que era concebido como entidade separa e distinta: é a individuação mecânica.

Os objetos de uma lei estatística, pelo contrário, podem ser dados por um método de individuação inteiramente diferente, no qual as qualidades individuais se definem por integração no conjunto. Seu único traço distintivo pode ser sua pertinência a certo grupo. Só se distinguem dos objetos exteriores a seu grupo, não se distinguem dos objetos interiores.

A lei estatística é estabelecida na suposição de que um membro do grupo é tão apropriado quanto qualquer outro para satisfazer certas condições. O indivíduo se encontra por definição como membro do grupo.

Bachelard conclui que, no domínio epistemológico, é preciso substituir ao artigo definido o artigo in-definido e limitar-se a uma compreensão finita no objeto elementar, em relação precisamente à sua extensão bem definida (por integração no conjunto). Atinge-se o real por sua pertinência a uma classe. É ao nível da classe ou grupo do objeto que é preciso procurar as propriedades do real.

Tal é segundo nosso autor a interpretação da “perda súbita da individualidade no objeto elementar”, observada na nova física do século XX por Langevin e Max Plank. E Bachelar prossegue nos dizendo que Marcel Boll assinala a importância da perda súbita da individualidade no objeto elementar, nos seguintes termos:

“Da mesma forma em que o conceito antropomórfico de força foi eliminado pela relatividade einsteiniana, assim é preciso renunciar à noção de objeto, de coisa, pelo menos num estudo do mundo da física atômica.

A individualidade é um apanágio da complexidade, e um corpúsculo isolado é simples demais para ser dotado de individualidade.

Essa orientação da ciência atual em contraste com a noção de ‘coisa’ parece ajustar-se não somente à mecânica ondulatória, mas também às novas estatísticas, e ainda à teoria do campo unitário (Einstein), que se esforça para sintetizar a gravitação e o eletromagnetismo” (cf.Boll,Marcel: “L’ Idée Génerale de la Mécanique Ondulatoire et de ses Premiéres Explications”, 1923, p.23; apud Bachelard,op.cit.p.312).

Para concluir a compreensão psico-pedagógica dos determinismos topológicos dos procedimentos gerais, temos então que, na obra de Bachelard, é a própria função realista (a sintaxe) que a ciência põe em questão.

“O produto instrumental” (elétron, campo, corrente, etc.) é inscrito como sujeito lógico e não mais substancial do pensamento científico. Os traços substanciais que sobram são traços a apagar; indicam um realismo ingênuo a reabsorver. Há um realismo persistente que é a característica essencial do pensamento humano. Mas há também o fato de que nos esforçamos para sublimar nossas noções realistas.

Segundo Bachelard, “temos necessidade de mudar o real de lugar”. É o que ocorre na ciência atual. A função realista deveria ter mais do que qualquer outra a estabilidade; a explicação substancialista deveria conservar a permanência; todavia, a função realista é cada vez mais móvel; uma mudança bem escolhida do sistema de referência suprime a gravitação, confirmando que as revoluções frutuosas do pensamento científico são crises que obrigam a uma “reclassificação profunda do realismo” (ib.p.315).

***

xlibris



[1] Bachelard, Gaston: “O Novo Espírito Científico”, São Paulo, editora Abril, 1974, coleção “Os Pensadores”, vol.XXXVIII, pp.247 a 338 (1ª edição em Francês, 1935). Cf. págs.302, 303.

[2] Cf. “O Novo Espírito Científico”, op. cit. pág. 274.

[3] Em sociologia, essa independência dos elementos é característica dos fenômenos sociais totais, que são completos e soberanos, em especial os fenômenos microssociológicos, que se descobrem na formação dos agrupamentos particulares. Ver Gurvitch, Georges(1894-1965): “Determinismos Sociais e Liberdade Humana: em direção ao estudo sociológico dos caminhos da liberdade”, trad. Heribaldo Dias, Rio de Janeiro, Forense, 1968(a), 361 pp., traduzido da 2ªedição francesa de 1963. (1ªedição em Francês: Paris, PUF, 1955).

[4] Bachelard nos lembra como contraditórios, mas prestantes em diferentes partes da física, os princípios da estatística de BOSE-EINSTEIN, por um lado, e por outro lado, os da estatística de FERMI.