Toute étude
sérieusement fondée sur l'expérience, science et histoire, mérite attention — même
si elle demeure inaboutie, et surtout si ce manque est dû bien davantage aux
tabous et censures opposés à la vérité qu'à des insuffisances propres —. La
ligne de fond d'une tentative, commencée il y a plus d'un demi-siècle, sur la
physique quantique, a été et demeure que
l'expérience historique des manipulations d'appareils
et concepts
est un guide sûr — évidemment lui-même expérimental —
dans la solution des énigmes posées par le
renouvellement des connaissances.
C'est
à cette ligne qu'il sera, une fois de plus, fait référence ici pour s'opposer à
l'orthodoxie actuelle. Car celle-ci
– se dit fondée sur d'extraordinaires succès
–
et prétend à un renouveau complet de pensée
alors
qu'en réalité, elle dissimule tant qu'elle peut
– que ses succès sont de technique et non de
science : par exemple le problème de la réduction quantique, fort mal dit "de
la mesure", n'a guère avancé depuis trois générations malgré des clameurs
récurrentes de solution définitive
– et qu'en fait de "renouveau" la sinistre
inquisition, nommée interprétation de Copenhague, est à la base d'abandons et
de tentatives d'interdictions, des plus réactionnaires qui soient en affaires de
principes scientifiques.
Il n'est donc pas étonnant qu'une simple
proposition de retour à l'expérience suffise à démonter et éclairer la fausseté
de cette orthodoxie. Cette proposition a été faite et publiée en 1987 dans la
revue Fundamenta scientiæ (vol. 8,
n° 1, p. 93, "Sur l'utilisation du principe de Heisenberg pour
lever certaines indéterminations quantiques", par A. Avramesco). Mais le très
regretté Maurice Duquesne, à qui elle était dédiée, avait diagnostiqué tout de
suite que, dans l'organisation actuelle de la recherche, nul mandarin ne lancerait
un de ses élèves sur une telle affaire, pratiquement et politiquement osée, et
que nul chercheur ne se risquerait sur une telle voie : car la fameuse
exigence de "résultats", qui commande jusqu'au simple droit de
travailler (nomination à un poste avant même toute carrière), revient sur cette
question à une censure complète, notamment en raison du coût d'appareils — coût
certes négligeable vis-à-vis des dépenses folles en "particules élémentaires",
mais allant, lui, dans un sens fort gênant pour les pouvoirs et privilèges
installés.
Voilà pourquoi aujourd'hui "l'allègement
de la peine humaine", dont parlait Brecht dans son "Galilée", est
impossible par une vraie et féconde physique : on fabrique désormais aisément
des raffinements techniques de misère et de mort — robots à supprimer des
postes de travail ou à parfaire
des armes —, mais on interdit ce qui pourrait renouveler les chances de penser
et mieux vivre. En outre, il n'est pas impossible que les premiers à pouvoir se
servir des applications nouvelles soient les plus avides de destructions et de
massacres, et ce n'est pas sans hésitation qu'un chercheur peut reprendre le
pari de l'aventure scientifique dans toute son étendue. Mais dans la mesure où,
actuellement, les psychotiques aux leviers de commande des pouvoirs mènent de
toutes façons la planète et l'humanité aux risques les plus épouvantables, il
semble finalement préférable de montrer et utiliser déjà la voie juste pour la
physique — science mère, source et foyer de toutes les autres notamment par ses
leçons d'audace et de méthode.
1. Il se trouve, donc, que c'est par un principe d'expérimentation
simple qu'on peut détruire les prétentions de l'orthodoxie actuelle et montrer la
voie pour préciser un concept central dans la physique à construire : le
concept de programme dans des évènements
enfin conçus comme quantiques. Car la faute initiale de toutes les représentations
actuelles est de traduire l'essentiel, qui est le déroulement cosmique
incessant des phénomènes, en termes d'évolution continus, au lieu de placer en
fondation la quanticité même. C'est de cette faute que vient l'impuissance à
comprendre et décrire d'assez près, et c'est de cela que se servent les
capitulards pour affirmer contre la science le caractère purement aléatoire de
certains phénomènes. On s'en tiendra dans ce qui suit, malgré les conséquences
générales considérables d'un retour aux exigences scientifiques, à ce qui est
le plus étroitement physique dans la démarche, et directement expérimental.
C'est possible malgré le fait que, si la pensée
en termes quantiques a toujours existé, sa mise en forme mathématique n'a pu être
historiquement prioritaire, surtout dans les aspects géométriques et plus précisément
topologiques — la situation des évènements les uns par rapport aux autres — :
tout ce qui est d'abord accessible se présente dans des apparences continues,
visibles et maniables. Le développement de nos sens comme de nos représentations
est gavé d'intuitions, d'expériences décantées, en termes et images de lignes
et appuis où il semble y avoir autant d'intermédiaires qu'on peut ou veut
imaginer, donc où tout est naturellement pensé en termes continus. Or un grain d'énergie assez élémentaire, tel
qu'on doit le suivre au niveau actuellement imposé en physique, produit des manifestations
par canaux multiplement quantiques.
Mais si on en reste à l'essentiel, il n'est pas
nécessaire d'expliciter les essais et progrès faits en mathématiques
quantiques, surtout dans les termes de topologie combinatoire, difficiles et
pour le moment peu développés (à cause du manque de stimulation physique pendant
des millénaires). Il suffit de supposer,
au plus simple, une séquence par exemple de photons séparés, de fréquence précisée,
préparés de façon qu'ils soient identiquement représentables sur deux canaux de
même intensité (au moins globale, ou comme on dit équiprobables) : c'est
l'idée de base de la publication citée ci-dessus, qu'on va reprendre — en se débarrassant
davantage des scléroses orthodoxes qu'on n'avait pu le faire à l'époque.
2. On se place à un stade, d'évolution de chaque grain
(lui-même séquence) d'énergie lumineuse, où on est sûr de pouvoir encore placer
des appareils pour faire interférer les deux canaux : c'est-à-dire qu'on
est sûr de pouvoir produire des effets caractéristiques de ce qui est traduit
par une répartition dans deux zones notables et distinctes d'espace, des
effets caractéristiques d'onde —
et cependant on est certain que le quantum ne manquera pas de se manifester
dans sa totalité, son intégralité d'énergie-fréquence-impulsion, là où il la
livrera. Donc,
– d'un côté, il présente des potentialités (mot essentiel, de Heisenberg) d'interaction dans des
zones tout à fait accessibles à notre échelle
– de l'autre côté il est bloc, quantum, absolument
insécable, et s'il est contraint de donner son énergie il le fait de façon
incomparablement plus réduite
que sur les zones dont on vient de parler — par exemple il déclenche une réaction
sur photomultiplicateur ou simple plaque photographique à partir de quelques
atomes, soit sur une échelle bien des millions de fois plus petite que les
largeurs et distances de pinceaux décrivant "par où" il est passé.
D'un
côté : potentiellement présent dans un vaste éventail ; de l'autre,
inséparable. Est-ce contradictoire ?
Non. C'est que, lors d'interactions, les potentialités d'évènements qu'on suit en quantum peuvent soit se
réunir (interférences), soit disparaître en tout ou en partie (absorption,
partielle ou non en termes de canaux), soit se développer et se multiplier
encore dans des zones variées. Simplement les représentations continues ancrées par deux grands millénaires de physique (corpuscule
ou onde, puis rayons ou autres éléments, de Fourier par exemple, dans les
lissages en fonction d'onde ou vecteur d'état) ne sont pas adaptées à la réalité
pour une approximation suffisamment exigeante de ces sortes de
"palpations" — en fait quantiques.
La position parapsychologique de Bohr et consorts
consiste alors à décider que chaque quantum, suivant ce qu'il rencontre, se
manifeste finalement par choix, soit qu'il passe d'un "état" de
probabilité à un autre, soit que l'observateur exerce sur lui une influence
spirite : ces deux interprétations font aussi bon ménage entre elles que
parfait ridicule en termes scientifiques. Le quantum, part de réalité, est seulement
quelque chose dont la représentation doit être incomparablement plus riche que
la petite bille qu'on essaie d'abstraire en corpuscule ou la vibration vague
qu'on essaie d'abstraire en onde : c'est un faisceau d'évènements
potentiels en constante évolution
— mais évènements quantiques, au
rythme imposé par la fréquence-énergie, en relations successives quantifiées.
On verra, mais pas ici, comment cela impose une
description par topologie combinatoire. Car il n'est pas nécessaire d'en savoir
davantage si l'on veut répondre à une exigence encore autrement forte, en matière
de science, que la construction mathématique : c'est la nécessité de répondre
aux absurdités imaginaires d'idéologues
comme Bohr et Cie par l'expérience.
Restant dans le cas de la séquence de photons
(mais ce serait possible avec électrons etc., quantons en général), on place sur un des deux canaux où évolue chaque grain un
absorbant "simple". C'est cette "simplicité" qui est
difficile à réaliser. Mais avant d'en fournir les moyens, il importe de relire
un peu les obstacles mis aujourd'hui par les ministères (sens multiple) à la
pensée scientifique.
3. La maladie propagée par les orthodoxes part de
l'exigence qu'il y ait détection :
pour éliminer à la fois le principe scientifique de déroulement de l'univers en
dehors de toute conscience, et la recherche causale qui est presque immédiatement
le principe associé, la psychose irréaliste déclare en même temps le caractère indéterminé
de ce qui se produit, et la pseudo-nécessité d'intervention d'une mesure — il faut entendre le sens des mots —, c'est-à-dire
d'une interaction imposée par un physicien de laboratoire : car ce délire
persiste, sous des formes plus ou moins atténuées, et surtout sans qu'on laisse
jamais éclairer les très actuelles conséquences du drame en affaires de récupérations
idéologiques et techniques. Mais le plus important est ici de saisir l'enchevêtrement
du soi-disant hasard et du recours irréaliste pur par ces thèmes de "mesure"
(même, ç'a été répété des milliers de fois, par "prise de conscience de
l'observateur") : les deux sont hors la science. Car on peut prouver qu'il existe des caractéristiques
non aléatoires dans un phénomène :
au contraire on ne peut prouver qu'il y a hasard pur. Ainsi l'étude statistique de la suite d'éléments
du développement de (pi) (en décimales ou expression dyadique si on veut se
rapprocher de l'image en deux valeurs — pile ou face) permet d'affirmer son
caractère de bonne image du hasard, or par exemple
4 [4 arc tan(1/5) – arc tan(1/239)]
est
une expression qui permet de calculer en machine (et même très vite en s'aidant,
si je me souviens bien, d'une adaptation du procédé arithmético-géométrique de
Gauss) de nombreux éléments correspondants, de façon tout sauf aléatoire.
Il suffit donc, pour abattre le principe orthodoxe,
de faire détection d'une séquence de photons et en même temps d'exhiber des
caractéristiques non aléatoires
dans cette détection. Sans reproduire ici les détails de la discussion dans Fundamenta
scientiæ (discussion en partie brouillée
par la pesanteur historique de description des phénomènes quantiques), il faut
préciser le fond de la difficulté.
4. Ce fond, c'est que lorsqu'on imagine de placer, sur
l'un des canaux potentiels où les photons sont prêts à se manifester, un système
lui-même très simplement et directement quantique, on pense d'abord à un système
de faibles dimensions : alors il y a toutes les chances qu'il se fonde en
quelque sorte avec le photon et qu'on se retrouve avec de nouveaux canaux de
potentialités aussi peu éclairants que les deux dont on est parti. Au
contraire, ce à quoi on doit aboutir est une rupture radicale, irréversible, dans le déroulement du programme, une absorption du photon par un solide par
exemple, puis et de là des moyens
de suivre la réalisation du phénomène.
Le malheur est que cela se fait aisément avec des objets communs en
laboratoire, mais de complexité telle (photomultiplicateur, plaque
photographique) qu'il est vain d'espérer lire ensuite quelque chose dans les
nombres à peine imaginables de paramètres qui sont intervenus pour déterminer
le programme correspondant — la
réalisation des potentialités
en une absorption, ou au contraire une non-absorption avec poursuite sur
l'autre canal.
C'est cet obstacle qui a paralysé l'expérience
nécessaire pendant un siècle à présent, avec certes le constant soutien du martèlement
confusionniste orthodoxe. Or les moyens disponibles aujourd'hui rouvrent
l'horizon — en fait, peut-être même l'expérience correspondante a-t-elle déjà été
enregistrée dans quelque recoin de laboratoire, en résultats jamais analysés —.
Le cœur de la difficulté, c'est donc que pour être
sûr de voir le photon absorbé ou non, on a été amené à guider un de ses canaux
de potentialités sur un objet assez étendu ("macroscopique",
"classique") pour garantir une interaction, et qu'en général un tel
objet est si compliqué que la séquence d'absorptions ressemble à un enregistrement
de jeu de pile ou face : trop de paramètres interviennent, comme dans le
jet de dé ordinaire, pour qu'on puisse suivre en détail les évènements, et on doit
alors se contenter de lire des moyennes. L'erreur consiste ainsi à confondre
les contraintes d'absorption et celles de la détection : alors l'objet absorbant a beau être bien
isolé de l'autre canal, du fait que c'est à son niveau que se passe
l'absorption ou la non-absorption, il est sauf attention particulière de telle complexité propre qu'il ne permet aucun
repérage de loi.
Tout cela change si l'objet absorbant est en
un certain sens simple, et si c'est
ensuite, "loin" et "bien
après" son interaction avec le photon, que l'on va chercher sur l'autre
canal si l'absorption a eu lieu
ou non.
D'où le principe d'expérience à réaliser.
5. Soient donc C et D les deux canaux équiprobables. On
est sûr que c'est sur ces canaux que progressent les potentialités
constituantes de chacun des photons successifs, envoyés aussi semblablement
et séparément que possible.
Sur C, on place l'absorbant dont on va faire ci-dessous
l'analyse. Sur D se fera la non-détection ou détection — mais beaucoup "plus loin" :
c'est-à-dire (pour parler de plus en plus nettement physique, évènements quantiques, et de moins en moins espace
et temps)
de
façon que l'interaction sur C se soit réalisée "depuis longtemps",
ou,
mieux, après de nombreux évènements réels ou potentiels supplémentaires,
bref,
après une part de déroulement de programme beaucoup plus étendue qu'au niveau imposé pour la détermination d'absorption
ou non-absorption.
La question est alors que l'absorbant sur C déclenche ou non le phénomène dans un contexte
de paramètres en petit nombre,
dans un contexte de simplicité de programme, pour qu'ensuite et indépendamment on puisse aller
pêcher sur le canal D les caractéristiques non aléatoires recherchées.
Dans ce but, il faut d'abord que l'absorbant
soit de structure simple, cristal et monocristal, constitué d'atomes (en fait,
de séquences elles aussi quantiques) aussi absorbants que possible pour "la"
fréquence des photons en cause (sans que la constitution en bloc du monocristal
ne gâche les potentialités d'absorption).
Il faut ensuite que l'orientation, la
constitution physique et la coupe du monocristal soient impeccablement préparées :
la direction suivant laquelle il est placé par rapport au pinceau incident doit
être en relation très simple avec une de ses directions naturelles ; il doit
y avoir aussi peu que possible d'irrégularités, de surface ou de cristallisation,
qui rendent incorrecte la description par un tout petit nombre de paramètres.
Enfin il faut qu'aussi peu que possible d'agitation
thermique bouscule incessamment la régularité (de déroulement de ce qui est la
constitution de fond) de ce cristal, c'est-à-dire ses séquences quantiques propres,
ses atomes : autrement dit il faut qu'il soit très près de 0° K.
Un tel ensemble d'exigences paraît certes
d'abord réserver de beaux jours à l'orthodoxie. En réalité, primo cela fait
comprendre pourquoi on n'a encore pas repéré les traits qu'il faut, dans les séquences
si aisément qualifiées de hasardeuses. Secundo, on doit se souvenir que par
exemple des phénomènes de supra- (conductibilité, fluidité, etc.), qu'on a crus
initialement cantonnés à de très basses températures, sont devenus bien plus
communs et réalisables qu'on ne l'avait imaginé au départ.
6. Le reste est seulement affaire de culture et de génie
expérimentaux.
On parviendra alors à quelque chose de
suffisamment simple pour que soient repérés les traits non aléatoires régissant les absorptions et non-absorptions
successives par les caractéristiques de leur programme, venu des propriétés aussi identiques que possible
de chacun des photons successifs d'un côté et des propriétés de simplicité du
cristal de l'autre — avec et malgré des perturbations qui rendront sans doute
d'abord difficiles leur mise en évidence. Il serait par exemple naturel que les
relations entre deux passages de photons immédiatement consécutifs soient les
plus parlantes, et que les corrélations entre les résultats de photons séparés l'un
de l'autre par un ou des intermédiaires soient bien moins utilisables. Mais
c'est l'expérience qui décidera.
Aucun commentaire:
Enregistrer un commentaire