La fin des lois physiques

Comment un composé chimique devine-t-il à quelle température il doit fondre ? Cette température est-elle définie avant que le composé existe ? Les règles que semblent suivre les phénomènes existaient-elles toutes dès le début de l’univers, au moment du big bang ? Changent-elles selon ce qui s’est déjà produit ? Si elles évoluent, peut-on encore expliquer tout le fonctionnement de l’Univers mathématiquement ? N’existe-t-il pas un effet non mathématique pouvant affecter l’ensemble des phénomènes et réduisant à néant l’espoir de tout mettre sous forme d’équations ?

Introduction

L’Univers semble suivre des règles, les événements qu’on observe se répètent : le soleil réapparaît chaque jour à l’horizon, la Lune suit des cycles définis, quand on lâche un objet plus lourd (ou dense) que l’air il tombe vers le sol. On a mis sous forme mathématique certains phénomènes qui s’y prêtaient bien, par exemple l’augmentation de la vitesse d’un objet en chute libre. Ce fut le début de la méthode scientifique. Par la suite on a continué d’appliquer cette méthode en cherchant à mettre sous forme mathématique l’ensemble des phénomènes. On procédant ainsi on faisait l’hypothèse que tout phénomène physique (et par extension dans les autres domaines de la science) devait forcément suivre des règles figées. Mais est-ce vraiment le cas ?

Pour mettre sous forme mathématique un processus on doit admettre plusieurs hypothèses :

  • (A) il existe une règle immuable suivi par les objets étudiés et leurs interactions
  • (B) les constantes dans les équations ne changent pas de valeur
  • (C) il n’existe aucun effet non mathématisable pouvant modifier un processus physique

Or vous allez voir que ces hypothèses sont en réalité toutes contredites.

J’y ajoute aussi une hypothèse que je discuterai :

  • (D) Un formalisme composé d’un nombre fini d’hypothèses (ou principes, ou axiomes) permet de donner une réponse unique à tout phénomène basé sur ces hypothèses.

Philosophie et science

Avant de commencer, voici quelques petits rappels :

Principe d’Éternité : rien ne change, tout est défini depuis le début et les lois physique existaient toutes dans leur forme actuelle dès le début. Elles contiendraient potentiellement tous les phénomènes pouvant exister : au moment du big bang, l’univers savait déjà à quelle température le beurre allait fondre !

Opposé à :

Principe d’Évolution : tout change avec le temps. Les lois physiques sont elles aussi évolutives.

Pythagore : derrière l’apparence des choses changeantes existait une réalité d’un autre ordre immuable. Il s’agit de la vision dominante de la science actuelle, où la matière change mais les lois restent les mêmes. Elles prennent la forme de règles mathématiques. On ne sait pas où sont stockées ces règles, sous quelle forme elles sont mémorisées, comment elles agissent sur la réalité pour produire le changement.

Démocrite : les atomes sont la base immuable des choses qui changent.

Premier principe de la thermodynamique : l’énergie totale dans l’univers ne change pas.

Deuxième principe thermodynamique : les choses se dégradent inexorablement dans l’univers. Bien que ce soit une observation pertinente et vérifiée pour de nombreux phénomènes dans des systèmes isolés (pour lesquels on supprime toute influence externe), celle-ci semble pourtant en contradiction avec ce qu’on observe pour pratiquement tout le reste. Les êtres vivants s’organisent d’eux-mêmes et se maintiennent dans un état homéostatique de faible entropie et d’organisation complexe.

Lois physiques muables

Le formalisme mathématique ne peut être vrai qu’en faisant la supposition que les règles régissant le monde sont fixes (et sinon que leur évolution suit une règle mathématique, ce qui revient au même).

Une expérience de physique est supposée pouvoir être répétée autant de fois qu’on veut, le résultat ne changera jamais. On suppose qu’une expérience effectuée maintenant, par exemple l’expérience des fentes de Young ou la chute d’un objet, pourra être reproduite avec les mêmes résultats l’année prochaine ou dans un million d’années dans les mêmes conditions.

Il s’agit d’une hypothèse posée a priori pour justifier la méthode scientifique moderne occidentale. Elle est en désaccord avec le phénomène de cristallisation par exemple, dont je vais maintenant vous parler.

La cristallisation

La glycérine, aussi appelée glycérol, est un résidu de la fabrication du savon. Pendant environ quarante ans après sa découverte il était communément admis qu’elle ne formait pas de cristaux. Un jour, au début du 19ème siècle, pendant un trajet entre Vienne et Londres une caisse de glycérine s’est soudain mise à cristalliser. Depuis ce moment il est communément admis que la glycérine forme des cristaux en dessous de 18°C. Si ça se trouve il existait une époque où l’eau ne gelait jamais, même à des températures très inférieures à 0°C. Depuis qu’une première flaque a gelé quelque part, elle a découvert sa propre cristallisation, le reste de l’eau dans l’univers sait à quelle température elle doit geler.

Un fait bien connu des chimistes est que lorsqu’on découvre un nouveau composé, celui-ci a beaucoup de mal à cristalliser (ou ne cristallise pas du tout). Puis un beau jour il devient solide, ensuite ça se produit facilement partout dans le monde.

Les chimistes essayent d’expliquer ça en disant que des cristaux de leurs composés se seraient échappés des laboratoires pour aller contaminer ceux des autres, provoquant ainsi la cristallisation. On sait que si on met un peu du composé cristallisé dans un récipient qui contient le même composé, l’ensemble se cristallise plus facilement.

L’explication la plus répandue est que ce sont les chimistes qui contamineraient les autres laboratoires en transportant les composés dans leur barbe (car tous les chimistes sont barbus, c’est bien connu, et ils ne se lavent jamais.) Sauf que ça se produit même dans des labos fermés, où les gens sont rasés ou des femmes et se lavent.

On pourrait facilement faire des expériences pour étudier cet effet pour valider une des deux hypothèses (champ morphique ou contamination).

Le fait que la température de fusion de certains composés chimiques ait varié au cours du dernier siècle va dans le sens des champs morphique et n’a aucune explication selon le dogme matérialiste.

Sheldrake a rassemblé les études pour les différents composés chimiques inventés au cours du siècle dernier et a constaté que leur température de fusion avait augmenté avec le temps d’environ 10°C.

Le fait qu’un nouveau composé chimique ne cristallise pas au départ, puis qu’un jour il se cristallise à une certaine température ne s’explique pas si on suppose qu’il obéit à des lois mathématiques figées comme celles de la physique quantique.

L’hypothèse (A) de l’existence de lois physiques figées pour tout phénomène serait donc erronée.

Mesure des constantes physiques

Dans les équations on doit pratiquement toujours ajouter des constantes dans les équations. Mais quelles preuves avons-nous que ces constantes ne varient jamais ? On peut dire que puisqu’on les mesure depuis quelques décennies ou quelques siècles avec à peu près la même valeur, est-ce que ça suffit pour affirmer qu’elles étaient identiques il y a dix milliards d’années ou qu’elle le seront encore demain ? Par ailleurs, ces mesures sont-elles vraiment fiables ?

Les scientifiques ont tendance à chercher à obtenir des résultats constants et en accord avec les valeurs mesurées par les autres. Les métrologistes ont tendance à moins rechercher d’erreurs possibles dès que la valeur concorde avec la valeur établie. Ils évitent de publier un résultat qui serait en désaccord. De plus, on essaie de déduire la valeur d’une constante par la moyenne de toutes les mesures qui vont avec la valeur établies aux incertitudes de mesure près.

Voici en exemple des constantes physiques impliquée dans la plupart des phénomènes :

La vitesse de la lumière dans le vide

On considère actuellement que la lumière se déplace à une vitesse constante dans le vide, appelée vitesse de la lumière, qui vaut exactement 299,792,458 m/s. (Sa valeur est sans incertitude contrairement aux autres constantes car elle est fixée à cette valeur qui sert de base pour la définition du mètre et de la seconde.)

Entre 1928 et 1945, partout dans le monde l’estimation a diminué d’environ 20 km/s.

Depuis 1972, du fait de sa définition elle ne peut plus varier. C’est la longueur du mètre qui varie.

La constante gravitationnelle

G, la constante qui a été introduite dans l’équation de Newton de la force de gravité entre deux objets ayant une masse, est-elle vraiment constante ?

Entre 1973 et 2010, l’estimation de sa valeur a varié de 1,1 %. Il ne s’agit pas d’une erreur de mesure car la variation est 40 fois plus grande que l’incertitude estimée. Or il s’agit de moyennes, qui réduisent encore plus les variations possibles.

En 1998, un institut a publié les variations sur différents jours. Un jour la valeur atteignait 6,73, un mois plus tard elle valait 6,64, soit une variation de 1,3 %. Des variations ont même lieu selon le moment de la journée.

Le plus important est qu’on a mesuré que la constante G n’est plus la même lorsqu’on creuse sous terre. A partir de seulement quelques centaines de mètres de profondeur sa valeur est déjà différente de façon notable.

Le modèle actuel de la Terre est basé sur une valeur de surface et avait été établi à partir de l’expérience de Cavendish. Cette expérience servait à mesurer G à l’aide d’une balance de torsion rudimentaire. Connaissant (à peu près) la taille de la Terre par d’autres modèles approximatifs et des expéditions douteuses parvenues à des valeurs éloignées les unes des autres d’une portion de trajet, en supposant que G ne variait pas sous la croûte terrestre et que la loi de la gravitation était correcte, on en avait déduit une valeur de la densité de notre planète. Un peu hasardeux tout ça, mais on l’apprend à l’école et c’est largement suffisant pour les sceptiques.

La constante de structure fine

L’astronome australien John Webb a utilisé des observations de galaxies et de quasars d’âge différent pour évaluer la valeur de la constante de structure fine (qui mesure de la force entre les particules chargées électriquement). Encore une fois, il a découvert que cette constante aurait changé au cours du temps. De ce fait cela aurait un effet par exemple sur la taille d’un atome d’hydrogène (un proton entouré d’un électron) et sur tous les atomes et molécules.

L’hypothèse (B) de la valeur constante des constantes physiques serait donc erronée.

Effet de la volonté de l’observateur

On a montré de nombreux phénomènes où la volonté de l’observateur peut influencer des phénomènes. En voici des exemples en vrac :

  • génération de nombres aléatoires basés sur des processus quantiques, du bruit électronique ou des systèmes mécaniques
  • probabilité de passage par une fente donnée dans l’expériences des fentes de Young
  • mouvement d’objets macroscopiques
  • réaction chimique et structure d’alliages
  • action sur le système de guidage d’un missile

Voir –DOSSIER : les pouvoirs psychiques-.

Prenons par exemple la formulation mathématique de la physique quantique, qui me semble être la seule théorie fondamentale encore défendable :

– si le formalisme mathématique se révèle incorrect ou incomplet, alors il ne décrit pas correctement le phénomène
– le formalisme mathématique quantique est incorrect lorsque la volonté agit activement. Dans les fentes de Young par exemple on a une probabilité de 50% pour chaque fente uniquement si les observateurs conscients ne cherchent pas à imposer un biais par leur volonté.
– le biais provient exclusivement de l’action de l’esprit (ou observateur).
– l’esprit ne peut pas être modélisé par le formalisme mathématique, qu’il soit quantique ou autre. Il en est d’emblée exclu : il n’y a pas de superposition d’un état mental observant chacun une demi réalité. Il a un rôle particulier important, que la majorité se contente de d’appeler « réduction de la fonction d’onde » pour évacuer tout débat sur celui-ci. Or c’est le mécanisme de cette réduction qui nous intéresse car c’est par lui que se produisent certainement la plupart des effets de la volonté sur un phénomène physique. (La réduction de la fonction d’onde en l’absence de volonté de l’observateur d’affecter les résultat est ce que Emmanuel Ransford appelle « endocausalité », c’est-à-dire une forme libre de causalité interne aux entités mises en jeu, par opposition à « l’exocausalité » qui est la causalité habituelle de la physique où les effets sont provoqués par les interactions avec l’extérieur.)
– on sait grâce à tout ça que la physique quantique décrit tout SAUF l’esprit. Or la « réalité » est ce que l’esprit perçoit. L’un n’existe pas sans l’autre : sans l’esprit la réalité n’est que virtualités, et l’esprit n’est rien sans la perception de quelque chose.

En conclusion : le formalisme mathématique de la physique quantique ne décrit correctement que les phénomènes où la volonté n’intervient pas. De plus, même dans ces phénomènes elle ne décrit pas le mécanisme de la réduction de la fonction d’onde, elle n’indique que les probabilités des résultats possibles. Pour décrire entièrement la réalité, on doit donc ajouter l’effet de l’esprit et l’endocausalité.

(Pour des raisons que je développerai dans un autre article, la volonté ne peut pas être mathématisable. En quelques mots, disons que la force de volonté elle-même n’est pas mesurable : il s’agit d’une expérience purement subjective comme les qualias de la perception.)

L’hypothèse (C) de l’inexistence de tout effet non mathématisable pouvant modifier le déroulement de phénomènes physiques serait donc erronée.

Incomplétude

Rappel des deux théorèmes d’incomplétude de Gödel :

« Dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique », on peut construire un énoncé arithmétique qui ne peut être ni démontré ni réfuté dans cette théorie. »

« Si T est une théorie cohérente qui satisfait des hypothèses analogues, la cohérence de T, qui peut s’exprimer dans la théorie T, n’est pas démontrable dans T. »

En extrapolant courageusement, on peut affirmer qu’aucun ensemble finie de règles figées ne peut donner de réponse à toute situation possible.

Vers une nouvelle science

Aucune des trois hypothèses nécessaires à la possibilité de mettre sous une forme mathématique figée les processus physiques n’est vraie. En toute logique on devrait abandonner cet espoir vain, auquel s’accrochent pourtant encore les adeptes du dogme matérialiste.

Pour comprendre l’Univers et la réalité, doit-on s’obstiner à l’écrire sous forme de calculs ? Certes c’est utile pour concevoir des technologies ayant un comportement prédictible. Mais

Les lois deviennent des habitudes

Les lois physiques seraient davantage fondées sur des habitudes capables d’évoluer que fixées une fois pour toutes. Elles pourraient commencer par être indéfinies lorsqu’une nouvelle situation apparaît dans l’univers. Ensuite elles pourraient se comporter de façon approximatives. Puis devenir de plus en plus figées à force de se reproduire et d’être observées.

Quantitatif parfois, qualitatif toujours

La mathématisation de la science a permis de nombreuses avancées, notamment technologiques. Mais ce n’est pas parce qu’elle a obtenu des succès qu’elle doit être considérée comme capable de s’appliquer à tout.

Lorsqu’un scientifique matérialiste s’exprime sur un phénomène où la conscience a un effet réel qu’il ne peut nier, il dit généralement « la science n’a aucune explication à cela » et il ajoute que c’est sûrement parce qu’il existe un effet qu’on a oublié de prendre en compte. Mais lorsqu’on fait une expérience pour étudier l’effet de la volonté sur un phénomène, et qu’on démontre effectivement cet effet, l’explication n’est-elle pas déjà donnée ?

Remarquez qu’on appelle généralement « paranormal » tout ce qui n’entre pas dans le cadre mathématique de la science. Cela inclut tous les types d’effet de la volonté, comme les pouvoirs psychiques, pourtant amplement démontré par la science elle-même en suivant parfaitement la méthodologie scientifique et avec des résultats largement significatifs. Quelle belle hypocrisie de la part de ceux qui se veulent les défenseurs de la rationalité de rejeter ce qui ne leur convient pas !

Conclusion

La science actuelle décrit le fonctionnement de l’Univers sous une forme mathématique. Ceci suppose d’accepter les hypothèses que la matière obéit à des règles immuables et figées, que les constantes physiques ne changent pas et qu’il n’existe aucun effet non mathématisable pouvant affecter les phénomènes. Or ces trois hypothèses sont erronées.

Les lois seraient des habitudes, elles ne sont pas définies lorsqu’il survient un phénomène nouveau. Les constantes physiques semblent varier dans une certaine mesure. Et enfin, la volonté consciente, en tant qu’entité non mathématisable, peut modifier le déroulement de processus physiques.

On doit donc désormais concevoir un nouveau type de science, qui ne se résume pas à un simple formalisme mathématique, mais s’intéresse davantage à l’aspect qualitatif des phénomènes. Cela nous demande d’admettre que la seule explication se résume parfois à : « c’est un effet provoqué par la conscience » (ou la volonté).

Pour aller plus loin

Livres :

Ruppert Sheldrake, « Réenchanter la science » (2012)

Emmanuel Ransford, « L’origine quantique de la conscience – Enquête sur la nature de l’esprit » (2015)

Philippe Guillemant et Jocelin Morrisson, « La physique de la conscience » (2015)

David Wilcock, « Investigations sur le champ de conscience unitaire » (2011)

Article –Le Principe de Création de l’énergie

Article –Les champs morphiques, la forme des choses

Article –La pensée est vibration

Article –Observer et créer la réalité

Article –Entropie, désordre et information

Article –Jean-Pierre GIRARD : L’homme qui tord l’acier par la pensée

Un Site WordPress.com.

%d blogueurs aiment cette page :