La conclusion est dans l’hypothèse

La science se trompe souvent car elle s’accroche à son hypothèse de départ et exclut des explications possibles de ce qu’elle étudie.

L’échantillon doit être parfait

Un chercheur a voulu étudier l’effet de la conscience sur la guérison du cancer. Il a donc choisi des personnes ayant une forte volonté et mis au point un programme où il leur demande d’imaginer que leur traitement fonctionne, de visualiser en pensée la tumeur qui est affaiblie et qui se désagrège sous l’effet d’une chimiothérapie. Il a constaté que cela donnait de très bons résultats, qui n’ont eux-mêmes pas été remis en question par les « sceptiques ».

Cependant il a été critiqué pour avoir biaisé ses résultats par le choix des patients, dont la force de volonté est supérieure à la moyenne. Or c’est précisément ce qu’il cherchait à montrer! Que la volonté consciente avait de réels effets sur la guérison. Ceux qui le critiquent avouent donc eux-mêmes que l’expérience était un succès. Mais comme ils ont choisi d’exclure cette hypothèse, ils n’arrivent même pas à comprendre où est leur erreur. Ils voudraient qu’on arrive à montrer une preuve que la conscience a un effet (ou n’en a pas) en évitant tout « biais » provenant de l’effet de la conscience.

Généralement la médecine nous pousse plutôt à envisager le pire. Un médecin va expliquer à son patient que sa tumeur grossit et qu’il va bientôt mourir. C’est ce qui se produit souvent en effet, d’autant plus lorsque le patient fait confiance à la médecine.

Le nœud de la théorie des cordes

Le grand succès de la physique a été de parvenir à décrire, en théorie, tous les phénomènes de l’univers dans 2 théories fondamentales, la théorie quantique et la relativité générale. Le problème est que ces théories parlent de choses différentes et ne sont pas applicables en même temps sur un même objet. Ils sont persuadés que les entités physiques doivent obéir à une théorie ultime unique. Ils ont donc envisagé plusieurs pistes, comme la gravitation quantique à boucles, pour l’instant sans grand succès.

La grosse majorité des efforts théoriques a été concentrée sur une idée qu’on appelle la théorie des cordes. Ce n’est pas une théorie mais un ensemble de modèles basés sur une hypothèse initiale similaire : les particules ne sont pas des points mais des petites cordes vibrantes. Du moins c’était l’idée de départ, qui s’est vite complexifiée.

On sait qu’il est absurde d’imaginer un grain de matière formé d’un point sans dimension, sans largeur ou épaisseur. Ajoutons-lui une dimension pour lui offrir au moins une longueur, on obtient une corde. Ensuite, comme on parle souvent des propriétés ondulatoires des particules, disons que ces cordes doivent être capables d’onduler ou de vibrer. Certaines cordes seraient refermées alors que d’autres auraient leurs extrémités libres. On pourrait avoir la chance de trouver un ensemble de mode de vibration expliquant l’ensemble des particules et la façon dont elles interagissent ensemble.

L’hypothèse peut paraître séduisante. Elle est simple à comprendre et semble justifiée. Sauf qu’après des décennies de recherche par des centaines de physiciens on n’a rien obtenu de concret. Les petites cordes toutes simples sont devenues des membranes dans des espace-temps à dimensions multiples, au sein d’une pléthore de modèles dont aucun n’a pu faire une prédiction nouvelle sur un phénomène physique. De plus on a laissé de côté la question métaphysique : de quoi est faite la corde ?

La belle idée initiale a été noyée dans une extraordinaire complexité. Les chercheurs en théorie des cordes me font penser à des géomètres qui voudraient élaborer un modèle du système solaire basé sur des trajectoires carrées. Ils pourraient éventuellement y parvenir un jour en expliquant que les trajectoires hypercarrées sont dans hyperespace multidimensionnel dont la projection dans notre réalité donne des ellipses.

La constance des constantes

Il existe en physique ce qu’on appelle des constantes fondamentales. Il s’agit de grandeurs ajoutées dans des équations pour relier deux quantités. Or rien ne permet d’affirmer que ces constantes ont des valeurs constantes.

Le cas de la vitesse de la lumière est particulier. On sait depuis longtemps que la lumière n’a pas une vitesse infinie et on a cherché à la mesurer. Une mesure précise d’une pareille vitesse, de l’ordre d’un milliard de kilomètres à l’heure, est relativement difficile.

Dans les années 1890, la théorie de l’électromagnétisme a été élaborée par Maxwell. Il découvre alors qu’un champ électrique et magnétique qui oscille se propage sous la forme d’une onde. Il calcule la vitesse de cette onde dans le vide, à partir des constantes de l’électromagnétisme comme la permittivité et perméabilité du vide. Il tombe sur une valeur anormalement proche de la valeur connue pour la lumière. Tout s’explique, la lumière est précisément une onde électromagnétique.

Un peu plus tard, Einstein veut établir les lois permettant la synchronisation des horloges entre les gares. Il veut partir du principe de relativité, qu’on devrait plutôt appeler principe de l’absolu : « les lois physiques sont les mêmes pour tout observateur ».

Or à cause de Maxwell, il existe une loi dont découle une vitesse. Mais la loi est en principe absolue, alors que la vitesse est normalement relative. C’est ainsi qu’Einstein met au point sa théorie de la relativité restreinte. Toutes les vitesses sont relatives, sauf la vitesse absolue de la lumière, que ne peuvent pas atteindre les objets ayant une masse. Pour permettre cela, Einstein applique les transformations de Lorentz, qui modifient les vitesses et les durées mesurées selon le mouvement de l’observateur. Tous les observateurs ne mesurent pas la même durée, mais la vitesse de la lumière reste une constante absolue.

On fait tellement confiance en la vérité du principe de relativité et des équations de Maxwell qu’on a décidé que la vitesse de la lumière serait la première constante fixée avec une précision absolue. Si vous effectuez une mesure de la vitesse de la lumière vous n’en augmenterez pas la précision mais éventuellement celle du mètre.

Sauf que rien ne permet d’affirmer avec certitude que la lumière se propage tout le temps à la même vitesse. . Les sceptiques qui critiquent les chercheurs sur les pouvoirs psis qui ne publieraient qu’une partie de leurs résultats oublient que tous les scientifiques éliminent les mesures qui s’écartent de la valeur standard admise. Ainsi, si vous faites une expérience de 100 mesures de la vitesse de la lumière, que 99% d’entre elles sont dans l’intervalle admissible autour de la valeur standard selon les erreurs de mesures, il est fort probable que vous allez écarter la dernière en la considérant comme une erreur aléatoire de mesure. Or c’est peut-être cette unique mesure qui contenait le message important : « la vitesse de la lumière n’est pas constante ».

Il est montré que les résultats scientifiques se font moins facilement accepter s’ils ne s’accordent pas avec ce qu’on considère comme déjà établi. Un laboratoire de métrologie qui ne garde que 1% de ses meilleures mesures et en exclut 99% en jugeant les valeurs trop écartées de la théorie ne sera jamais critiqué pour son choix restrictif. De ce fait, l’ensemble des chercheurs et laboratoires continuent de mesurer une constante et on fait une sorte de moyenne d’un échantillon. Si la lumière se déplace 10% plus rapidement à certains moment de la journée il est probable qu’aucun laboratoire n’ose en parler.

Un Site WordPress.com.

%d blogueurs aiment cette page :