vendredi 26 décembre 2025

Sans comité de lecture, une théorie physique doit être présumée invalide (ici sur l'intrication quantique)


Pas encore citée dans la presse mais sans attendre, voici le texte.


Denis Linglin 1/16 Août 2025

Intrication ? Et si Einstein avait eu raison, finalement !

Denis Linglin 
Retraité de IN2P3/CNRS
Email: linglin@in2p3.fr
Alumni CERN
https://hal.science/hal-05290999/document

Résumé / Abstract

L’intrication quantique de 2 photons à partir de l'annihilation d'un seul signifie que les 2 photons ainsi 
créés demeurent corrélés quelle que soit la distance qui les sépare. C’est l’une des plus surprenantes 
découvertes de la physique quantique (MQ (0)). Simple expérience de pensée au début, l'intrication est 
devenue un fait expérimental avéré par plusieurs expériences dont celle d’Alain Aspect en 1982. Dans 
cet article, je fais appel à la mécanique relativiste de 1905 appliquée aux photons, alors appelés quanta 
d’énergie, pour en tirer 2 propriétés du photon. L’une est propre au photon : son temps propre est nul.
L’autre est valable pour toutes les particules : leurs paramètres intrinsèques sont à évaluer dans le temps 
propre de chacune. Par exemple, un muon de haute énergie peut parcourir des dizaines de km alors 
que sa durée de vie intrinsèque n’est que de 2,2 µs soit « c.t » = 660m. Par exemple aussi, rien de ce qui 
caractérise un photon ne peut changer en une durée propre nulle.
La 1ère conséquence de ces 2 propriétés apporte la solution de l’intrication quantique : 2 photons 
intriqués partagent une durée propre nulle, donc une polarisation globale fixe. 
La 2ème conséquence est que la 2ème MQ de 1924-1927 (1) doit être abandonnée car il ne peut pas y avoir 
de changement d’état tel que onde-corpuscule en une durée propre nulle. Il faut donc revenir à la 1ère
MQ d’Albert Einstein de 1905, le quantum d’énergie appelé photon et vecteur de l’interaction 
électromagnétique (EM) constitue alors la seule particule quantique, les autres particules obéissent aux 
lois classiques, d’où le titre de cet article (merci Albert !).
Toute la physique développée depuis un siècle doit donc être revue, c’est le but de cet article, mais :
- La physique devient beaucoup plus simple, c’est le triomphe du réalisme cher à Einstein.
- La plupart des phénomènes quantiques demeurent grâce au photon, omniprésent en accompagnement 
de particules chargées en mouvement. Par exemple, au lieu du seul électron qui serait à la fois onde et 
particule avec « effondrement de la fonction d’onde », il y a 2 réalités : la particule électron et l’onde 
photon.
- Un modèle standard alternatif (ASM) doit remplacer le modèle standard (SM). C’est déjà fait, René 
Brun l’a publié en 2023 : le « modèle des nuons » (2). Nous collaborons depuis plus de 10 ans.
Ensuite, tout s’enchaîne logiquement et cela change bien des choses. En résumé :
- L’espace-temps physique à 4 dimensions et les 2 relativités demeurent bien sûr valides.
- la 1ère MQ dite semi-classique étant revalidée, ceci valide le modèle des nuons. 
En conséquence :
- il y a bien 2 interactions au lieu de 4 (les 2 forces nucléaires sont des formes de l’interaction EM), 
- il y a 4 particules fondamentales, 2 avec masse, électron et positron, 2 sans masse, photon et neutrino,
- l’antimatière et la matière noire se déduisent de la composition des nuons (dipôle e+/e-),
- l’histoire du Big Bang est précisée, ce qui me permet de proposer une hypothèse pour l’énergie noire.
- Je complète logiquement la MQ de 1905 en postulant le neutrino comme quantum et vecteur de la 
gravitation, voilà enfin la gravité quantique (merci à Henri Poincaré (3)). 
Ces 2 articles font certes avancer la connaissance mais ce n’est pas du tout la fin de la physique, juste 
une étape ! En attendant, ce résumé nécessite bien sûr quelques pages d’explications ci-dessous…

Plan :
1) l’explication de l’intrication à 2 photons, conséquence : la 2ème MQ est réfutée
2) petit retour historique sur la période 1905-1935
3) Le modèle des quarks est réfuté, le modèle des nuons le remplace
4) La gravité quantique et le neutrino méritent un chapitre à part
5) Autres conséquences, en particulier en cosmologie
6) Conclusions (provisoires)
7) Liste d’abréviations (0) et références (1-8)

Denis Linglin 2/16 Août 2025

1. L’explication de l’intrication à 2 photons
Cet article se propose donc de valider la solution du problème de l’intrication, en utilisant la mécanique 
relativiste de 1905 (relativité restreinte), complétée en 1915 (relativité générale).
Pour mémoire, la même année 1905, Einstein publie l’article fondateur de la 1ère MQ basée sur l'effet 
photoélectrique qu’il explique comme étant dû à un grain insécable, un quantum d’énergie qui sera 
appelé photon en 1926. En dehors du photon, Einstein utilise les équations classiques de Coulomb ou 
de Newton. Cette 1ère MQ a été suivie du modèle atomique de Bohr (1913).
Les concepts de la relativité sortent de la réalité quotidienne, ils demandent un certain entrainement à 
« sortir du sillon » (*), en utilisant des expériences de pensée telles que celle dite des « jumeaux de 
Langevin » qui demeure un exercice accessible à (presque) tous. Ce n'est pas tous les jours en effet que 
l'on rencontre des objets circulant à des vitesses proches de « c ». Le mètre et la seconde qui deviennent 
« élastiques » tout en étant liés par la constante universelle « c », une durée ou une simultanéité qui 
dépendent du référentiel, tout cela dérange quelque peu nos habitudes de pensée ! Par contre, la 
relativité repose sur des équations plutôt simples appelées « transformation de Lorentz », reproduites 
ci-dessous et publiées indépendamment la même année par Albert Einstein et Henri Poincaré. On y 
suppose que l’axe « x » est choisi parallèle au mouvement.
(*) « sortir du sillon », emprunté du latin delirare, en français « délirer ».
Innover c’est délirer, sinon une IA le trouvera avant, non ?
Je me permets donc ici un bref rappel de mécanique relativiste. 
Pour éviter les chemins erratiques de l’histoire et résumer la relativité restreinte avec un siècle de recul, 
on peut dire que la relativité se résume à un « simple » changement de formule, où l’on décide d’adopter 
la transformation de Lorentz en lieu et place de celle de Galilée pour faire un changement de référentiel.

Bien entendu, « Galilée » est un cas particulier de « Lorentz » pour c = infini.
En relativité, les grandeurs d’espace et de temps ne sont plus absolues ni globales, elles deviennent des 
variables locales. A des vitesses ultra relativistes, les coordonnées d’espace et de temps sont donc 
inséparables selon la transformation de Lorentz, le temps et l’espace immuables tels que nous les
percevons n’existent plus puisqu’ils dépendent du référentiel utilisé. Le temps devient la 4ème dimension 
de l’espace-temps physique car la constante universelle de vitesse c = L/T relie alors le temps T et 
l’espace L. En pratique, on utilise plutôt « c t » que « t » comme 4ème dimension pour que les 4 dimensions 
x, y, z, ct soient homogènes à une distance. 
Au lieu d’unités de temps et d’espace absolus, on parle ainsi de durée et de distance entre 2 points de 
l’espace-temps, on les note t ou ∆t, l ou ∆l. Chaque point de l’espace-temps s’appelle un événement. Les 
chemins entre deux événements s’appellent des histoires et chaque histoire a une durée et une distance 
spécifiques qui dépendent du chemin emprunté et du référentiel choisi. Durées et distances sont donc 
relatives, variables, « élastiques » ! Pour une durée nulle on parle de simultanéité.
On parle aussi de distance et de durée propres ou intrinsèques (2 termes équivalents) de chaque 
histoire si l’on choisit le référentiel de la particule elle-même. Dans celui-ci, les paramètres tels que durée 
de vie, masse, polarisation, …sont invariants et sont ceux que l’on trouve dans le « PDG, Particle Data 
Group » ( https://pdg.lbl.gov/ ). En dehors de ce référentiel, ces paramètres ont une valeur variable avec 
la vitesse et différente selon le référentiel choisi. Prenons quelques exemples :
• Commençons par une « vraie » mais « vaste » question : qu’appelle-t-on alors « l’âge de l’univers » ? 
Dans le langage courant, c’est par définition la durée qui s’est écoulée depuis le Big Bang dans le 
référentiel de notre temps cosmique d’aujourd’hui, à nous les Terriens. C’est ce qu’ont fait Alan Guth 
A. Linde et A. Starobinsky, en 1979 avec leur modèle de l’inflation. Mais alors, cette durée de ~13,8
milliards d’années terrestres n’est donc pas la durée intrinsèque de l’univers qui, elle, dépend de son 
propre référentiel et de la théorie du Big Bang choisie. Si, comme on peut le penser, le gigantesque flot 
d’énergie du Big Bang était fait de photons au temps propre nul, la durée intrinsèque de cette inflation
a pu être de quelques milliards d’années au « point zéro » au lieu de ~10-43 secondes dans notre Denis Linglin 3/16 Août 2025
référentiel terrestre actuel. Le temps a émergé à partir du néant où le temps n’existait pas et la nature 
n’aime pas les discontinuités, le temps n’est pas passé de l’inexistence au temps actuel en un temps zéro. 
Cette continuité concerne aussi l’espace et l’énergie à cause des lois de la physique qui relient ces 3 
grandeurs et sont apparues « en même temps » que la vitesse « c ». En résumé, l’âge de l’univers est 
effectivement une « vaste » question dont la réponse reste ouverte, j’y reviendrai en fin d’article.

• Puisque j’ai mentionné le muon au tout début de cet article, vous trouverez par exemple à l’adresse 
https://home.cern/fr/science/accelerators/muon-collider des projets de plusieurs milliards d’€ basés 
sur le ralentissement du temps subi par des muons ultrarelativistes.

• Pour prendre un autre exemple, à la vitesse de 260 000 km/sec, le facteur de Lorentz g est égal à ~2,0.
Dans le référentiel de la fusée du jumeau de Langevin, une expérience de pensée, le jumeau 
« voyageur » ne ressent aucun changement de durée ni de distance malgré cette vitesse. Par contre, dans 
le référentiel de son frère resté sur Terre, ce dernier observe que dans la fusée, le temps s’écoule 2 fois 
plus lentement et que la taille de son frère est divisée par 2 dans la direction de déplacement de la fusée.

• Un électron ultra relativiste de masse intrinsèque 511 KeV/c2 et d’énergie cinétique de 50 GeV, comme 
ceux qui circulaient dans le LEP au CERN dans les années 1990-2000, a un g ~ 100 000 (~50 GeV/511 
KeV). Sa vitesse est donc égale à « c » moins 1,5 cm/sec selon la définition du facteur g citée page 2 :
1 - v2
/c2 = 1/g2 à (c - v) ~ 0,5 c/g 2 = 0,5 x (3 x 108
)/1010 = 1,5 cm/sec

• Et on peut imaginer des électrons encore plus énergiques à la vitesse de plus en plus proche de « c ». 
Ces électrons auront un rapport (∆l/c ∆t) qui tend vers 1. Par continuité, pour un photon de durée 
propre nulle, toute distance propre est également nulle et le facteur de Lorentz est infini (1/g = 0).

En résumé, le temps propre du photon est nul, le photon parcourt l’univers ou tout autre chemin en 
une durée propre nulle et une distance propre également nulle car (∆l/c ∆t) = 1.
Venons-en maintenant au point central de cet article. Dans le cas particulier cité plus haut des 2 photons 
intriqués de l’expérience d’Alain Aspect et de quelques autres physiciens, la durée propre des 2 
chemins, de création à destruction, est rigoureusement nulle, la distance propre est également nulle, 
mais dans le référentiel de l'observateur et de son détecteur, cette distance peut être totalement 
quelconque, comme observé par plusieurs expériences :
• 13 mètres avec Alain Aspect en 1982 à Orsay, 
• 2 km avec Nicolas Gisin en 2003 à Genève, 
• 143 km avec Anton Zeilinger en 2012 entre 2 iles des Canaries, et
• 1400 km dans l’expérience chinoise menée par Jian-Wei Pan en 2017 entre un satellite et la Terre.

Cette simultanéité temporelle des 3 événements (la création des 2 photons intriqués et la destruction 
de chaque photon) est propre à toute particule se déplaçant à la vitesse « c », donc au photon, et elle 
explique complètement le phénomène d’intrication. Comme il n’y a pas d’autre explication possible
qu’une durée propre nulle puisque le phénomène s’observe quelle que soit la distance dans le référentiel 
de la mesure, cela valide la relativité et ses équations de Lorentz s'il en était encore besoin.
Cette durée propre nulle du photon interdit bien sûr tout changement des paramètres intrinsèques du 
photon. En conséquence, toute interprétation de la mécanique quantique (MQ) qui supposerait un 
changement en une durée intrinsèque nulle est à écarter. C'est le cas de la 2ème MQ dite orthodoxe
lancée par Niels Bohr et ses 3 collègues (dont 2 de ses étudiants) : Werner Heisenberg, Max Born, 
Wolfgang Pauli. Cette théorie se positionne uniquement dans le référentiel de la mesure, mesure qui 
a donc un « avant » (appelé « boite noire ») alors que la simultanéité temporelle du photon implique 
que sa création se situe « au même instant » et non pas « avant » sa destruction. Une durée propre 
nulle exclut tout changement tel que l’effondrement de la fonction d’onde. Cette erreur, grossière pour 
moi aujourd’hui, était compréhensible en ~1925 lorsque le quantum d’énergie n’avait pas encore de 
nom et que les physiciens étaient à mon avis plus focalisés sur la MQ que sur la relativité restreinte.
Plus tard en 1964, John S. Bell a formulé sous forme de théorème des « relations que doivent respecter 
les mesures sur des états intriqués dans l'hypothèse d'une théorie déterministe locale à variables 
cachées ». Mais comme on n’a jamais identifié de telles variables, le théorème ne s’applique pas, ces 
relations ne sont donc pas une preuve qui validerait la 2ème mécanique quantique (6).
En conclusion, la théorie appelée « 2ème mécanique quantique » est invalidée, il est impossible en une 
durée nulle que le photon change d’état entre onde et particule. « L’effondrement de la fonction 
d’onde » ne peut pas exister. Si l’on observe 2 états, onde et particule, ce qui est le cas pour des photons 
UV, ceux-ci doivent donc exister dès la création. Le photon semble alors constitué de 2 réalités 
distinctes : une onde EM et un corpuscule dont les caractéristiques semblent être compatibles avec celles 
du neutrino. J’en reparlerai plus loin.

Denis Linglin 4/16 Août 2025

Qu’en est-il alors pour les particules de masse comme l’électron, le proton ou d’autres pour lesquelles 
on a observé également le phénomène d’intrication ? Quelle que soit leur masse non nulle, leur vitesse 
est inférieure à « c » et donc ces particules ne peuvent pas être intriquées. Par contre, il n’échappe à 
personne que, quel que soit le modèle, quarks ou e± des nuons, les particules fondamentales sont 
électriquement chargées, ce qui signifie un échange permanent de photons vecteurs de la force EM. Ce 
sont ces photons qui peuvent être intriqués et donner l’illusion que ce sont les particules émettrices et
réceptrices qui sont intriquées.
On revient donc à la 1ère mécanique quantique d’Einstein de 1905 issue de l'effet photoélectrique (Nobel 
en 1921) et au modèle atomique de Bohr de 1913 (Nobel en 1922) : ce modèle se compare en partie au 
modèle du soleil et des planètes, avec toutefois une différence importante : la force EM se manifeste par 
l’échange de quanta d’énergie entre électrons périphériques et noyau, ce qui fixe des orbites et empêche 
à l’électron de « tomber » sur le noyau. Dans l’effet photoélectrique avec des plaques de métal, des 
électrons sont arrachés à partir de photons UV ( l < 0,4 µ ) soit E > 3,1 eV. 
Le modèle standard de la physique des particules, qui s’est appuyé sur la 2ème MQ, doit donc être 
modifié. Il en a bien besoin, mais un modèle standard alternatif a déjà été publié en 2023 comme annoncé 
plus haut. Comme le modèle atomique de Bohr, ce modèle semi-classique utilise les équations classiques 
de Coulomb mais aussi les photons pour assurer la stabilité de dipôles e+e- appelés « nuons ». Ceci 
revient à postuler l’abandon de la 2ème mécanique quantique et à utiliser la 1ère mécanique quantique. 
Elle aura vécu un siècle, la même durée que l’éther, un siècle auparavant.
Les 2 articles, intrication et nuons, sont donc très complémentaires puisque cet article valide l’approche 
semi-classique du modèle des nuons de René Brun. Avant de comparer les 2 modèles « standard » au 
chapitre 3, parlons un peu d’histoire.

2. Petit retour historique sur la période 1905-1965

L’historique de cette période est particulièrement riche en découvertes, particulièrement 1905-1935. Je 
me bornerai aux quelques faits et événements ayant un rapport direct avec cet article : la faible taille de 
la communauté scientifique de l’époque, la faiblesse des moyens de communication entre chercheurs, 
comment s’est décidée la seconde Mécanique Quantique, le paradoxe EPR, les muons cosmiques, le 
théorème de J.S. Bell, …
Pour commencer, je me suis appuyé sur un article de deux scientifiques français (4) dont je reproduis 
ici le résumé :
« Mécanique quantique : Deux interprétations ? »
L’interprétation actuelle de la mécanique quantique est née au congrès Solvay de 1927 où le point de vue de 
Niels Bohr, Werner Heisenberg, Max Born et Wolfgang Pauli s’est imposé contre celui de Max Planck, Albert Denis Linglin 5/16 Août 2025
Einstein, Louis de Broglie et Erwin Schrödinger : il fallait renoncer désormais au déterminisme et à l’existence 
d’une réalité objective. Les conséquences philosophiques et épistémologiques de cette interprétation sont 
immenses… et les difficultés de compréhension aussi ! »
Les conférences internationales de cette époque rassemblaient une trentaine de personnes, comme sur 
la photo ci-dessus (Solvay 1927). Les 8 chercheurs cités y étaient présents, tous ont été nobélisés.
Mais j’en retiens surtout que la décision du choix entre la 1ère et la 2ème MQ, de 1905 et 1925-1927, s’est 
jouée à 4 contre 4, Niels Bohr faisant pencher la balance du mauvais côté pendant un siècle, alors qu’il 
devait son prix Nobel 1922 au modèle atomique éponyme de 1913 qui s’appuyait sur la 1ère MQ. Difficile 
dans ces conditions de parler de consensus scientifique ! Et d’ailleurs, les divergences entre ces deux 
groupes ont continué, elles ont culminé en 1935 avec le paradoxe EPR (5). Louis de Broglie et David 
Bohm ont de leur côté proposé en 1952 de généraliser la dualité onde-corpuscule à tous les objets 
microscopiques, avec le concept d’onde pilote : l’électron est un corpuscule, guidé par une onde, il y a 
deux réalités distinctes. Mais ils ont raté le coche car ils sont restés dans le cadre de la 2ème MQ et donc 
de la fonction d’onde de Schrödinger. Il aurait suffi d’ajouter que l’onde pilote était le photon, l’onde 
électro-magnétique qui accompagne l’électron, et le modèle des quarks n’aurait sans doute pas vu le 
jour dix ans plus tard.

A ce sujet, je cite Max Born, colauréat du prix Nobel de physique, Stockholm 1954 (4) :
"Einstein, de Broglie et Schrödinger n’ont cessé d’insister sur ce que l’interprétation statistique de la MQ
avait de peu satisfaisant, de réclamer un retour aux conceptions de la physique classique newtonienne 
et de proposer des moyens d’y arriver sans contredire aux faits expérimentaux." 
Et encore (4) : une critique approfondie de cette non-consistance de l’interprétation de Copenhague 
peut se trouver dans les (excellents) livres de Franck Laloë en 2011 {3} et Jean Bricmont en 2009 {1}. Ces 
problèmes expliquent largement la difficulté de compréhension de la MQ. L’interprétation de 
Copenhague nie même l’existence de la réalité avant la mesure par un observateur. Einstein cristallise 
sa critique par la formule : "j’aime à penser que la Lune est là, même quand je ne la regarde pas".
De leur côté, Einstein et Bohr ont continué à échanger des courriers jusqu’au décès du 1er, en 1955, 
chacun plaidant pour sa théorie quantique. Bohr s’est imposé mais Einstein n’a jamais adhéré, et il a eu 
raison, finalement.
Les inégalités de Bell, énoncées en 1964 par John Stewart Bell sous forme de théorème (6), se placent 
dans le cadre de la MQ orthodoxe et donc du référentiel de la mesure. Si l’intrication existe, ce qui est 
avéré aujourd’hui par plusieurs expériences, et s’il existe des variables cachées, alors elles doivent être 
non locales. Mais personne n’a identifié de variables cachées, donc le théorème ne s’applique pas.
Par contre, JS Bell a proposé un critère pour éliminer le « déraisonnable » en physique : « l’absence de 
romantisme ». Une bonne théorie ne doit pas proposer de caractère « révolutionnaire » à la description 
du réel qui ne soit strictement imposé par l’expérience (7). JS Bell et A. Einstein partageaient le même 
sens du réalisme et je m’associe à ce réalisme. Aujourd’hui, une fraction des physiciens pense que la 
MQ orthodoxe est un modèle mathématique qui décrit assez bien le réel mais n’est pas un modèle 
physique. Dit autrement, le modèle standard n’est pas la réponse ultime à la description des 
particules et des interactions fondamentales : qu’une particule puisse être dans deux états quantiques 
à la fois, excité et au repos, noir et blanc, 1 et 0, onde et particule, bref cette étrange propriété baptisée 
« état de superposition quantique » ne saurait exister comme modèle physique. L’électron serait à la fois 
une onde et un corpuscule, incroyable ! Pourquoi pas le « chat de Schrödinger » à la fois mort et vivant 
pendant que vous y êtes… 
Qui plus est, le SM ou modèle des quarks qui s’appuie sur la MQ orthodoxe est lui aussi un modèle 
purement mathématique et s’est trouvé en contradiction avec de multiples résultats expérimentaux 
(voir ci-dessous). Le modèle a pu s’en sortir avec des adaptations, en postulant de nouvelles particules 
ou de nouvelles constantes fondamentales ad-hoc, mais cette méthode a ses limites et plusieurs résultats 
expérimentaux sont encore là, inexpliqués, et le seront toujours. En voici 3 : 

1) à cause de particules « virtuelles », le SM et les équations d’incertitude prédisent une énergie du vide
incroyable (jusqu’à 1060 voire 10120 fois la valeur mesurée).

2) Le SM n’a pas d’explication à l’absence de noyaux sans neutrons hors H1
, à commencer par l’hélium 
He2 alors qu’il prédit que la force nucléaire forte est toujours attractive entre nucléons et ~137 fois plus 
forte que la force EM.

3) un modèle solaire qui estime le flux de neutrinos issu de la fusion H à He et qui contraint le SM à 
accepter l’existence d’oscillations neutrinos.

Denis Linglin 6/16 Août 2025

La « déraisonnable » efficacité des mathématiques dans les sciences naturelles affirmée par le prix Nobel 
Eugene Wigner dans un article de 1960 a certainement contribué à pérenniser la 2ème MQ jusqu’à 
aujourd’hui. A l’inverse de E. Wigner, je pense que les mathématiques sont là seulement pour identifier 
le réel, c’est déjà beaucoup : parmi plusieurs modèles mathématiques possibles, il faut choisir celui qui 
prédit tous les résultats expérimentaux connus liés à ce modèle. Or la 2ème MQ a un caractère clairement 
« révolutionnaire » qui n’est pas strictement imposé par l’expérience.

3. Modèle Standard et Modèle Standard Alternatif
Après ce détour historique, revenons maintenant à une comparaison des 2 modèles standard, celui 
« historique » (SM) et celui « alternatif » (ASM), également appelés modèle des quarks et modèle des 
nuons. Cette comparaison a été déjà largement entamée ci-dessus et vous connaissez déjà mon point de 
vue.
Commençons par le Modèle Standard :
Ci-dessous, 2 tableaux extraits de Wikipedia avec la liste des particules « élémentaires ». Le SM a 
émergé au début des années 1960, il est déjà ancien et bien connu et je serai plutôt bref. Lancé sur le 
postulat simple de 3 quarks, il n’a pas cessé de se « développer » depuis lors. Le SM est aujourd’hui un 
modèle mathématique très compliqué, basé sur le groupe de jauge SU(3)×SU(2)×U(1) dans un espace 
de Hilbert complexe, avec 19 paramètres libres pour parvenir à être en accord avec la plupart des 
mesures expérimentales : les masses des 9 fermions (3 leptons et 6 quarks), 4 paramètres de la matrice 
CKM, les 3 constantes de couplages pour les trois forces, l'angle θ de la chromodynamique quantique 
et deux paramètres de Higgs.
J’ajouterais bien 2 constantes à cette longue liste : les charges fractionnaires des quarks, qui sont 
stipulées strictement égales à 1/3 et 2/3 de la charge de l’électron. Et puis, il y a aussi les résonances 
tetraquarks ou pentaquarks !
Le SM est aussi un modèle qui n’explique pas la gravitation et qui est même incapable de calculer la 
masse du proton avec précision. Quant au neutrino, sa masse devenue non nulle depuis 2 ou 3 décades
pose un problème de plus au SM, suite à des divergences entre « modèles solaires » et résultats 
expérimentaux (Sudbury/SNO et SuperKamiokande). Le SM prédit également une énergie du vide 
phénoménale très loin de la réalité car il s’appuie sur la MQ orthodoxe et les relations d’incertitude. 
Une telle différence suffit à elle seule à discréditer à la fois la MQ orthodoxe et le SM. Mais on peut 
ajouter une impulsion transverse maximum 2 fois trop élevée dans les collisions p-p au LHC et les 
courbes de diffusion élastique de l’expérience TOTEM (2). 
Et je ne suis sûrement pas le seul à m’étonner que l’on puisse qualifier d’élémentaires des particules 
hautement instables et dont la masse peut atteindre ou dépasser 100 fois celle du proton, particule stable
et non élémentaire. Quant aux 61 particules qualifiées d’élémentaires « connues », le qualificatif 
d’élémentaires « postulées » est plus approprié pour la grande majorité d’entre elles. 

Denis Linglin 7/16 Août 2025

Le SM n'apporte pas de justification théorique à la gravitation, telle que la décrit la relativité générale, 
ni ne rend compte de l'accélération de l'expansion de l'Univers (qui pourrait être expliquée par ce qu’on 
appelle l’énergie noire et qui devrait se comporter comme une gravité répulsive). Ce modèle n’apporte 
aucune réponse concernant la matière noire, avec les propriétés requises par les observations 
cosmologiques. 
Quant à l’oscillation des neutrinos, le SM est en pleine contradiction de lui-même : d’un côté, l'oscillation 
des neutrinos est observée dans le cadre du SM, ce qui implique la non-nullité de sa masse, mais celle-
ci n’entre pas dans le cadre du SM. En outre, si la non-nullité était avérée, le neutrino ne se déplacerait
pas à la vitesse c et pourrait donc exister à l’arrêt !
Pour ma part, je considère qu’il faut avoir la « foi du charbonnier » pour croire encore au modèle 
standard, d’autant plus qu’un modèle alternatif a été validé au début de cet article, à la fois beaucoup 
plus simple, plus prédictif et qui ne rencontre aucune dissonance à ce jour avec les résultats 
expérimentaux.
Passons maintenant au modèle standard alternatif, dit « des Nuons » (ASM) :
Publié en 2023 (2), je vous invite à lire cet article de ~40 pages si ce n’est pas déjà fait. Je vais toutefois 
en faire un résumé succinct maintenant. 
Au départ, deux observations expérimentales ont guidé René Brun :

• La première : trouver un modèle permettant de calculer simplement les masses des nombreuses 
particules observées, ce que le modèle standard a bien du mal à faire, qu’il s’agisse de temps de calcul 
ou de précision des résultats (« QCD sur réseau »).

• La deuxième : quelle que soit la particule instable considérée, son « histoire » se termine toujours avec 
au plus 4 types de particules stables et « ponctuelles » : électrons et positrons (~10-18 à 10-19
m), photons 
et neutrinos. Au nom du réalisme et de la simplicité, pourquoi ne pas rechercher un modèle dans lequel 
ces 4 particules formeraient une brique élémentaire universelle et stable : le nuon ? 
Le proton, seule particule à la fois stable mais non ponctuelle est donc un assemblage de nuons, 64 
nuons radiaux et 2 nuons axiaux (cf. les deux schémas ci-dessous, issus de l’ASM (2)).
A noter : 64 = 43 , une grande symétrie qui explique sa stabilité. 
J’ajoute que la stabilité du nuon postulée par René s’explique très bien avec le modèle atomique de Bohr
de 1913 issu de la 1ère MQ, elle-même déduite de l’effet photoélectrique. Ceci signifie que la 1ère MQ 
fonctionne non seulement au niveau atomique, c’est l’atome de Bohr, mais aussi au niveau nucléaire 
ou d’une particule soit à des dimensions 100 000 fois plus faibles.
Et c’est ainsi que René a bâti son modèle physique, avec seulement 4 particules élémentaires : chaque 
nuon composant une particule est un dipôle tournant autour de l’axe de cette particule. Pour chaque 
valeur N du nombre de nuons radiaux, René minimise l’énergie du système correspondant en utilisant 
les équations classiques, comme Einstein en 1905 pour la 1ère mécanique quantique. Si ce minimum 
existe, il correspond à la masse d’une particule ou résonance figurant dans la brochure du PDG (Particle 
Data Group) et il n’en manque aucune. Ainsi, le muon µ± devient la plus légère des particules avec 3 
nuons radiaux et les 3 pions p± et p0 avec 4. Seul, un µ0 émerge, pas encore identifié expérimentalement,

Denis Linglin 9/16 Août 2025

mais qui peut s’expliquer par le p0 et le µ0 ayant des canaux de désintégration très voisins avec une 
énergie manquante attribuée à un neutrino. Je pense aussi que le µ0 a pu être écarté par le modèle 
standard qui lui attribue la qualité de lepton et donc des similitudes avec l’électron qui n’a pas de neutre.
Le tableau ci-dessus montre que la différence de masse ASM/PDG ne dépasse pas 0,1 % et est proche 
de 10-8 pour le proton. Concernant le rayon du proton, l’écart entre le PDG et l’ASM est égal au millième 
de fermi.
C’est déjà extraordinaire, non !? Mais ce n’est pas fini :
• les 2 forces nucléaires ne sont que des formes de la force EM, QCD se réduit à l’équation de Coulomb 
plus les 2 particules quantiques, photon et neutrino.
• l’ASM n’a besoin d’aucune nouvelle constante ou paramètre libre 
• les positrons constituent la seule antimatière, les électrons la seule matière. Les nuons garantissent 
par leur existence que matière et antimatière sont en quantités égales.
• Au cœur du cœur des étoiles, les conditions de température et de pression sont telles que les protons 
et les neutrons peuvent se briser et libérer leurs nuons, dans la zone externe du cœur se déroule 
également la transmutation H à He. Plus l’étoile est massive et plus elle éjecte des nuons. Nuons 
constitutifs des nucléons et nuons libres apportent une réponse aux recherches des deux forces 
nucléaires, de la matière noire et de l’antimatière, en effet : 
• Observé de près, en dessous d’un Fermi(~10-15
m), on distingue séparément la force EM due à l’électron 
et celle du positron de chaque nuon et cela remplace ce qui est appelé dans le SM la force nucléaire 
faible d’une portée inférieure au noyau atomique.
• Observé « de loin », disons d’au moins quelques Fermis (~10-14 m), les nombres quantiques de ce 
dipôle s’additionnent et sont donc nuls, chaque nuon peut donc traverser beaucoup d’atomes (~10-10
de la matière ordinaire sans interagir, à l’instar d’un neutrino stérile mais avec masse. Les nuons libres 
répondent qualitativement à tous les critères de ce qu’on appelle la matière noire. Les noyaux 
d’étoiles suffisamment massives doivent donc comporter deux zones de pression / température : un 
noyau interne où les nucléons s’effondrent et leurs nuons s’échappent, un noyau externe où pression 
et température sont plus faibles et où se tient la fusion de l’hydrogène en hélium. L’existence de 2 zones
aux propriétés distinctes est une propriété assez générale que l’on retrouve non seulement dans les 
étoiles comme le soleil ou les étoiles à neutrons dans le cadre de l’ASM mais aussi dans des planètes 
comme la Terre, avec un noyau interne, 6000°C mais solide à cause de la pression, composé de fer et de 
nickel et un noyau externe, 3500°C mais liquide à cause d’une pression moindre, composé de ~90% de 
fer).
Dans la transition de phase nucléon à nuons libres, l’énergie cinétique des nuons (~ 6% c) est presque 
totalement absorbée sur place au sein du noyau de l’étoile, ce qui libère une grosse quantité de chaleur
(12 à 13 MeV/c2 par nuon) avant de sortir de l’étoile. Cette absorption est nécessaire pour expliquer la 
puissance rayonnée par l’étoile et valide le modèle CDM (« Cold Dark Matter »). Les nucléons du noyau
externe sont convertis en noyau d’Hélium, ce qui est la seule source de chaleur dans le SM. La matière 
noire bouscule les modèles solaires du SM en réduisant les flux de neutrinos énergétiques : la majorité 
des neutrinos sont échangés localement au titre de la gravité quantique et ceux qui s’échappent au titre 
de la fusion H à He ne sont pas assez nombreux pour en déduire qu’il y a oscillations, j’en reparlerai 
dans le chapitre suivant consacré à la gravité quantique.
• Les 64 nuons radiaux des nucléons pointent vers le centre et forment deux couches sphériques, externe 
et interne, avec 64 e+ et 64 e- chacune. A faible distance du nucléon, la force EM est dominée par sa 
couche externe. 2 protons ou neutrons se repoussent, proton et neutron s’attirent. Ceci explique la force 
nucléaire forte d’une part mais aussi le fait que tout noyau au-delà de l’hydrogène comporte un 
mélange de protons et de neutrons. Par contre, la force nucléaire forte du SM est attractive entre tous 
les nucléons et a bien du mal à expliquer ce dernier point : la « barrière coulombienne » ne m’a jamais 
convaincu, la force EM étant plus de 100 fois plus faible que la force nucléaire forte.
• Bien évidemment, l’antimatière (= positrons) et la matière (= électrons) sont constitutives des nuons. 
Il n’est plus besoin de raisonner à l’échelle des particules telles que les mésons ou baryons, donc les 
nucléons. Un antiproton est un proton dont le positron central est remplacé par un électron, avec un 
simple réarrangement de 180° de ses 64+2 nuons. Ces deux particules ne sont donc plus à proprement 
parler matière et antimatière puisqu’elles sont formées des mêmes 66 positrons et 66 électrons et ne 
diffèrent que par leur seule particule centrale. Ce qui prouve en passant que le proton a par construction 
une charge exactement égale mais opposée à celle de l’électron.
Il reste quand même à expliquer pourquoi la matière de l’univers est faite de nucléons et pas 
d’antinucléons. Le modèle actuel des nuons n’a pas de réponse à cette question qui relève de la Denis Linglin 10/16 Août 2025
cosmologie primordiale. Serait-il possible que le photon en soit responsable, comme pour les molécules 
lévogyres et dextrogyres en chimie ? L’hypothèse de l’origine interstellaire de l’homochiralité bénéficie 
d’un certain consensus.
Au-delà de l’identification par l’ASM de la matière noire, de l’antimatière et des deux forces nucléaires 
qui sont en fait électromagnétiques, l’ASM fonctionne très bien et aucun résultat expérimental n’est 
venu contredire ce modèle jusqu’à présent, excepté les particules postulées et trouvées par le SM : les 
quarks et gluons bien sûr mais aussi les W, Z et Higgs (j’ai moi-même participé à l’expérience UA1 et 
aux débuts de CMS).
Sur plusieurs points, le modèle des nuons valide des résultats expérimentaux alors que le modèle 
standard et d’autres n’y parviennent pas : c’est le cas des résultats de l’expérience TOTEM au LHC et 
des distributions d’impulsion transverse à toutes les énergies (LHC, ISR, HERA, …) (2). En cosmologie, 
c’est aussi le cas des objets compacts (étoiles à neutrons et trous noirs), voir le chapitre 5.
En résumé, l’ASM est un modèle solide sur lequel je m’appuie pour la suite de cet article, avec deux 
développements : la gravité quantique et l’énergie noire.

4. La gravité quantique

Le photon apparaît peu dans l’article de l’ASM, voire pas du tout dans le schéma des nuons axiaux et 
radiaux repris ci-dessus. Il est admis en effet qu’étant le vecteur de la force EM, il est échangé par 
émission-absorption en permanence et en grand nombre entre les électrons et positrons de chaque nuon.
Le photon est donc bien pris en compte au travers de l’équation de Coulomb utilisée dans la 1ère MQ. 
Par contre, le neutrino y est mis en avant car son rôle est indispensable pour assurer la cohésion et la 
stabilité du nuon et donc le succès du modèle. Curieux, non ? Ceci m’a intrigué et incité à chercher et 
comprendre le rôle important du neutrino déjà mentionné plus haut à propos d’Henri Poincaré.
Un neutrino va à la vitesse « c » et dans l’ASM, il semble faire lui aussi du « sur place » au sein des 
nuons, comme le photon. L’analogie entre photon et neutrino est trop importante pour être fortuite. On 
a là une forte indication, voire une preuve, que le neutrino est le vecteur de la gravitation et ce qu’on 
observe, ce qui est appelé neutrino, n’est autre que l’énergie manquante moyenne générée par les 
myriades de neutrinos échangés entre toutes les particules énergétiques de son voisinage et au-delà.
Et puisque les photons échangés dans l’interaction EM ont une énergie quantifiée, qu’en est-il pour le 
neutrino ? Existe-t-il un quantum d’énergie du neutrino en dessous duquel le neutrino n’émet plus lui-
même de neutrino et donc n’a plus d’influence gravitaire ? On peut le postuler…
Je mentionne ici qu’aucune particule ne pouvant avoir une énergie zéro, il y a aussi un seuil d’énergie 
propre à chacun et en-dessous duquel photon et neutrino n’existent pas.
Selon le modèle des nuons, l’univers est constitué de 4 particules fondamentales (l’électron, le positron, 
le photon et le neutrino) et il n’existe que 2 forces ou interactions, l’électromagnétisme (EM) et la 
gravitation (Gravité). C’est un fait expérimental que ces deux forces se propagent à la vitesse c, ce qui 
implique que les particules vecteurs de ces forces aient une masse nulle. Le photon est le vecteur de la 
force EM. Dans ce modèle, le vecteur de la gravitation ne peut donc être que le neutrino, un neutrino 
unique qui n’oscille pas, qui se déplace donc à la vitesse c et comme le photon, n’a pas d’antiparticule 
car à ma connaissance il ne possède pas de nombre quantique qui pourrait différentier les deux.

A noter : l’interaction EM ne s’applique qu’aux 2 particules chargées e±
, la gravité s’applique aux 4 
particules élémentaires car photons et neutrinos transportent de l’énergie. Mais le neutrino est 
particulier puisqu’il serait à la fois sensible à la force et son vecteur (du moins au-dessus d’un seuil 
comme pour le photon).

L'analogie entre des charges électriques en mouvement et des masses en mouvement permet de mieux 
appréhender la réalité : de la même manière que l'accélération de particules chargées (e ±) produit des 
ondes électromagnétiques càd des échanges de photons, l'accélération de particules possédant une 
masse produit des ondes gravitationnelles, des échanges de neutrinos, comme observé dans l’ANM
pour assurer l’existence de noyaux et particules. Et on a vu aussi que des photons échangent des 
neutrinos à partir d’un seuil. Pour rappel, dans l’effet photoélectrique, la longueur d’onde nécessaire à 
la photoémission d'un électron depuis une surface de métal dépend du métal et se situe dans la gamme
l = 0,3/0,4 µ. Le l seuil d’échange de neutrinos par le photon doit donc être ≤ 0,3 µ, soit une énergie
E=hc/l > 4 eV.
La plupart des théories de gravité quantique postulent l'existence d'une particule élémentaire 
correspondante appelée le graviton, associé à l'onde gravitationnelle. Cependant, même après la mise 
en évidence des ondes gravitationnelles, l’existence du graviton reste hypothétique.

Denis Linglin 11/16 Août 2025

Pourquoi aller chercher le graviton plutôt que le neutrino ? Bien sûr, à cause des oscillations neutrinos.
Rappelons une comparaison de ces 2 forces :
• Les 2 forces, EM et gravitationnelle, ont des points communs, des analogies importantes : 
- Elles se propagent à la vitesse c, comme indiqué ci-dessus. Photon et neutrino sont des ondes et on 
peut « raisonnablement » postuler que le neutrino obéit aussi à la relation de Planck-Einstein mais 
sans doute avec une valeur h’ très inférieure à la constante h de Planck, soit : E=h’n=h’c/l. On a 
également E = p c pour le neutrino comme pour le photon, conséquence de leur masse nulle.
- Selon la loi de Coulomb, la force EM entre 2 charges électriques q1 et q2 est proportionnelle au produit 
de ces charges. Selon la loi de Newton, la force de gravité entre 2 masses est proportionnelle au produit
de ces masses et selon Einstein la gravité s’applique aussi aux particules sans masse, ce qui a été 
prouvé pour le photon. 
- L’intensité des 2 forces est inversement proportionnelle au carré des distances entre les 2 charges ou 
les 2 masses.
- Les 2 forces sont conservatives : le travail de la force ne dépend pas du chemin suivi, elle ne dépend 
que des points de départ et d’arrivée. Elles sont toutes deux gradient d'une énergie potentielle.
- Un correctif s’applique en cas de vitesse relativiste des charges ou des masses (par exemple, la vitesse 
de rotation des nuons radiaux est de ~ 6%*c, soit un facteur de Lorentz de g=1,0018 )
• Les 2 forces diffèrent aussi sur quelques points : 
- Les 2 charges électriques e± sont égales et opposées, les 2 masses e± sont égales et de même signe. En 
conséquence, la force EM est attractive ou répulsive, la gravité est seulement attractive. La création de 
masse et de charge vont de pair, autrement dit la masse ne dépend pas de la charge ± 1.
- Les constantes de proportionnalité ont des valeurs très différentes : G = 6,670 10-11 et KC ~ 9 109 (G pour 
gravité, C de KC pour Coulomb), soit un rapport de l’ordre de 1020. La gravité est très faible comparée 
à la force EM, mais comme matière (électrons) et antimatière (positrons) sont en quantités égales au 
sein des nuons, il en est de même des charges. A grande distance les charges s’équilibrent et la force 
EM tend vers zéro et la gravitation finit par dominer.
- La force EM ne s’applique qu’aux 2 particules chargées e±
, la gravité s’applique aux 4 particules, y 
compris les particules sans masse car elles ont de l’énergie. Le neutrino, vecteur de la gravitation, est 
donc en interaction avec lui-même par auto-couplage.
- Photon et neutrino sont donc des ondes mais leurs l sont très différentes, de quelques kilomètres à 
des fractions de fermis pour le photon, au minimum de quelques km pour le neutrino :
Photon : on parle d’une longueur d’onde maximum de l ~33 km (onde radio, n = 9kHz, E = 6 x 10-30
J), minimum sans limite (on a observé E = 1 Joule, soit l = 2 x 10-25 m, n = 1,5 1033 Hz). Mais ces chiffres 
d’un photon très énergétique sont sans doute approximatifs car de nombreux neutrinos doivent 
accompagner un tel photon.
Neutrino : les ondes gravitationnelles astrophysiques sont bien identifiées depuis une dizaine 
d’années, leurs longueurs d’onde sont plus grandes que leurs sources très compactes, quelques km de 
l au minimum pour ceux issus d’objets très massifs, et un maximum sans limite (taille de l’univers, 
on parle de nano-Hertz pour la fréquence). En gravité quantique, dans l’effet photoélectrique ou au 
niveau des nuons, les neutrinos qui accompagnent toute énergie à partir d’un seuil sont très nombreux 
et d’énergie unitaire très faible, avec donc des longueurs d’onde très grandes puisque que E = h’ c / l
… En résumé, les neutrinos ont de grandes longueurs d’onde, à tel point que leur aspect ondulatoire 
est peu ou pas du tout détectable à notre échelle.
Essayons d’approfondir les propriétés spécifiques au neutrino :
• Le photon est un quantum d’énergie (Einstein 1905), il doit donc être sensible à la gravitation tout 
comme l’électron ou toute matière et produire son propre champ de gravité : pour cela, le photon doit 
donc absorber et émettre des neutrinos si son énergie est supérieure à un seuil. Or c’est bien le cas : le 
photon est connu pour être seulement une onde à basse énergie, en optique par exemple. Mais la loi de 
l’effet photoélectrique (Einstein 1905 et cette loi lui a valu son prix Nobel en 1921) s’explique par 
l’absorption par un électron d’un photon ayant une énergie supérieure à un certain seuil. On observe 
alors que le photon transfère toute son énergie à l’électron et donc ne peut pas être seulement une onde 
EM étendue mais être aussi accompagné par des échanges de neutrinos. Un photon de faible énergie, 
en-dessous du seuil, n’est donc qu’une onde. Au-dessus de ce seuil il doit échanger des neutrinos avec 
son environnement. Ces neutrinos doivent pré-exister à cause de leur durée propre nulle. Ceci est 
possible si le médiateur de la gravité est le neutrino et que celui-ci est lui-même un quantum d’énergie.
Le neutrino est la seule réponse possible et il y aurait donc 2 quanta d’énergie de valeurs très différentes, 
le photon et le neutrino. Si un neutrino est suffisamment énergétique, il échange également des Denis Linglin 12/16 Août 2025
neutrinos gravitaires ou « gravifiques » (un terme ancien utilisé entre autres par H. Poincaré et que je 
remets ici en service). Un neutrino énergétique est en fait une quantité importante de neutrinos car ce 
qu’on observe en pratique c’est une énergie manquante.
A noter également : le neutrino véhiculant la force de gravité, un trou noir émet et réceptionne des flots 
d’ondes gravitationnelles, une énorme quantité de neutrinos, qui donc échangent avec l’extérieur.
J’ajoute ici que dans un trou noir, la gravité est telle que les nuons sont détruits selon la réaction e+ e-
à g g . Un trou noir est donc formé uniquement de photons et neutrinos. 
5. Autres conséquences, dont un aperçu en cosmologie
• Hormis la cosmologie, nous avons déjà vu que la plupart des effets quantiques demeurent grâce au 
photon, par exemple la cryptographie quantique, l’effet Casimir ou l’effet Tunnel. Mais « l’ordinateur 
quantique » fait appel à la dualité onde-particule qui est désormais invalidée, celui-ci « attendra encore 
longtemps », tout comme le « chat de Schrödinger ». Cela fait d’ailleurs ~30 ans qu’on nous promet 
l’ordinateur quantique pour très bientôt …
• Egalement, puisque la MQ de 1925 est invalidée, les équations d’incertitude de Heisenberg (∆x∆p ou 
∆E∆t ≥ h/4π) n’ont plus lieu d’être. Les experts de collisions électron-proton de HERA@DESY devraient 
être satisfaits (H1, ZEUS) tout comme ceux qui envisagent des collisions e-p au LHC. Il demeurera
toutefois des incertitudes des mesures expérimentales mais pas de mur théorique infranchissable.
5.1 Production d’énergie
• Un enjeu potentiel de l’ASM concerne la production d’énergie : il n’échappe à aucun lecteur « averti » 
que le nuon a une énergie très importante comparée à la masse de ses constituants : ~14 MeV/c2
d’énergie totale, ~1 MeV/c2 pour la masse e+e-, soit une énergie Cinétique potentiellement Récupérable 
ECR de ~13 MeV/c2
, soit ~90% de la masse du proton convertie en énergie (ECR = 0,9 Mc2
). Cette transition
revient à reproduire en laboratoire ce qui se passe pour la matière noire dans le noyau d’étoiles comme 
notre soleil, mais sans doute en plus difficile. Des études de faisabilité devraient permettre d’évaluer les 
divers paramètres (tels que températures et pressions) nécessaires pour réaliser en laboratoire la 
transition nucléon à nuons libres, la récupération simultanée de la chaleur produite et enfin sa 
conversion en électricité. Et si les résultats apparaissent techniquement atteignables, un réacteur 
« nuonique » pourrait être construit. Pour produire de la chaleur, le rendement s’affranchit de la 
conversion en électricité.
En attendant, un tel réacteur demeurera une simple hypothèse, mais l’enjeu est tel que cela mérite d’être 
étudié : supposons qu’on atteigne une production électrique effective et réaliste de (10% Mc2
), prenant 
en compte l’EROI du réacteur (TRE en français, Taux de Retour en Energie), ce chiffre de 10% est à 
comparer avec celui des réacteurs actuels ou potentiels : 0,002% pour les réacteurs en service, ~0,2-0,3% 
pour le RNR de Creys-Malville soit 100 fois mieux et j’ai lu un chiffre comparable pour la fusion 
inertielle de l’hydrogène en hélium. Entre 0,2% (RNR) et 10% (Nuons), il y aurait un facteur 50. Et des 
pastilles d’hydrogène solide ça ne coûte rien ou presque et surtout ça ne pose aucun problème de 
matière première. Il suffirait d’une pastille de 3 milligrammes pour produire 7,5 MWh, soit ce que 
chaque français consomme en moyenne par an en électricité (~500 TWh/an pour la France pour ~67 M 
habitants). Un grain de riz pèse ~20mg, une pastille de cette masse produirait 50MWh.
La France dispose depuis une dizaine d’années du PETAL, le laser alors le plus puissant du monde avec 1,5 PW, 
implanté sur le site du CEA-CESTA près de Bordeaux. Il sert entre autres à l’étude de la fusion HàHe par 
confinement inertiel (lasers sur des pastilles de deutérium-tritium solide), un sujet technique proche de la 
transition nucléon à nuon. L’étude de faisabilité pourrait bénéficier de cette infrastructure. Si besoin, un laser 
européen de 10 PW a été construit plus récemment en Roumanie par une société française.
Pour comparaison, NIF à Livermore (à l’est de San Francisco) peut fournir plus de 2 millions de joules d’énergie 
UV et 0,5 PetaWatt de puissance crête sur une cible de la taille d’une gomme de crayon d’après leur site web. Ceci 
génère des températures de 100 millions de degrés et des pressions d’un milliard de bars, nécessaires pour des 
expériences de fusion H à He.
Une autre solution pourrait consister à utiliser des collisions electron-nucléon pour détacher un nuon de son 
orbite, ce qui devrait rompre l’équilibre et libérer tous les autres nuons. Ce n’est qu’une idée lancée sans la creuser.
Je laisse aux simulations ou aux experts parmi les lecteursle soin d’étudierla faisabilité d’un tel réacteur nuonique.
5.2 Etoiles à neutrons et trous noirs 
Denis Linglin 13/16 Août 2025
Revenons à la cosmologie pour terminer, qu’il s’agisse des objets compacts d’un côté (trous noirs et 
étoiles à neutrons, je laisse de côté les naines blanches), du Big Bang et de l’énergie noire de l’autre.
J’ai essayé de me renseigner assez longuement sur ces deux types d’objets compacts via les pages 
wikipedia et les articles mentionnés en références de ces pages mais je ne me considère pas être devenu 
expert du sujet. Comme on le sait, les propriétés et paramètres de ces objets sont hors normes, qu’il 
s’agisse de densité, de gravité, de rayonnements EM ou de rotations ultra-rapides (acquises par 
accrétion dans un système binaire). Je vais donc me contenter de quelques idées et propositions mais 
suis prêt à en discuter bien sûr avec tout expert intéressé. A nouveau, 
1) je me limite au cadre de l’ASM et de ses nuons et
2) je choisis, pour caractériser le réel, des hypothèses si possible sans infinis ni discontinuités. 
• Concernant les étoiles à neutrons, on distingue selon leur situation ou la valeur de leurs paramètres 
plusieurs sous-catégories (pulsar ou magnetar, avec ou sans système binaire). Beaucoup de neutrons 
ont déjà disparu lors de la courte vie de l’étoile massive dont chacune est issue, qu’il s’agisse de matière 
noire ou de fusion nucléaire. Les réactions de fusion se sont arrêtées après l’explosion en supernova 
mais la matière noire issue de la transition neutron à nuons libres continue tant qu’il reste des neutrons 
dans le cœur de l’étoile à neutrons, transition qui explique des densités pouvant atteindre 5-10 fois la 
densité nucléaire dans le cœur de l’étoile et une gravité telle que les nuons devraient demeurer piégés 
au lieu de pouvoir s’échapper comme dans notre soleil ou l’étoile massive d’origine. L’étoile à neutrons
bénéficierait ainsi d’une importante source de chaleur (ECR = 0,9 Mc2
), donc d’énergie, lui garantissant 
une masse quasi-stable et une durée de vie importante. J’invite bien sûr les physiciens impliqués dans 
l’étude de ces objets à tester cette hypothèse, ça leur évitera de faire appel à des hypothèses moins ou 
peu réalistes (étoile à quarks libres, à hypérons, plasma quark-gluon).
• Concernant les trous noirs, qui peuvent avoir des origines assez différentes : primordiaux, stellaires, 
intermédiaires ou super-massifs, leur gravité induite est encore plus forte et devrait déclencher la 
seconde transition de phase : les nuons libres e+e- du disque d’accrétion se disloquent au voisinage de 
l’horizon du trou noir et la seule réaction possible est e+ e- à g g . En terme de temps propre, les e+e-
deviennent ultra-relativistes et atteignent la vitesse c en se transformant en photons dans cette réaction. 
Un trou noir serait donc composé uniquement d’un grand nombre de photons et de neutrinos, toute 
matière a disparu, il ne reste que deux ondes. Les concepts d’étoile bosonique et de trou noir se 
confondent.
Une fraction des neutrinos, d’énergie supérieure au seuil d’auto-couplage, s’échange entre les photons
et assure la gravité au sein du volume. L’autre fraction, d’énergie inférieure au seuil d’auto-couplage,
s’échange avec l’extérieur pour assurer l’attraction gravitationnelle du trou noir.
• Dans un trou noir, prenons l’exemple supermassif du quasar J0529-4351 et ses 17 milliards de M☉,
son rayon de Schwarzschild est énorme mais le rayon de la boule de photons en son centre ne saurait 
être nul. Il doit bien y avoir une limite à la densité de photons au-delà de laquelle une saturation se 
produit pour éviter une singularité. J’ajoute que ce quasar, distant de 12 milliards d’années-lumière, 
pose aussi question : « Aussi massif, aussi tôt dans l'Histoire de l'Univers, c'est intrigant ».
• Lors de la coalescence de 2 trous noirs, quelques % de la somme des masses disparaissent sous forme 
d’ondes gravitationnelles, autrement dit de neutrinos qui vont faire vibrer un peu l’espace-temps. Ceci 
prouve que les neutrinos peuvent sortir des trous noirs. Par exemple, la plus grosse fusion de trous 
noirs jamais observée (~140+100 M☉) a été annoncée le 14 juillet dernier par l’instrument LIGO de la 
collaboration LVK ( https://en.wikipedia.org/wiki/GW231123 ). Lors de cette fusion, environ une 
quinzaine de M☉ est partie sous forme de neutrinos en un dixième de seconde (dans notre référentiel), 
soit une puissance moyenne très importante de ~ 0,3 1050 Watts (= 15 x 2 x 1030 x c2
/0,1).
• Les étoiles à neutrons observées tournent à grande vitesse, il est probable qu’il en est de même pour 
les trous noirs et leur disque d’accrétion : la norme serait plutôt les trous noirs de Kerr que ceux dits de 
Schwarzschild. Toutefois il faut tenir compte d’un biais important, ces objets compacts sont plus faciles 
à identifier quand ils tournent car ils se comportent alors comme de vrais phares.
5.3 Big Bang et énergie noire
En cosmologie, l’impact de l’ASM et de la mécanique relativiste est important aussi et plusieurs idées 
peuvent être proposées.
Une fraction importante des chercheurs en cosmologie pense que l’univers a « émergé du néant » ! Je 
l’admets aussi. Le néant physique est par définition un « rien absolu » où la physique n’existe pas, il 
n’existe donc aucune des grandeurs physiques qui caractérisent l’univers comme le temps, l’espace, 
l’énergie et donc aussi aucune des lois et équations de la physique qui relient ces grandeurs ainsi que Denis Linglin 14/16 Août 2025
les constantes comme « c », « h », « G » … qui en sont partie intégrante. Le néant est difficile à concevoir
et il n’a rien à voir avec ce qu’on appelle le vide.
Or l’univers existe, la physique existe et il faut donc admettre a priori une discontinuité majeure, appelée 
Big Bang. En l’absence de temps, il n’y a donc pas « d’avant » le Big Bang. Un Big Crunch serait par 
essence une discontinuité de plus et donc j’appuie la théorie d’un seul Big Bang issu du néant, à moins 
que la théorie d’un seul Big Bang n’aboutisse à une impasse. J’en ai d’ailleurs parlé en début d’article 
(page 2) pour parler de l’âge de l’univers.
Cette discontinuité pose bien sûr un problème à la fois scientifique et philosophique, insoluble pour le 
moment : par essence, le néant ne peut rien « créer », qu’il s’agisse de matière, d’ondes ou de lois. Et 
comme le principe d’incertitude n’existe plus, alors qu’il était bien utile à certains pour affirmer qu’une 
fluctuation quantique pourrait être à l’origine du Big Bang, le mystère demeure entier.
Il faudrait toutefois pouvoir raisonner dans la durée propre des débuts de l’univers comme indiqué 
page 2 et pas dans le référentiel terrestre, ce que les auteurs de la théorie de l’inflation ont pourtant fait, 
faute de mieux. Je pense que c’est une erreur : cela revient à faire démarrer le temps cosmique au temps 
0, ce qui serait une discontinuité. Je pense que le temps cosmique a été certes atteint au bout d’une durée 
assez brève, disons une seconde pour fixer les idées. Par contre, cette 1ère seconde dans le référentiel de 
la terre a pu durer un milliard d’années dans le référentiel de l’univers d’alors. Et cette « seconde » a 
duré suffisamment longtemps pour éviter une discontinuité. Comment l’énergie de l’univers pourrait-
elle apparaître en une seconde, voire en 10-36 seconde ou moins ?
Je dois pour cela postuler logiquement que les lois de la physique sont apparues selon que de besoin 
dès les premiers photons énergétiques, ce qui est logique puisque les 3 grandeurs – énergie, temps et 
espace – sont liées par des lois qui les obligent à apparaître ensemble (en analyse dimensionnelle : E =
M c2 = M L2 T-2 ).
Essayons de décrire alors cette première seconde :
« Au départ », le temps n’existait pas, puis on a eu T=∆t=0 (Big Bang) et un gigantesque flot d’énergie 
a démarré, constitué de photons, sans doute eux-mêmes accompagnés de neutrinos gravitaires qui les 
accompagnaient, car une fraction des photons a dû avoir une énergie au-dessus du seuil gravitaire. Ce 
sont tous deux des ondes, sans masse et aux temps propres nuls, avec un spin entier, ce qu’on appelle
des bosons. La force de gravité s’est manifestée dès cet instant, par contre la force EM a attendu pour se 
manifester la création de charges électriques, donc de masses, apparues avec la réaction g g à e+ e-
Ce fut l’ère de Planck au cours duquel, au nom du réalisme, la seconde a dû évoluer de manière continue
d’une durée infinie à la durée que nous connaissons aujourd’hui, ce qui signifie pour le moment une 
durée propre indéterminée de cette 1ère seconde (aussi bien un an que quelques milliards d’années).
Essayons de l’affiner :
Calculons tout d’abord de combien d’énergie on parle, que veut dire le mot « gigantesque » ? Il y a 
grosso modo 100 milliards de galaxies dont la masse moyenne de matière observable est de 100 milliards 
de masses solaires (M☉), soit ~1022 M☉, une M☉ = 2 1030 kg de matière observable, matière qui ne 
représente que ~5% de l’énergie totale de l’univers, 95% provenant de matière et énergie noires. Le flot 
primordial avait donc une énergie estimée à M ~ 4 1053 kg soit E = Mc2 = 3,6 1070 Joules. C’est 
effectivement beaucoup, il serait déraisonnable de croire que ce flot soit apparu en une durée propre ∆t
quasi nulle, ce qui obligerait à un flot d’une puissance moyenne P = E / ∆t encore plus gigantesque :
pour ∆t = 10-43 seconde, P = 3,6 10113 Watt
pour ∆t = 1 seconde, P = 3,6 1070 Watt
pour ∆t = 1 milliard d’années = 3,15 1016 sec., P = 3,6/3,15 1070-16 ~ 1054 W
pour ∆t = 1000 milliards d’années, P = 3,6/3,15 1054-3 ~ 1051 W
En comparaison, les lasers « attoseconde » les plus puissants délivrent 1 à quelques pétawatts, soit 
1015 W, et ça ne dure que quelques attosecondes.
Outre le réalisme et la continuité, allonger le temps propre de l’univers à ses origines pourrait s’avérer
indispensable pour expliquer plusieurs observations actuelles, essentiellement :
- l’homogénéité des températures du CMB (résultats du satellite « Planck »)
- l’existence d’une 1ère génération d’étoiles, de trous noirs et de galaxies de l’univers primordial. 
- En outre, l’énergie noire peut s’expliquer moyennant une distribution en énergie des photons du flot
relativement contrainte, comme on le verra plus loin. 
Par exemple, les galaxies du programme JADES (JWST Advanced Deep Extragalactic Survey) atteignent 
déjà des décalages vers le rouge de z=13-14, soit une image de ≤ 300 millions d’années-lumière après le 
Big Bang. Et dans certaines de ces galaxies très lointaines, il est détecté de l’azote ou des noyaux actifs, 
l’autre nom des trous noirs super-massifs (TNSM) comme J0529-4351 cité déjà ci-dessus. Parmi eux, les Denis Linglin 15/16 Août 2025
blazars suggèrent que ces TNSM sont « plus nombreux qu’on ne le pensait », ce qu’on peut traduire par 
« une durée nettement plus longue arrangerait bien tout le monde ». 
Ayant ainsi prouvé la nécessité d’une durée propre plus longue, essayons maintenant, d’estimer la 
durée propre possible et réaliste de l’univers primordial, avant l’inflation. Comment cela a-t-il pu se 
passer en pratique ?
Pour cela, il faut que la durée propre de l’univers, qui est partie de zéro, demeure très proche de zéro 
pendant presque toute la durée du flot d’énergie et il faut que la puissance du flot parte de zéro et 
augmente jusqu’à saturer le volume minuscule de l’univers qui a pu se créer pendant la montée en 
puissance, ce qui a comme conséquence de geler le temps propre à une valeur très petite jusqu’à la fin 
du flot. Cette saturation n’est possible qu’avec des bosons, c’est bien le cas, car non soumis au principe 
d’exclusion de Pauli. La saturation, dont j’ai déjà prouvé la nécessité à l’occasion des trous noirs, signifie 
une densité de photons suffisante pour que ces photons au temps propre nul maintiennent l’univers 
dans une durée propre fixe mais non nulle. La phase de démarrage du flot jusqu’à la saturation assure 
une durée propre différente de zéro mais très faible et qui se maintient ainsi pendant toute la période 
du flot.
Autrement dit, il y a eu un découplage entre d’un côté l’énergie qui s’accumulait et de l’autre le temps 
et l’espace qui étaient gelés à une valeur très petite, dans le rapport « c » (∆l/c ∆t = 1). Il en résulte une 
durée propre de l’univers difficile à évaluer, mais qui peut s’étaler sur des milliards d’années pendant 
lesquels le flot d’énergie a pu évoluer en créant des trous noirs primordiaux (TNP) tout en laissant peut-
être la majorité des photons sans structure due à la gravité (il suffit pour cela que ces photons aient une 
énergie faible et échappent à la gravité). Ce flot a pu stopper « en douceur » pour éviter une singularité
de plus.
Dès que le flot s’est réduit puis arrêté, la saturation s’est estompée, le vide entre bosons est apparu et a 
augmenté, le temps a pu commencer à accélérer et très vite devenir celui que nous connaissons 
aujourd’hui, l’univers à grandir, etc… Ceci correspond à ce qu’on appelle l’inflation, mais sans devoir 
faire appel à d’autres explications hypothétiques telles que l’inflaton.
Tout cela n’est qu’une réflexion basée sur la mécanique relativiste appliquée à l’ASM et à l’origine de
cet article, avec ses bosons au temps propre nul. Elle fait aussi intervenir la gravité quantique basée sur 
le neutrino. Cela me semble plus réaliste que de postuler une singularité de plus avec un flot d’énergie 
qui serait apparu très rapidement, comme enseigné aujourd’hui.
L’accélération du temps a permis aux photons les plus énergétiques d’interagir entre eux selon la seule 
interaction possible : g g à e+ e- , soit une énergie > 1,02 MeV/c2 . Cette interaction a joué un rôle majeur,
• elle crée la masse sous forme de matière e- et d’antimatière e+
• elle crée la charge électrique qui permet à l’interaction EM de se manifester.
• Les 2 interactions, les lois et leurs constantes relient désormais l’énergie, l’espace et le temps.
• elle permet la création des nuons où cohabitent les 4 particules fondamentales de l’ANM,
• elle permet la création des particules par assemblage des nuons, seuls survivent les nucléons.
• Etc… Ensuite, l’univers évolue comme déjà décrit par ailleurs.
Quelle serait l'origine de l’énergie noire ?
J’en viens maintenant à l’énergie noire en reprenant l’historique de l’ère de Planck, son flot d’énergie 
créateur ci-dessus et dont la durée propre est certainement plus longue que racontée dans le référentiel 
terrestre des livres.
70% d’énergie noire ne peut provenir que du Big Bang donc du flot créateur. Mais à quelles conditions ?
Je postule que le flot a démarré avec des photons d’énergie < 1 MeV/c2
. Ces photons n’ont pas pu créer 
de matière ( g g à e+ e- ) mais étaient sensibles à la gravité. Ceci a duré jusqu’à ~70% de l’énergie du 
flot. Ces photons et neutrinos primordiaux ont créé le vide de l’univers sur leur passage à la vitesse c et 
n’ont jamais pu interagir avec de la matière qui par essence a une vitesse < c . Si l’on postule qu’environ 
les 2/3 de l’énergie du Big Bang se situe dans cette enveloppe sphérique de photons et neutrinos, la 
gravité qu’elle induit se concrétise par des échanges de neutrinos entre cette enveloppe et l’univers-
matière à l’intérieur, c’est-à-dire une attraction par gravité. Il me semble que ceci pourrait reproduire 
l’accélération observée de l’expansion : les galaxies les plus proches de l’enveloppe, qui sont les plus 
lointaines et anciennes, doivent subir une plus forte attraction de la part de l’enveloppe que celles 
situées plus près du centre comme sans doute la nôtre. Inversement, les neutrinos émis par l’univers-
matière ne peuvent jamais atteindre l’enveloppe d’énergie noire qui donc est insensible à la gravité de 
l’univers.
Notons 2 conséquences de cette hypothèse :

Denis Linglin 16/16 Août 2025

1) le centre de cette sphère apporte une certaine réalité à la notion de centre de l’univers.
2) cette sphère d’énergie noire continuera à grandir sans fin à la vitesse c, il n’y aura donc pas de big-
crunch.
Et je termine par une anagramme de circonstance : « énergie noire = reine ignorée » …

6. Conclusion
• Je rappelle l’importance de cet article et celui de l’ASM :
Oui, c’est une petite révolution ! Mais j’insiste aussi sur le fait que la nature a encore beaucoup à nous 
dire, que les chercheurs ont la volonté et le but d’écouter la nature, avec des machines spécifiques telles 
que accélérateurs, télescopes, satellites, etc…
Par exemple : que se passe-t-il physiquement lors de la création de masse g g à e+ e- ou des échanges 
de photons et neutrinos lors des 2 interactions, quelle est la structure de l’électron, comment s’explique 
la charge électrique qu’il porte ? Quels sont ces seuils indispensables à éviter des discontinuités ?
Comment expliquer ce flot phénoménal d’énergie ? Etc… Autant dire que la science n’est jamais qu’une 
succession de questions suivies de réponses qui conduisent à d’autres questions !
• René Brun a développé une suite logicielle qui lui a permis de tester son modèle dans un certain 
nombre de cas, les masses et les moments magnétiques par exemple. Il est prêt à la partager avec toute 
personne intéressée comme il est d’usage dans la communauté, avec en perspective des extensions qu’il 
n’a pas eu le temps de développer ou qui requièrent des temps de calcul dépassant celles de son MAC, 
même dernier modèle : calculer les durées de vie des particules par exemple, avec le Graal de la durée 
de vie du neutron en ligne de mire. Il attend votre mel (8).
@@@@@@@@@@@@@

Références

(0) Abréviations utilisées : 

MQ = Mécanique quantique, Physique quantique.
EM = Electromagnétisme, électromagnétique
SM = Standard Model (le modèle standard de la physique des particules, le modèle des quarks)
ASM = Alternate Standard Model (le modèle standard alternatif, appelé aussi modèle des nuons)

(1) L'UNESCO a déclaré 2025 année du centenaire du « quantique »
(2) René BRUN (CERN), Journal of Modern Physics, 2023, 14, 623-665 
Particle Composition and Interactions Using the Nuon Model
https://doi.org/10.4236/jmp.2023.145036
(3) Wikipedia et réf., https://fr.wikipedia.org/wiki/Henri_Poincaré : il a été le premier en 1905 à 
proposer que les « ondes gravifiques » se déplacent à la vitesse c, 20 ans avant la découverte du neutrino.
(4) Mécanique Quantique : Deux interprétations ? par Alexandre & Michel Gondran
Revue « Découverte » de janvier-février 2016, n° 402 (Palais de la Découverte)
https://www.palais-decouverte.fr/fr/explorer-nos-contenus/revue-decouverte/archives/n-402-
janvier-fevrier-2016/articles#item-grid-38082
Texte complet : https://www.ipcms.fr/uploads/2022/06/Decouverte_2016.pdf
(5) Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?
https://journals.aps.org/pr/pdf/10.1103/PhysRev.47.777
https://cds.cern.ch/record/405662/files/PhysRev.47.777.pdf
(6) Physics Vol. 1, No. 3, pp. 195—200, 1964
https://journals.aps.org/ppf/pdf/10.1103/PhysicsPhysiqueFizika.1.195
https://inspirehep.net/literature/31657
(7) Cité par Antoine Tilloy dans la revue « La Recherche » LR-571, Oct-Déc 2022, p. 28-32
(8) rene.brun@cern.ch





Aucun commentaire:

Enregistrer un commentaire