Elementarkörpertheorie

basierend auf den Arbeiten zur Masse-Raum-Kopplung von Dirk Freyling

1986   2012   2026

         Wissen ist ein Privileg.                    Die Weitergabe eine Pflicht.

 

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Es begann in Deutschland im Jahr 1900 mit der Quantenphysik...

folgend die Quantenmechanik (QM) ist interdisziplinär betrachtet, mit dem ausdrücklichen Befürworten der QM-Macher, QM-Verkünder und QM-Nutznießer, gerne mißverständlich und gerne unverständlich. Das Volk liebt Metaphysik respektive Esoterik. Gemäß Theodor Fontane nicht verwunderlich, denn: „Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.“

 

Zur Kenntnisnahme und Selbstanalyse

Ist die Quantenmechanik (wirklich) unverständlich?
Eine weit verbreitete und gern geäußerte Schutzbehauptung besagt, dass die Quantenmechanik (QM) zwar unverständlich, irgendwie „seltsam“ sei, aber wissenschaftlich betrachtet, sehr voraussagepräzise ist.
Das hat(te) für die »QM-Bewahrer« den Vorteil, das sich nahezu niemand aufgerufen fühlt(e), sich kritisch mit Annahmen und Aussagepostulaten der QM zu beschäftigen.
Erst einmal, die Quantenmechanik ist aus mathematischer Sicht nicht „seltsam“. Es gibt im großen »Spektrum der Mathematik« deutlich schwierigere, komplexere und vor allen Dingen deutlich abstraktere Themenfelder. Siehe beispielsweise »Differentialtopologie« und »Abstrakte Algebra«.

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung
Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“ zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und „schrumpfen“ schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, in dem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Details und angesiedelte Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch eine so genannte Fourier-Reihe entwickelt werden kann.

Hilberträume statt Anschauung
Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.
So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x … darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten definiert respektive (interpretiert) gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die ganzzahlige Quantisierung banalerweise aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Kopenhagener Deutung von 1927
Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren „ersetzen“ die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein „Umsteigen“ auf die „Welle“ mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

Albert Einsteins Kritik

Interessanterweise war es Albert Einstein (1879–1955) der die Quantenmechanik schon in den Anfängen nachvollziehbar argumentativ begründet als unbrauchbar identifizierte:
…“die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde – im Fall des Gelingens solcher Bemühungen – im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik.“ … A. Einstein, Out of my later years. Phil Lib. New York 1950 Seite 498
Einsteins unschlagbare Argumente wurden und werden bis heute „schlicht“ ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein „Medienstar“ aber wissenschaftlich ohne weitere Bedeutung.

Mythos »Theorieschaft« [Theorie schafft]
Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg.

Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen.

Tatsache ist: Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«.

Die ~ 125-jährige Herrschaft der Quantenphysik und ihre 90-jährige kosmologische Erweiterung ruhen nicht auf einem soliden phänomenologischen Fundament, sondern auf einem stetig wachsenden Berg von Ad-hoc-Annahmen, freien Parametern und theoriebeladenen Interpretationen.

 

»Prinzip der Parsimonie«

Wenn Ockhams Rasiermesser das entscheidende Bewertungskriterium für Theorien ist, dann ist der Fall klar:

125 Jahre Quantenphysik und folgend das Standardmodell der Teilchenphysik:
• Keine primären Begriffe, sondern abstrakte mathematische Operationen mit sekundären, ungeklärten Entitäten.
• 25 freie Parameter allein im SM, die aus Experimenten entnommen werden müssen.
• Ein Higgs-Mechanismus, der die Massen nicht erklärt, sondern nur parametrisiert.
• Eine Quantenchromodynamik, die das Neutron nicht versteht und das Proton nicht berechnen kann.
• Eine Renormierungsmaschinerie, die Unendlichkeiten nicht beseitigt, sondern kaschiert.
• Eine Neutrinohypothese, die nicht aus der Phänomenologie, sondern aus der Not einer unvollständigen Energiebilanz geboren wurde.

90 Jahre Allgemeine Relativitätstheorie und folgend das
ΛCDM-Modell:
• Mindestens 6 freie Parameter, um ein Universum zu beschreiben, das zu 95% aus unerklärten Entitäten (Dunkle Materie, Dunkle Energie) bestehen soll.
• Eine Inflation, für die es keinen direkten Nachweis und keinen Mechanismus gibt.
• Ein Urknall, der phänomenologisch unverstanden bleibt und nur durch ständige Nachjustierung (Stichwort: CMB-Temperatur-Vorhersage von 50 K auf 2,7 K „korrigiert“) an die Messungen angepasst wurde.

Die Elementarkörpertheorie:
• Eine einzige fundamentale Gleichung!
Null freie Parameter.
• Rückführung aller sekundären Begriffe (Masse, Energie, Ladung, Spin) auf die primäre, sinnlich erfahrbare Größe r.
• Parameterfreie, quantitative Präzision vom Protonenradius bis zur CMB-Temperatur, von der Rydberg-Energie bis zur Vakuumenergiedichte-Diskrepanz.
• Eine dynamische, geometrisch-anschauliche Erklärung, die die Gravitation nicht als rätselhafte Kraft, sondern als konsequente Skalenkorrespondenz der Masse-Radius-Kopplung versteht.

Die 125-jährige Herrschaft der Quantenphysik und ihre 90-jährige kosmologische Erweiterung ruhen nicht auf einem soliden phänomenologischen Fundament, sondern auf einem stetig wachsenden Berg von Ad-hoc-Annahmen, freien Parametern und theoriebeladenen Interpretationen. Die EKT hingegen erreicht mit einem Bruchteil der Komplexität eine größere Erklärungstiefe und eine mindestens ebenbürtige, in vielen Fällen sogar überlegene quantitative Präzision.

Wenn das Parsimonieprinzip gilt, dann ist das Rennen entschieden. Die Geschichte der Physik wird sich daran erinnern, dass im Jahr 2026 eine Alternative veröffentlicht wurde, die all dies hätte früher leisten können – und dass sie so lange ignoriert wurde. Dass diese Erkenntnis nun weitreichend verbreitet wird, ist nicht das Ende der Physik, sondern das Ende einer langen, methodischen Irrfahrt in die Unanschaulichkeit. Es ist die Rückkehr zur Rationalität.

 

Interdisziplinäre .pdf-Zusammenfassung

Die Elementarkörpertheorie (EKT) stellt einen radikalen und in sich geschlossenen Neuanfang für die theoretische Physik dar. Sie ersetzt die axiomatisch-formalistischen, mit sekundären Begriffen operierenden Standardmodelle der Teilchenphysik und Kosmologie durch ein dynamisches, geometrischanschauliches und parameterfreies Denkmodell. Ausgehend von der primären, sinnlich erfahrbaren Größe der räumlichen Ausdehnung r wird alle Materie- und Wechselwirkungsphysik auf eine einzige fundamentale Gleichung zurückgeführt. Die folgende Synthese der zentralen Ergebnisse zeigt, dass die EKT nicht nur eine alternative Interpretation, sondern eine logisch zwingende und empirisch überlegene Theorie darstellt, die einen längst überfälligen Paradigmenwechsel in der Physik einleitet.

 

 

 

WARM UP!

Beginnen wir mit der Herleitung der, auch interdisziplinär, bekanntesten Gleichung...

 

Die vermeintliche Herleitung von E = mc2 gemäß Spezieller Relativitätstheorie
Eine kritische Analyse mit Vergleich zur Elementarkörpertheorie

Zusammenfassung
Die Gleichung E = mc2 gilt als die berühmteste Formel der Physik. Die Standardantwort auf die Frage nach ihrer Herleitung lautet: Aus der Speziellen Relativitätstheorie (SRT) Albert Einsteins. Dieses Dokument stellt die drei gängigen SRT‑Herleitungen im Detail dar: Einsteins ursprüngliches Gedankenexperiment von 1905, die moderne Herleitung über den Viererimpuls und die Herleitung über die Energie‑Impuls‑Beziehung. Jede dieser Herleitungen wird kritisch analysiert. Es zeigt sich, dass alle SRT‑Herleitungen auf unbewiesenen Postulaten beruhen, willkürliche Setzungen enthalten oder Näherungen verwenden. Im Gegensatz dazu wird die Herleitung der Elementarkörpertheorie (EKT) vorgestellt, die E = m0c2 exakt, dynamisch, geometrisch anschaulich und parameterfrei aus den Entwicklungsgleichungen r(t) = r0 sin(ct/r0) und m(t) = m0 sin(ct/r0) ableitet. Der Anhang enthält Ausführungen zur Denkmodellgeschichte, zur Problematik der Quantenelektrodynamik (QED) und zu einigen phänomenologischen Grundlagen der Elementarkörpertheorie.
[pdf-Dokument E=mc² in neuem Browserfenster öffnen]

 

Elementarkörpertheorie

basierend auf den Arbeiten zur Masse-Raum-Kopplung von Dirk Freyling

1986   2012   2026

 

Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert »plakativ-psychologisch« auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959

 

EKT

Zusammenfassung

Die Elementarkörpertheorie (EKT) stellt einen radikalen Bruch mit der etablierten theoretischen Physik dar. Anstelle sekundärer Begriffe wie Masse, Energie oder Ladung tritt die primäre, sinnlich erfahrbare Größe der radialen Ausdehnung (r) als einziger Parameter in den Mittelpunkt. Basierend auf einer fundamentalen Gleichung, der Masse-Radius-Konstantengleichung [F1], m0 · r0 = 2h/(π · c), können sowohl mikroskopische Größen (wie z.B. Protonenradius, Elektronenradius, Rydberg-Energie, Neutronenmasse, magnetische Momente, Feinstrukturkonstante) als auch makroskopische Größen (z.B. Alter, Masse und Radius des Universums, Temperatur der Hintergrundstrahlung, Vakuumenergiedichte) analytisch ohne freie Parameter berechnet werden. Die Elementarkörpertheorie widerlegt die Standardmodelle theoriepostulierte Existenz von Neutrinos, Quarks und dunklen Entitäten, identifiziert diese als theorielastige Artefakte und führt alle Phänomene auf die Masse-Radius-Kopplung zurück. Die Begründung und der daraus resultierende Formalismus ist, wortwörtlich, denkbar einfach. Die Standardmodellphysik gibt dem Raum keine energetische Bedeutung. Sobald jedoch »Raum als Energieform«* verstanden wird, entsteht ein Energie erhaltendes konsistentes, leicht formalisierbares, phänomenologisch darstellbares Denkmodell, indem Masse und Raum Energieträger sind. Wobei, anders als der Raum(begriff), der sekundäre Massebegriff (die Masse) im phänomenologischen Ursprung der EKT aus dem primären Raumbegriff (Körperradius) Masse-Radius gekoppelt abgeleitet wird. Die erkenntnistheoretischen Grundlagen werden im Spannungsfeld zwischen euklidischer Anschauung und hilbertscher Axiomatik untersucht.

E = m · c² „kennt jeder“. »Warm up«, als konkrete Arbeitsleistung der EKT in Form eines pdf-Dokumentes (wahlweise in englisch oder deutsch), ist daher der erste unter dualismus.net veröffentlichte Artikel im arXiv-Stil, bevor die Grundlagen und weitere Denkmodell-Folgerungen der Masse-Raum-Kopplung hier online vorgestellt werden. Dies geschieht nach und nach.

*

Allgemeine experimentelle Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

Niels Bohr (1885 - 1962) äußerte bereits 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei, wie bei der Quantenmechanik**. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Bohr war bereits früher davon ausgegangen, dass der Energieerhaltungssatz im Rahmen der sogenannten BKS-Theorie (nach den Namen von Niels Bohr, Hendrik Kramers und John Slater) des Welle-Teilchen-Dualismus nur statistische Gültigkeit besitzt (On the quantum theory of radiation by N. Bohr, H. A. Kramers, and J. C. Slater 1924). Zweifel an der Gültigkeit des Energieerhaltungssatzes hatte Bohr schon viel früher geäußert, z.B. in seinem Briefwechsel mit Charles Galton Darwin, einem Enkel des Biologen, aus dem Jahr 1919.

1931 organisierte Enrico Fermi (1901 - 1954) den ersten Internationalen Kongress für Kernphysik, der unter der Schirmherrschaft der Accademia d'Italia und der Volta-Stiftung vom 11. bis 17. Oktober 1931 in Rom stattfand.

 

Die etablierte Physik postuliert eine unvollständige Energieerhaltung, da sie die in der phänomenologisch begründeten Masse-Radius-Kopplung enthaltene Raumenergie nicht kennt. Sie muss daher für jede scheinbare Verletzung der Bilanz – wie beim Beta-Zerfall – neue, nicht direkt nachweisbare Entitäten wie Neutrinos postulieren, anstatt den phänomenologischen Grund der Energietransformation zu erkennen: den dynamischen Raum.

Die konsistente Formulierung muss daher lauten: Die Summe aus Bewegungsenergie, Masseenergie und Raumenergie ist konstant. Vom Energieerhaltungssatz zu sprechen, ohne die phänomenologische Rolle des gekoppelten Masse-Radius-Systems zu verstehen, ist unvollständig. Die Energieerhaltung gilt streng, aber nicht in der lückenhaften Bilanz der Standardphysik. Masse und Raum sind einander bedingende Energieträger, deren gemeinsames Produkt – ausgedrückt durch die Masse-Radius-Konstantengleichung: m0 · r0 = 2h / (πc) – die eigentliche Invariante ist.

Vom Energieerhaltungssatz zu sprechen, erfordert daher das Bewusstsein der Masse-Raum-Kopplung. Die Energieverteilung kann weder durch die Masse noch durch den Raum allein beschrieben werden, sondern nur durch ihr dynamisches Verhältnis.

In der Elementarkörpertheorie ist die Ruhemasse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Radius-kleinere Elementarkörper besitzen eine größere Masse, da diese der (möglichen) Bewegung der oszillierenden Oberfläche äquivalent ist. Masse ist im Bild des Elementarkörpers also gleichbedeutend mit innerer Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Die Masse ist damit kein isolierter ‚Partner‘ in einer Energie-Umverteilung, sondern eine abgeleitete, sekundäre Größe. Die Energieerhaltung ist eine direkte Konsequenz der synchronen Transformation dieses fundamental gekoppelten Systems.

 

** Fundamentale Bemerkung zur QM

Interessanterweise war es Albert Einstein (1879 - 1955), der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte:

..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

Einsteins Argument lässt sich in folgende logische Struktur zerlegen:

Prämisse 1 (Beobachtung):
Die Quantenmechanik in ihrer orthodoxen (Kopenhagener) Interpretation beschreibt physikalische Systeme durch die Wellenfunktion ψ. Diese liefert ausschließlich statistische Aussagen über Messergebnisse an einer großen Anzahl identisch präparierter Systeme (einem Ensemble).

Prämisse 2 (Definition):
Eine „vollständige Beschreibung eines Einzelsystems“ müsste dessen individuellen, zeitlichen Ablauf vollständig und deterministisch erfassen, ohne auf statistische Mittelungen über hypothetische Ensembles angewiesen zu sein.

Schlussfolgerung 1 (logische Deduktion):
Wenn die QM nur statistische Aussagen über Ensembles macht (Prämisse 1), dann kann sie per Definition keine vollständige Beschreibung des Einzelsystems liefern (Prämisse 2). Dies ist ein rein definitionslogischer Schluss: Eine statistische Theorie ist keine Theorie des individuellen Objekts, sondern eine Theorie der Gesamtheit.

Prämisse 3 (Wissenschaftstheoretische Norm):
Eine fundamentale physikalische Theorie sollte den Anspruch erheben, die Realität an sich zu beschreiben, d.h. eine vollständige Beschreibung des individuellen physikalischen Systems zu liefern.

Schlussfolgerung 2 (Konsequenz):
Die QM kann daher – bei Akzeptanz ihrer eigenen statistischen Natur – nicht als fundamentale Basis der theoretischen Physik dienen. Sie nähme dann eine analoge Stellung ein wie die statistische Mechanik, die bekanntermaßen keine fundamentale Theorie ist, sondern eine Näherungsmethode, die auf der (fundamentaleren) klassischen Mechanik aufbaut.

Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Warum die Jahreszahlen 1986, 2012, 2026?

1986
Die Anfänge der Elementarkörpertheorie stammen aus dem Jahr 1986. Die Theorie ist seit vielen Jahren ausformuliert und liefert exakte Voraussagen, die experimentell bestätigt sind.

2012
Geht auf 2010 zurück, die dazu „etwas" längere Ausführung wird in einem eigenen Browserfenster angezeigt, siehe »out of the box«

2026
Die Elementarkörpertheorie ist gesamtheitlich in deutscher Sprache schon seit deutlich mehr als 10 Jahren online. Erst mit den jüngsten zeiteffektiven Programmen in den Bereichen »text to speech«, »voice over« (für einen Film zur Theorie), weiterentwickelten Latex-Code-Generatoren-Programmen, wie Overleaf und dem Logik orientierten, ergebnisoffenen Sprachmodell DeepSeek, welches u.a. professionell komplexe Latex-, html- und Python-Berechnungs-Codes generiert. DeepSeek analysiert pro Chat bis zu 50 Bilder auf enthaltene Aussagen und Gleichungen, pdf-Dateien und komplexe Webseiten. Mit DeepSeek lassen sich detaillierte, wissenschaftliche Publikationen im arXiv-Stil effektiv und „schnell" erstellen, die den strikten wissenschaftlichen Normveröffentlichungen genügen. Dazu ein (vergangenes) Negativ-Beispiel aus dem Mainstream, wie nicht nur im Bürokratie überfrachteten politisch-wirtschaftlich-sozialen Raum, sondern auch im mathematisch-naturwissenschaftlichen Spektrum mehr Wert auf Form statt Inhalten gelegt wird.

Thomas Royen ist ein deutscher Statistikprofessor, der 67-jährig und bereits vier Jahre im Ruhestand „verweilend“, in 2014 unerwartet die so genannte Gaußsche Korrelationsungleichung bewiesen hat: Das Verblüffende an Thomas Royen's Beweis ist, dass er klassische Methoden nutzt, die im Grunde jeder Mathematikstudent verstehen kann. Der Beweis ist nur wenige Seiten lang...

Auch nach seinem letztendlichen Veröffentlichungserfolg ärgerte sich Royen noch lange im Hinblick auf die Tatsache, dass die etablierten Wissenschaftsjournale seine Arbeit ignorierten.

Hintergrund: Es gab diverse Mathematiker, die jahrzehntelang vergeblich versuchten den Beweis zu erbringen. Da sich Royen eher (out of the box) am Rande der mathematischen Fachkreise aufhielt, konnte er offensichtlich ergebnisoffener als seine Fachkollegen das Problem der Beweisführung angehen. Seine diesbezügliche Erstveröffentlichung wurde jedoch inhaltlich ignoriert, da diese nicht der gängigen Gestaltungsform entsprach. Erst als andere Mathematiker auf seinen Beweis aufmerksam wurden und in die normierte Veröffentlichungsform „transformierten“, wurde die Arbeit ernst genommen.

...viel einfacher als »Alle« behaupten

Übergeordnet wichtig ist hier der Hinweis, dass Royen exemplarisch das mittlerweile größte Problem der Wissensentwicklung - insbesondere im Rahmen Theoretischer Grundlagenforschung - exemplarisch offenlegt. Die etablierten Denkkonzepte lassen keinen Freiraum für zielführend einfache Gedanken. Die Standardtheoretiker denken und handeln so, als ob die von ihnen gewählten hochkomplexen, komplizierten Denkansätze alternativlos seien. Sie sind letztendlich nicht nur umgangssprachlich dumm, sie sind auch arrogant und ignorant. Diese Erwartungshaltung gepaart mit destruktiv emotionalen Charaktereigenschaften (später mehr dazu) ergeben eine fatale Mischung für den »Wissensbetrieb«.

2012 geht auf 2010 zurück, die dazu „etwas" längere Ausführung wird in einem eigenen Browserfenster angezeigt, siehe »out of the box«

 

Elementarkörpertheorie

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Worum geht es?

Um einen nachhaltigen Paradigmenwechsel.

Was ist hier mit Paradigmenwechsel gemeint?

Das Ersetzen der Standard-Denkmodelle [SM ΛCDM] der Theoretischen Physik.

[SM] Standardmodell der (Elementar)-Teilchenphysik (SM)
[ΛCDM] Kosmologisches Standardmodell (ΛCDM-Modell)

Was tritt an deren Stelle?

Ein deutlich anschaulicheres, effektiveres, interdisziplinär vermittelbares, mathematisch einfacheres Denkmodell [EKT], welches vereinheitlichend und skalenübergreifend Mikro- und Makro-Kosmos voraussagefähig beschreibt.

[EKT] Die Elementarkörpertheorie (kurz EKT) befasst sich insbesondere mit Antworten auf die Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen. Für ein anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig.

Welche Argumente sprechen für diesen Paradigmenwechsel?

Das Parsimonieprinzip

[: Ockhams Rasiermesser      lex parsimoniae     Sparsamkeitsprinzip]

Die streng analytisch ↓ motivierte Verwendung
des Prinzips der Parsimonie
in den vorliegenden Ausführungen

               

Denkmodelle können (nur) auf Konsistenz, innerer axiomatischer Widerspruchsfreiheit, im Hinblick auf Aussagefähigkeit bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik, bewertet werden.

Um experimentell überprüfbare Zusammenhänge formal-analytisch im Rahmen von Denkmodellen beschreiben zu können, ist das Denkmodell zu bevorzugen, dass mit den wenigsten (physikalischen) Variablen und mathematisch einfachsten Gleichungen möglichst exakte Voraussagen trifft. Des Weiteren ist das Denkmodell am geeignetsten, welches neben der verwendeten Mathematik phänomenologisch erfassbar und konsistent, sowohl (skalenübergreifend) den Mikro- als auch den Makro-Kosmos, beschreiben kann, sowie einen formalen und phänomenologisch begründbaren Zusammenhang zwischen Licht (genauer PhotonenPh) und Materie erfasst.

[Ph] Die Bezeichnung Photonen wurde zum ersten Mal im Jahre 1926 (21 Jahre nach Albert Einsteins Arbeit zum Photoelektrischen Effekt) von dem amerikanischen Physikochemiker Gilbert Lewis in einer Arbeit mit dem Titel „The Conservation of Photons“ vorgeschlagen. Er spekulierte, ob Licht aus einer neuen Atomsorte bestehe, die er Photonen nannte, die weder erzeugt noch vernichtet werden könnten, also einem Erhaltungssatz gehorchen [A. Pais  "’Raffiniert ist der Herrgott’… Albert Einstein – Eine wissenschaftliche Biographie“, Vieweg 1986, S. 413].

Ein Vergleich

Denkmodellchemie und Denkmodellphysik

Erst einmal, gemäß meiner eigenen, authentischen Erfahrungen und Beobachtungen sind universitäre, praktische Veranstaltungen im Bereich Chemie nicht mit einer betrieblichen Ausbildung und nicht mit einem betrieblichen Alltag zu vergleichen. Ich bin gelernter Chemielaborant, habe als solcher kurzzeitig auf Wechselschicht in der Produktionskontrolle von Farbstoffen gearbeitet. Während des Physik-Studiums als studentische Hilfskraft im Bereich Didaktik der Physik und als Zeitarbeiter, hin und wieder, als Chemielaborant während des Studiums für verschiedene Firmen im Bereich der Schwerindustrie und hatte im Physik-Hauptstudium als Nebenfach Metallorganische Chemie gewählt. Sowohl für den Physik- als auch für den Chemie-Sektor gilt, dass die meisten Lehrer und viele akademisch Ausgebildete, wie auch Ärzte, in ihrem Berufsalltag keine Forscher sind. Angewandte Physik ist ähnlich wie Chemie. Der Versuch macht klug. Der Unterschied zwischen Chemie und Physik besteht darin, dass in der Chemie selbst der Erfolg der Theoretischen Chemie meist praktisch-konstruktiv ist, da Anwendungen folgen (Verfahrenstechnik, Produkte). In der Theoretischen Grundlagen-Physik (insbesondere Standardmodell der Kosmologie [ΛCDM-Modell] und Standardmodell der Elementarteilchenphysik [SM]) gibt es keine Anwendungen. Theoriefindung und Theorieerweiterung bleiben reine Spekulation.

Die Didaktik der Chemie sehe ich in der Oberstufe oder im Grundstudium als wenig problematisch an, da die vermittelten „einfachen“ Modelle praktisch gesehen zu guten Näherungen führen. In der Physik sieht das anders aus. Dort werden bereits (Ober-)Schülern vereinfachte Konzepte und Theorieelemente „verkauft“, die bei genauer Sicht philosophischen und nicht physikalischen Denkmodellen entspringen. Letztendlich definiert sich die Theoretische Physik durch den Glauben an eine gestalterische Mathematik und postulierten nicht direkt nachweisbaren Theorieobjekten und Wechselwirkungen, sowie einer großen Anzahl freier Parameter. Und wie gesagt, das ist nur möglich, weil keine Anwendungen folgen (müssen). Für die Wissensvermittlung werden Lehrer und Hochschul-Dozenten im Rahmen der gängigen Standardmodelle „gezwungen“ (sein), diese auch zu vermitteln. Persönliche Ansichten sind sozusagen „lehrbehördlich“ nicht gewünscht, wenn diese signifikant von der gängigen Methode oder/und von etablierten Denkmodellen abweichen.

 

Elementarkörpertheorie (EKT)
Grundlagen, energetische Analogien,
Vereinheitlichung von Mikro- und Makrokosmos

ein erster Überblick

 

 

 

Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.

...die etwas andere Leiche im SM-Keller...

 

Higgs-Mechanismus


Es gibt eine Vielzahl von „Abhandlungen“ zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des „Verfahrens“ skizziert werden.

Folgender Sachverhalt wird kaum thematisiert bzw. „teilweise verschwiegen“: Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m2 < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms.

Die geforderten Eigenschaften des Higgs-Feldes sind:
»Higgs-Teilchen« sind Bosonen, weil nur dann eine kohärente Wellenfunktion möglich ist. Aus dem gleichen Grund müssen »Higgs-Teilchen« untereinander wechselwirken. Das Higgs-Feld ist skalar, um die Symmetrie des Vakuums zu erhalten. Im vorliegenden Fall der U(1)em-Eichtheorie muß das Feld geladen sein, um an das Photon zu koppeln. Das Higgs-Feld erfüllt die Klein-Gordon-Gleichung:



Zur Erinnerung: Vom Standpunkt der Relativitätstheorie aus erscheint die Klein-Gordon-Gleichung zwingend als die einzig mögliche Form der quantenmechanischen Bewegungsgleichung für ein freies Teilchen der Masse m. Es gibt dabei jedoch ein Problem: Die Zeitentwicklung ist nicht linear; das aber steht im Gegensatz zur Gruppenstruktur der Zeittranslationen zusammen mit der Wahrscheinlichkeitsinterpretation der Hilbertraum-Vektoren. Das war der Grund für Schrödinger, die – von ihm selbst aufgestellte – Klein-Gordon-Gleichung schließlich wieder zu verwerfen und sich resignierend auf den nichtrelativistischen Fall der Schrödinger-Gleichung zu beschränken. Eine Lösung der formalen Probleme „gelingt“ im Rahmen der Quantenfeldtheorie, in der man die Idee von einzelnen, isoliert voneinander existierenden Teilchen aufgibt...

Die allgemeine Lösung der freien Klein-Gordon-Gleichung ist eine Superposition von ebenen Wellen: Zu einem vorgegebenen Impuls gibt es („gleichberechtigt“) Lösungen mit positiver und negativer Energie. Diese Tatsache wird ideologisch im Rahmen der herrschenden Physik methodisch ausgeblendet und durch willküraffine Interpretationen „relativiert“


Dem so genannten »Dirac-See« folgte die Feynman-Stückelberg-Interpretation für „unerklärliche“ negative Energiewerte der Dirac-Gleichung. Im Bild der Quantenmechanik „löste“ man dieses Problem vermeintlich mit Hilfe der Heisenbergschen Unschärferelation, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen. Das negative Vorzeichen der Energie wird auf die Zeit übertragen (Feynman-Stückelberg-Interpretation). Dirac verstand unter dem Dirac-See das Vakuum als einen unendlichen „See“ von Teilchen mit negativer Energie, ohne weitere freie Plätze für negative Energien (?!?). Man muß(te) wahrscheinlich Dirac, Feynman oder Stückelberg heißen, um sich solch naiven „Zauber“ leisten zu können. Der Wille fehlende Anschauung durch formale Hilfskonstruktionen bzw. wilde Fantasie zu ersetzen ist überdeutlich. Mathematisch ist das kein Problem, erkenntnistheoretisch schon.

Man postuliert, dass sich das Higgs-Feld im Grundzustand mit einem Vakuumerwartungswert |Ψ0|2 = const ≠ 0 befindet. Die Forderung eines im Grundzustand nicht verschwindenden Erwartungswertes ist nicht trivial und kann nur mit einer Selbstwechselwirkung des Feldes „erfüllt“ werden. Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Im Verlauf dieser mathematischen Prozedur zeigt sich, dass ein weiteres masseloses Vektorboson, das so genannte Goldstone-Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als „unphysikalisch“ erklärt und mathematisch eliminiert („weggeeicht“).

Es gilt jedoch zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Die Verselbständigung der mathematischen SM-Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um „Ergebnisse“ zu erhalten.

Sparen wir uns weiteres, willkürlich postuliert SM-Theoretisches an dieser Stelle...

Jede Sprache hält angesichts dieser – an Beliebigkeit, Willkür und Inkonsistenzen nur so strotzenden – ergebnislosen »Higgs-Konstruktion« Kraftausdrücke parat, die hier angebracht wären. Der Leser möge seiner Fantasie diesbezüglich freien Lauf lassen. Ist dieser Higgs-Wirrwarr wirklich ernst gemeint? Das kann doch nicht sein, oder? Dafür gab es einen Nobelpreis? Hier „reden“ wir im Moment nur von der Theorie. Die Praxis sieht ähnlich düster aus. Es braucht mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen nur indirekt „nachweisbar“ ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern „Freie-Parameter-Gleichungen“, die zu (k)einem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein Meßereignis. Weiteres dazu siehe das pdf-Dokument
u.a. bezüglich des Vergleichs zur Masse-Radius gekoppelten Higgs-Massenberechnung in der Elementarkörpertheorie…

 

Zusammenfassung

Dieses Dokument vergleicht das Standardmodell der Teilchenphysik (SM) mit der Elementarkörpertheorie, mit besonderem Fokus auf das Higgs-Boson. Während das SM die Higgs-Masse nicht aus ersten Prinzipien ableiten kann und auf theoriebeladene, indirekte Detektionsverfahren angewiesen ist, bietet die EKT eine parameterfreie, erkenntnistheoretisch fundierte Alternative. Die Analyse zeigt, dass die vermeintliche „Entdeckung“ des Higgs-Bosons am LHC eine starke Theorieabhängigkeit aufweist – die Rohdetektorauflösung von etwa 5–6% wird durch SM-Annahmen auf ±0,1–0,2GeV „verbessert“. Die EKT hingegen berechnet eine Higgs-artige Masse [Gl. 2q0q0] aus der Proton-(Anti-)Proton-Wechselwirkung zu etwa 128,6 GeV – ohne freie Parameter, ohne Monte-Carlo-Simulationen, ohne theoriebeladene Kalibrierung:

Im Vergleich zur EKT ist das SM erkenntnistheoretisch naiv, mathematisch überladen und kaum falsifizierbar charakterisiert, während die EKT als primärgrößenbasierter, einfacher und präziser Neuanfang erscheint.

 

Elementarkörpertheorie (EKT)
Grundlagen, energetische Analogien,
Vereinheitlichung von Mikro- und Makrokosmos

ein erster Überblick

 

WARM UP!

Die vermeintliche Herleitung von E = mc2 gemäß Spezieller Relativitätstheorie

Eine kritische Analyse mit Vergleich zur Elementarkörpertheorie

Zusammenfassung

Die Gleichung E = mc2 gilt als die berühmteste Formel der Physik. Die Standardantwort auf die Frage nach ihrer Herleitung lautet: Aus der Speziellen Relativitätstheorie (SRT) Albert Einsteins. Dieses Dokument stellt die drei gängigen SRT‑Herleitungen im Detail dar: Einsteins ursprüngliches Gedankenexperiment von 1905, die moderne Herleitung über den Viererimpuls und die Herleitung über die Energie‑Impuls‑Beziehung. Jede dieser Herleitungen wird kritisch analysiert. Es zeigt sich, dass alle SRT‑Herleitungen auf unbewiesenen Postulaten beruhen, willkürliche Setzungen enthalten oder Näherungen verwenden. Im Gegensatz dazu wird die Herleitung der Elementarkörpertheorie (EKT) vorgestellt, die E = m0c2 exakt, dynamisch, geometrisch anschaulich und parameterfrei aus den Entwicklungsgleichungen r(t) = r0 sin(ct/r0) und m(t) = m0 sin(ct/r0) ableitet. Der Anhang enthält Ausführungen zur Denkmodellgeschichte, und zur Problematik der Quantenelektrodynamik (QED) zu einigen phänomenologischen Grundlagen der Elementarkörpertheorie.

 

[BASISSUCHE AlexDirkFreyling 59ndf Foto von T.B.]

Autor

Dirk Freyling – unabhängiger Forscher & Künstler

[Künstlername AlexD, daher auch adf als Autorenkürzel]

contact adf